- Un hombre surcoreano ha sido encarcelado por crear imágenes sexualmente explícitas de niños.
- Fue sentenciado a dos años y medio de prisión en este caso histórico, informó el Korea Herald.
- Una ciudad española ha sido sacudida después de que se utilizara una aplicación de inteligencia artificial para crear fotos falsas de chicas desnudas.
Un hombre surcoreano ha sido encarcelado por utilizar indicaciones de inteligencia artificial para crear imágenes de pornografía infantil, informó el Korea Herald, citando a medios locales.
El hombre anónimo, de unos 40 años, fue acusado de violar la Ley de Protección de Niños y Jóvenes y condenado a dos años y medio de prisión.
El hombre está acusado de utilizar un programa de inteligencia artificial generador de imágenes para crear aproximadamente 360 imágenes sexuales, dijo la fiscalía a CNN. No distribuyó las imágenes, que fueron confiscadas por la policía.
Usó indicaciones como «10 años», «desnudo» y «niño» para generar las imágenes, que el tribunal dictaminó que eran lo suficientemente realistas como para rechazar el argumento de la defensa de que no podían considerarse sexuales. Según el Korea Herald, se trata de una forma de explotación.
La fiscalía dijo a CNN que el fallo del tribunal demostró que las imágenes falsas pero reales de menores creadas con un «alto nivel» de tecnología podrían considerarse contenido de abuso sexual.
A principios de este mes, una ciudad española se vio sacudida por la creación y distribución de imágenes de chicas jóvenes desnudas generadas por IA en varias de sus escuelas.
Más de 20 niñas de entre 11 y 17 años fueron identificadas como víctimas en la localidad de Almendralejo, en la región occidental de Extremadura.
Según se informa, las imágenes deepfake se crearon utilizando Clothoff, una aplicación impulsada por inteligencia artificial que permite a los usuarios «quitarle la ropa a las niñas de forma gratuita». En su mayoría fueron creados usando fotografías tomadas en las cuentas de redes sociales de las niñas, que las mostraban en plena marcha.
La tecnología deepfake utiliza inteligencia artificial para generar videos, audio o imágenes nuevos y auténticos que representan algo que en realidad no sucedió.
Como advirtió un anuncio de servicio público del FBI emitido en junio de 2023, la tecnología tiene un pasado oscuro y a menudo se utiliza para crear pornografía no consensuada.
«El FBI continúa recibiendo informes de víctimas, incluidos niños menores y adultos sin consentimiento, cuyas fotos o videos han sido alterados por contenido explícito», dijo la agencia, y agregó que el contenido a menudo «fue difundido públicamente en las redes sociales o pornográfico». sitios web” con el fin de acosar a la víctima o en un plan de sextorsión. «
La fiscalía de Corea del Sur no respondió de inmediato a la solicitud de comentarios de Insider fuera del horario comercial habitual.