SUCESOS Y TRIBUNALES

Investigan a tres menores por crear un montaje porno con IA en Felanitx

Fotos de compañeras de instituto

EUROPA PRESS | Miércoles 10 de abril de 2024
La Guardia Civil investiga en Mallorca un caso de manipulación pornográfica de imágenes con inteligencia artificial que afecta a menores, según han confirmado a Europa Press fuentes próximas al caso.

Como ha adelantado 'Última Hora', los presuntos autores serían tres menores que habrían manipulado fotos de compañeras de instituto para convertirlas en escenas sexuales, y después las habrían compartido por Internet.

Casos como éste se han dado antes en otros puntos de España, como Zaragoza y Badajoz. Al hilo de esos precedentes, expertos en derecho penal explicaron que las empresas titulares de las aplicaciones que se utilizan para recrear estos falsos desnudos no tendrían responsabilidad penal, pero la Agencia Española de Protección de Datos podría actuar administrativamente por no actuar para impedir este tipo de usos.

El Senado aprobó en octubre una moción del PP que aboga por ampliar la definición legal de pornografía infantil para tipificar las imágenes generados por IA que presenten a menores en conductas sexualmente explícitas o que afecten a su intimidad.

LA AMENAZA DE LOS 'DEEPFAKES'

El fenómeno se conoce como deepfake; la Inteligencia Artificial permite manipular el contenido, a través de la técnica deep learning; una tecnología que simula el cerebro humano y modela abstracciones. Muchos menores la utilizan "por diversión", pero la policía advierte que el uso que se haga de esas imágenes puede ser delito, además de un grave ataque contra la intimidad.

Los principales riesgos que acarrea ser víctima de esta práctica radican en que la fotografía circule en redes o páginas de pederastia, además de poder ser víctimas de sextorsión, ya que, "aunque para nosotros esas imágenes son falsas, para el resto parecen reales".

TEMAS RELACIONADOS:


Noticias relacionadas