Como ha adelantado 'Última Hora', los presuntos autores serían tres menores que habrían manipulado fotos de compañeras de instituto para convertirlas en escenas sexuales, y después las habrían compartido por Internet.
Casos como éste se han dado antes en otros puntos de España, como Zaragoza y Badajoz. Al hilo de esos precedentes, expertos en derecho penal explicaron que las empresas titulares de las aplicaciones que se utilizan para recrear estos falsos desnudos no tendrían responsabilidad penal, pero la Agencia Española de Protección de Datos podría actuar administrativamente por no actuar para impedir este tipo de usos.
El Senado aprobó en octubre una moción del PP que aboga por ampliar la definición legal de pornografía infantil para tipificar las imágenes generados por IA que presenten a menores en conductas sexualmente explícitas o que afecten a su intimidad.
El fenómeno se conoce como deepfake; la Inteligencia Artificial permite manipular el contenido, a través de la técnica deep learning; una tecnología que simula el cerebro humano y modela abstracciones. Muchos menores la utilizan "por diversión", pero la policía advierte que el uso que se haga de esas imágenes puede ser delito, además de un grave ataque contra la intimidad.
Los principales riesgos que acarrea ser víctima de esta práctica radican en que la fotografía circule en redes o páginas de pederastia, además de poder ser víctimas de sextorsión, ya que, "aunque para nosotros esas imágenes son falsas, para el resto parecen reales".