Policía española investiga falsos desnudos de menores generados por inteligencia artificial
Los sospechosos se enfrentan a posibles cargos por pornografía infantil y violación de las leyes de privacidad.
Investigación en España: Jóvenes Acusados de Crear Imágenes «Deepfake» de Menores
La policía en España ha lanzado una investigación sobre cinco jóvenes sospechosos de utilizar inteligencia artificial para crear imágenes pornográficas de menores de edad y distribuirlas en internet, según un comunicado de la Guardia Civil divulgado el lunes. Este escandaloso caso ha causado un «daño significativo» tanto «emocional como social» a las víctimas, que son todas chicas menores de edad de la provincia de Sevilla.
Los implicados, algunos de ellos menores, conocían a las víctimas, lo que añade una capa de gravedad a la situación. La investigación revela que las imágenes modificadas eran compartidas en redes sociales, lo que complicaba enormemente la tarea de distinguir entre las imágenes auténticas y las alteradas.
La creación de estos contenidos manipulados se ha vuelto más accesible con el avance de la inteligencia artificial. La técnica conocida como «deepfake» permite generar imágenes y videos extremadamente realistas con poco esfuerzo y coste. Estos contenidos se crean a partir de fotos públicas de las víctimas, que se extraen de sus redes sociales y se alteran para parecer desnudas.
Los sospechosos se enfrentan a graves cargos, incluidos la pornografía infantil y la violación de leyes de privacidad. La policía está trabajando para identificar y procesar a los responsables, mientras las víctimas lidian con el impacto emocional y social de este delito.