Fotografías de niñas fueron alteradas con IA por sus compañeros para venderlas con fines sexuales en Perú
Recientemente en Perú fotografías de 12 menores fueron alteradas a través de inteligencia Artificial por parte de sus compañeros, esto con la finalidad de venderlas con propósitos sexuales. Las 12 familias afectadas se encuentran consternadas por la magnitud del problema, ya que aún no se conoce el número total de víctimas ni la extensión de este episodio que tuvo lugar en una escuela de Lima.
Ana Navas, madre de una de las niñas afectadas y quien inicialmente denunció el caso, expresó su preocupación:
El lunes, un grupo de padres de alumnos del colegio privado Saint George’s hizo la denuncia de que algunos estudiantes de secundaria habían manipulado las imágenes de redes sociales de sus compañeras para que aparentaran estar desnudas y luego las comercializaban estas imágenes.
Navas relató que las fotos manipuladas con fines sexuales fueron descubiertas por una estudiante que encontró en uno de los ordenadores escolares una sesión iniciada por otro alumno, que incluía una conversación con las imágenes alteradas que mostraban a las niñas antes y después de la manipulación.
Además de las fotografías, en la conversación se encontraba información sobre el precio de las imágenes, posibles compradores y referencias al programa de inteligencia artificial utilizado en el proceso de alteración.
Según fuentes consultadas, los presuntos responsables tienen entre 13 y 14 años y habrían extraído imágenes de las redes sociales de sus compañeras. Utilizando una aplicación, superponían sus caras en cuerpos desnudos falsos para luego vender estas imágenes a otros estudiantes del mismo colegio.
En respuesta a la denuncia, un equipo de la Fiscalía de Familias de Chorrillos, el distrito limeño en el que se encuentra la escuela, acudió al centro educativo para recabar información.