Sin embargo, esa no es la única problemática, pues además de imágenes también hay videos falsos generados por IA. Genevieve Oh descubrió que en 2023 se subieron 143,000 videos, una cifra superior a todos los videos que se cargaron entre 2016 y 2022. Por otra parte, el número de visitas fue superior a los 4.2 millones.
Las aplicaciones de Inteligencia Artificial hoy en día son capaces de generar escenarios que no sucedieron en ningún momento. Su concepto se basa en utilizar imágenes reales para crear fotografías de desnudos.
El software funciona a partir de analizar millones de imágenes de pornografía, así como las de la víctima. Después de realizar este proceso, predice cómo se verá el cuerpo desnudo y supermone el rostro de la persona en la escena sexual.
Las mujeres son las más afectadas de este asunto
Si bien las aplicaciones más populares para generar imágenes con IA no permiten la creación de contenido sexual, los usuarios han encontrado un área gris en los softwares de código abierto, un concepto en donde los desarrolladores pueden encontrar nuevos usos a la tecnología, pero que en ocasiones tienen fines funestos.
Esta tecnología representa un riesgo particularmente para las mujeres, ya que de acuerdo con un estudio de la empresa de monitoreo de deepfakes, Sensity AI, el 96% de las imágenes de este tipo son pornografía y el 99% representan a mujeres.
Un ejemplo de esta situación sucedió en la Escuela Superior de Comercio y Administración (ESCA), del Instituto Politécnico Nacional (IPN), donde se reveló que Diego “N”, estudiante de la carrera de Mercadotecnia Digital tenía un iPad con cerca de 16,000 archivos reales y manipuladas de mujeres, entre ellas compañeras de aulas.
Este hecho sucedió el pasado 6 de octubre y Expansión reportó que este es el primer caso en México donde se exige justicia para víctimas de violencia sexual a partir del uso de tecnologías de Inteligencia Artificial. No obstante, el acusado fue puesto en libertad la mañana del 9 de octubre.
Posteriormente, el 26 de octubre, Diego “N” fue detenido por segunda vez por el mismo caso y actualmente su caso sigue en proceso señalado de cometer delito contra la intimidad sexual, aunque activistas y víctimas señalan que él no actuó solo en la generación de ese contenido.
¿México cuenta con una ley contra la el uso de IA en caso de violencia sexual digital?
En el país, una de las legislaciones más avanzadas en temas de violencia sexual digital es la Ley Olimpia, la cual destaca que la manipulación de imágenes a través de IA también representa una forma de violencia digital.
Sin embargo, la periodista Selma Navarrete destacó en una nota para este mismo medio que el país todavía persiste la falta de autoridades (desde peritos, policías de investigación e incluso ministerios públicos) preparadas para atender este tipo de casos.
“Se publica la ley y no tenían unidades especializadas, no sabían cómo se tenía que iniciar la carpeta ni qué pruebas pedir a las víctimas. Si como Fiscalía no tienes herramientas técnicas, peritos técnicos para poder llevar la investigación, el resultado va a ser que lo dejes en libertad”, comentó la coordinadora de Proyectos en Impunidad Cero, Leslie Jiménez Urzúa.