Publicidad
Publicidad

La IA aceleró un nuevo tipo de violencia sexual digital que afecta a la mujeres

En lo que va del año, tan sólo en los 10 principales sitios web que se usan para generar este contenido se han hecho más de medio millón de imágenes de desnudos falsos.
lun 06 noviembre 2023 01:00 PM
La inteligencia artificial ha potenciado la violencia sexual contra las mujeres
En México, la Ley Olimpia castiga este tipo de casos, pero las autoridades aún no están preparadas para tratarlos.

El 2023 ha sido el año de la Inteligencia Artificial generativa. Sin embargo, este desarrollo tecnológico no ha sido para buenos propósitos únicamente, pues ha contribuido en la proliferación de contenido desinformativo y también en herramientas que promueven la violencia sexual en el plano digital, las cuales afectan mayoritariamente a las mujeres.

De acuerdo con datos de la plataforma de análisis de la industria de la IA, Genevieve Oh, los 10 principales sitios web que albergan imágenes de pornografía generadas con Inteligencia Artifcial, los desnudos falsos han crecido un 290% desde el 2018, en donde se encuentran desde personalidades del entretenimiento y política, hasta gente que no es famosa.

Según las cifras del informe, sólo en lo que va del 2023 se han subido más de 415,000 imágenes de este tipo a los 10 principales sitios que la plataforma tiene identificados. Mientras que el número de visitas es cercano a los 90 millones.

Publicidad

Sin embargo, esa no es la única problemática, pues además de imágenes también hay videos falsos generados por IA. Genevieve Oh descubrió que en 2023 se subieron 143,000 videos, una cifra superior a todos los videos que se cargaron entre 2016 y 2022. Por otra parte, el número de visitas fue superior a los 4.2 millones.

Las aplicaciones de Inteligencia Artificial hoy en día son capaces de generar escenarios que no sucedieron en ningún momento. Su concepto se basa en utilizar imágenes reales para crear fotografías de desnudos.

El software funciona a partir de analizar millones de imágenes de pornografía, así como las de la víctima. Después de realizar este proceso, predice cómo se verá el cuerpo desnudo y supermone el rostro de la persona en la escena sexual.

Las mujeres son las más afectadas de este asunto

Si bien las aplicaciones más populares para generar imágenes con IA no permiten la creación de contenido sexual, los usuarios han encontrado un área gris en los softwares de código abierto, un concepto en donde los desarrolladores pueden encontrar nuevos usos a la tecnología, pero que en ocasiones tienen fines funestos.

Esta tecnología representa un riesgo particularmente para las mujeres, ya que de acuerdo con un estudio de la empresa de monitoreo de deepfakes, Sensity AI, el 96% de las imágenes de este tipo son pornografía y el 99% representan a mujeres.

Un ejemplo de esta situación sucedió en la Escuela Superior de Comercio y Administración (ESCA), del Instituto Politécnico Nacional (IPN), donde se reveló que Diego “N”, estudiante de la carrera de Mercadotecnia Digital tenía un iPad con cerca de 16,000 archivos reales y manipuladas de mujeres, entre ellas compañeras de aulas.

Este hecho sucedió el pasado 6 de octubre y Expansión reportó que este es el primer caso en México donde se exige justicia para víctimas de violencia sexual a partir del uso de tecnologías de Inteligencia Artificial. No obstante, el acusado fue puesto en libertad la mañana del 9 de octubre.

Posteriormente, el 26 de octubre, Diego “N” fue detenido por segunda vez por el mismo caso y actualmente su caso sigue en proceso señalado de cometer delito contra la intimidad sexual, aunque activistas y víctimas señalan que él no actuó solo en la generación de ese contenido.

¿México cuenta con una ley contra la el uso de IA en caso de violencia sexual digital?

En el país, una de las legislaciones más avanzadas en temas de violencia sexual digital es la Ley Olimpia, la cual destaca que la manipulación de imágenes a través de IA también representa una forma de violencia digital.

Sin embargo, la periodista Selma Navarrete destacó en una nota para este mismo medio que el país todavía persiste la falta de autoridades (desde peritos, policías de investigación e incluso ministerios públicos) preparadas para atender este tipo de casos.

“Se publica la ley y no tenían unidades especializadas, no sabían cómo se tenía que iniciar la carpeta ni qué pruebas pedir a las víctimas. Si como Fiscalía no tienes herramientas técnicas, peritos técnicos para poder llevar la investigación, el resultado va a ser que lo dejes en libertad”, comentó la coordinadora de Proyectos en Impunidad Cero, Leslie Jiménez Urzúa.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad