Publicidad
Publicidad

La IA representa un riesgo para las infancias y necesitan protección

Entre 2020 y 2022 hubo un aumento del 360% de imágenes sexuales infantiles generadas con herramientas de Inteligencia Artificial.
vie 08 diciembre 2023 05:12 AM
La IA representa un riesgo para los niños
Según el reporte de WeProtect, ha habido un aumento del 87 % en los casos materiales de abuso sexual infantil denunciados desde 2019.

La Inteligencia Artificial también representa un riesgo para las infancias. De acuerdo con datos de la organización WeProtect Global Alliance, entre 2020 y 2022 se registró un aumento del 360% en las imágenes sexuales autogeneradas de niños de siete a 10 años, demostrando que la IA puede tener un fuerte impacto negativo.

“Se trata de un tema clave en la agenda mundial”, comenta Iain Drennan, director ejecutivo de WeProtect Global Alliance, la iniciativa más grande enfocada en combatir el abuso infantil y que cuenta con 102 países miembros, además de empresas y organizaciones de la sociedad civil. “Los productos de IA se incorporaron al mercado muy rápidamente, pero los criminales también empezaron a explotarlos como lo hacen con cualquier tecnología nueva”.

El especialista resalta que en el cuarto informe de Evaluación de Amenazas Globales de la organización se dieron cuenta de que los contenidos creados a partir de IA están haciendo más complicada la reacción de las autoridades, pues no saben cómo identificar si se trata de un niño o una imageny, por lo tanto, tampoco saben cómo ejecutar un procedimiento para rescatarlos en caso de ser necesario.

Publicidad

Los casos de creación de deepfakes sexuales se convirtieron en un fuerte problema para la vida digital durante este año. En países como España o en México las víctimas sufruieron de la proliferación de imágenes en contextos sexuales, lo cual alimenta el delito de las extorsiones.

Al respecto, Drennan señala que se llegó a un punto donde los peligros en internet se combinan para generar grandes ofensivas mucho más profundas, pues inicia con el grooming (que es crear perfiles falsos para ganar la confianza de menores) y continúa hasta pedir imágenes de los jóvenes que son utilizadas para crear deepfakes sexuales con la finalidad de chantajearlos de alguna manera.

Ante este tipo de dinámicas, las grandes compañías de tecnología, como Meta, Apple o Google, entre otras, han implementado diversas medidas para evitar la propagación de este tipo de contenido, sin embargo, Drennan resalta que no ha sido suficiente y en realidad es necesario un enfoque de mayor claridad por parte de las empresas.

“Lo que necesitamos es transparencia para entender qué están haciendo estas empresas, qué impactos tienen sus esfuerzos y dónde se necesita hacer más”, comenta y resalta que según sus estudios, todavía no existe suficiente información para determinar si las medidas de las empresas están funcionando.

Por otro lado, los esfuerzos de regulación también han sido insuficientes. Durante este año, Australia implementó esfuerzos que obligan a las grandes empresas de tecnología a tomar medidas para garantizar que los productos de inteligencia artificial no puedan usarse para generar imágenes y videos falsos de abuso sexual infantil.

Publicidad

¿Qué se necesita para proteger a los menores de la IA?

Drennan es contudente: “La seguridad de los niños no debe ser negociable”. Por ello, rescata que debe ser visto como un asunto de salud pública y, por lo tanto, se requiere priorizar la prevención e invertir en herramientas para quienes han cometido o corren el riesgo de perpetrar o sufrir abusos. “Si sólo invertimos en responder después de que ha ocurrido el abuso, les estamos fallando a los niños”, menciona.

También destaca la necesidad de tomar en cuenta los derechos y perspectivas de las infancias para eliminar las barreras de identificación del abuso y visibilizar estos problemas, así como implementar legislaciones globales para evitar lagunas en ciertos territorios y adoptar un enfoque de seguridad desde el diseño de la tecnología.

Según el reporte de WeProtect, ha habido un aumento del 87 % en los casos materiales de abuso sexual infantil denunciados desde 2019, con más de 32 millones de informes en todo el mundo.

La primera explicación que aporta el especialista es que durante estos años, los menores estuvieron en línea más que en cualquier otro momento, debido al incremento de la conectividad por la pandemia de Covid-19; sin embargo, resalta que este problema que afecta en mayor medida a las poblaciones margnizalidas.

Con esto se refiere a las personas discapacitadas, aquellas que son parte de la comunidad LGBT+, así como las minorías raciales o étnicas, debido a que de acuerdo con diversos estudios hechos por la alianza, estas personas tienen mayor probabilidad de socializar en línea.

Ejemplifica mencionando a niños sordos, a quienes les resulta más sencillo escribir que hablar porque no tienen que preocuparse por hacerse entender con alguien que no conoce el lenguaje de señas, mientras que la comunidad LGBT+, al estar en un ambiente de exploración de su sexualidad y al no tener apertura sobre su orientación o género, es más probable que encuentre amigos en línea.

De esa manera estas poblaciones tienen mayores relaciones en internet, pero al no existir una alfabetización digital desde temprana edad, destaca que existe un mayor riesgo de no comprender los peligros de la interacción a través de este medio.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad