Publicidad
Publicidad

Los principales chatbots occidentales de IA en jaque ante discursos prorrusos

Un trabajo de NewsGuard apunta que las 10 principales herramientas de GenIA fueron “infectadas” con información a favor del Kremlin.
mar 11 marzo 2025 05:00 PM
ChatGPT, Gemini y Copilot están jaque por respuestas falsas a favor de Rusia
Herramientas de IA como Copilot, MetaAI o Gemini obtienen su información de diversas fuentes, entre ellas datos públicos en línea, por lo que existe un alto riesgo de que repliquen información errónea si se repite suficientes veces como para que luzca real.

Una investigación desarrollada por NewsGuard, empresa dedicada a la investigación y calificación de sitios web de noticias e información, asegura que una red de desinformación con sede en Moscú llamada “Pravda” (cuya traducción a español es “verdad”) está infiltrando deliberadamente los datos utilizados en chatbots de Inteligencia Artificial (IA) para distorsionar sus respuestas mediante la publicación de propaganda pro-Kremlin.

El trabajo apunta que las 10 principales herramientas de IA generativa -entre las que se encuentran ChatGPT-4, MetaAI, Copilot, xAI y Gemini- repitieron narrativas falsas en 33% de las veces en 2024.

Publicidad

“Publica (Pravda) afirmaciones falsas y propaganda con el propósito de influir en las respuestas de los modelos de inteligencia artificial sobre temas de actualidad, en lugar de dirigirse directamente a lectores humanos”, según NewsGuard.

De acuerdo con American Sunlight Project, una iniciativa estadounidense que busca contrarrestar lo que considera desinformación en línea, durante 2024 detectaron 3.6 millones artículos de propaganda rusa que ahora están incorporadas en las respuestas de los sistemas de IA occidentales, “afectando sus resultados con afirmaciones falsas y propaganda”.

El tipo de información difundida incluye teorías como la existencia de laboratorios secretos de armas biológicas en Ucrania o acusaciones “infundadas” contra el presidente de dicho país, Volodymyr Zelensky.

Conocida también como Portal Kombat, la red Pravda se lanzó en abril de 2022 tras la invasión a gran escala de Ucrania por parte de Rusia el 24 de febrero de 2022. Fue identificada por primera vez en febrero de 2024 por Viginum, una agencia gubernamental francesa que monitorea campañas de desinformación extranjeras.

NewsGuard asegura que desde entonces la red ha crecido significativamente, apuntando a 49 países en docenas de idiomas a través de 150 dominios y otras organizaciones de investigación.

Publicidad

¿Por qué la IA entregaría esta información?

La IA estaría de acuerdo con Joseph Goebbels: “Una mentira repetida 1,000 veces se convierte en una verdad”.

Que estas herramientas tecnológicas entreguen resultados erróneos no es casualidad, es una de las formas en las que se puede presentar un sesgo de la IA, en este caso ocurre cuando los datos con los que se entrena un modelo no son imparciales o limitados.

De acuerdo con IBM, el también denominado sesgo de aprendizaje, se refiere a la aparición de resultados parciales debido a sesgos humanos que distorsionan los datos de entrenamiento o el algoritmo de la IA, lo que provoca resultados distorsionados y potencialmente perjudiciales.

Herramientas de IA como Copilot, MetaAI o Gemini obtienen su información de diversas fuentes, entre ellas datos públicos en línea, por lo que existe un alto riesgo de que repliquen información errónea si se repite suficientes veces como para que luzca real.

Las predicciones sobre escenarios en los que la IA entregue datos falsos o influenciados no son nuevas, en 2022 Gertner, empresa de consultoría tecnológica, predijo que 85% de los proyectos de inteligencia artificial generarían resultados erróneos producidos por sesgos en los datos.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad