Publicidad
Publicidad

¿Chairos o fifís? La IA también tiene sesgos políticos, según estudio

La investigación reveló que diferentes modelos de IA resaltan contenidos con ciertas tendencias aunque estos resultados no son propios de la tecnología, sino de los datos con que se entrena.
mar 08 agosto 2023 01:10 PM
La IA tiene sesgos políticos
La investigación fue un trabajo en conjunto entre profesionales de la Universidad de Washington, la de Carnegie Mellon y la Universidad de Xi’an Jiaotong.

Los sesgos en la Inteligencia Artificial no se dan únicamente en términos de raza o género, sino también en términos de posicionamiento político y varía de acuerdo a la empresa desarrolladora, de acuerdo con un reciente estudio en el que se evaluó a 14 modelos de lenguaje grandes (LLM, por sus siglas en inglés).

En el estudio, los científicos pidieron la postura de los sistemas de IA su postura respecto a la democracia, el feminismo, la economía y otros temas a partir de 62 declaraciones que eran políticamente sensibles a propósito, con el objetivo de ubicar las respuestas en un modelo que llamaron Brújula Política.

De acuerdo con la investigación, para la Brújula Política se consideró un eje de derecha y otro de izquierda para medir los posicionamientos de los modelos de IA y así se detectó que, por ejemplo, ChatGPT, desarrollado por OpenAI, estaba más orientado a la izquierda, mientras que LLaMA, de Meta, tenía una postura de derecha.

Publicidad

La investigación fue un trabajo en conjunto entre profesionales de la Universidad de Washington, la de Carnegie Mellon y la Universidad de Xi’an Jiaotong, además de que fue revisada por pares y ganó el premio al mejor artículo en la conferencia de la Asociación de Lingüística Computacional en julio.

En el documento afirman que si bien las empresas aseguran que sus sistemas no tienen algún tipo de sesgo político, los científicos no están de acuerdo y resaltan que los modelos “preentrenados sí tienen inclinaciones políticas que refuerzan la polarización”.

OpenAI, por ejemplo, afirma en un artículo de su blog que su plataforma es constantemente evaluada para cumplir con sus pautas de no favorecer a ningún partido político y en caso de que haya un sesgo de estas características, representa un error y no un rasgo del sistema en sí mismo.

Sin embargo, los científicos también señalaron que conforme los modelos de IA se van actualizando, estos pasan de tener una postura política a no dar una respuesta respecto al tema, lo que demuestra la atención que las desarrolladoras ponen en los sistemas.

Por citar un caso, los modelos BERT, desarrollados por Google, resultaron ser más conservadores que otros y de acuerdo con la hipótesis de los investigadores se debe a que fue entrenado con libros, los cuales podrían expresar posturas relacionadas a la derecha, mientras que los sistemas más actuales optaron por datos de internet, cuya tendencia es más variada.

En temas sociales, las IA tienen más diferencias

Otro aspecto interesante del estudio es que las IA tuvieron mayores diferencias cuando se les preguntó sobre temas sociales. La hipótesis en este caso es que las discusiones en redes sociales son más comunes y los modelos también toman información de estas plataformas para su entretenimiento.

Cabe mencionar que estas tendencias políticas también impactaron en el funcionamiento de los sistemas respecto a asuntos de desinformación, pues aquellos que estaban más orientados a la derecha, podían detectar mejor las noticias falsas con tendencia izquierdista, pero no las de derecha.

Respecto a los discursos de odio, el informe destacó que los modelos que aparecieron en el modelo con una tendencia a la izquierda fueron más sensibles con las minorías raciales, de género o religiosas, mientras que los que tuvieron una orientación a la derecha detectaron el discurso contra grupos mayoritarios.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad