La investigación fue un trabajo en conjunto entre profesionales de la Universidad de Washington, la de Carnegie Mellon y la Universidad de Xi’an Jiaotong, además de que fue revisada por pares y ganó el premio al mejor artículo en la conferencia de la Asociación de Lingüística Computacional en julio.
En el documento afirman que si bien las empresas aseguran que sus sistemas no tienen algún tipo de sesgo político, los científicos no están de acuerdo y resaltan que los modelos “preentrenados sí tienen inclinaciones políticas que refuerzan la polarización”.
OpenAI, por ejemplo, afirma en un artículo de su blog que su plataforma es constantemente evaluada para cumplir con sus pautas de no favorecer a ningún partido político y en caso de que haya un sesgo de estas características, representa un error y no un rasgo del sistema en sí mismo.
Sin embargo, los científicos también señalaron que conforme los modelos de IA se van actualizando, estos pasan de tener una postura política a no dar una respuesta respecto al tema, lo que demuestra la atención que las desarrolladoras ponen en los sistemas.
Por citar un caso, los modelos BERT, desarrollados por Google, resultaron ser más conservadores que otros y de acuerdo con la hipótesis de los investigadores se debe a que fue entrenado con libros, los cuales podrían expresar posturas relacionadas a la derecha, mientras que los sistemas más actuales optaron por datos de internet, cuya tendencia es más variada.
En temas sociales, las IA tienen más diferencias
Otro aspecto interesante del estudio es que las IA tuvieron mayores diferencias cuando se les preguntó sobre temas sociales. La hipótesis en este caso es que las discusiones en redes sociales son más comunes y los modelos también toman información de estas plataformas para su entretenimiento.
Cabe mencionar que estas tendencias políticas también impactaron en el funcionamiento de los sistemas respecto a asuntos de desinformación, pues aquellos que estaban más orientados a la derecha, podían detectar mejor las noticias falsas con tendencia izquierdista, pero no las de derecha.
Respecto a los discursos de odio, el informe destacó que los modelos que aparecieron en el modelo con una tendencia a la izquierda fueron más sensibles con las minorías raciales, de género o religiosas, mientras que los que tuvieron una orientación a la derecha detectaron el discurso contra grupos mayoritarios.