En el tema de libertad de expresión, Clegg reconoció que es complejo encontrar el balance entre permitir que las personas hagan escuchar sus voces y mantener su seguridad. “Es algo que ninguna plataforma hará bien al cien por ciento todo el tiempo”, afirmó.
Entre las acciones más relevantes al respecto se encuentran el haber permitido a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido orgánico.
Sin embargo, no se dio cabida a afirmaciones o especulaciones sobre corrupción, irregularidades o prejuicios en las elecciones cuando se combinaba con señales que indicaran que el contenido era violencia intimidatoria. Asimismo, respecto al contenido pagado se prohibieron anuncios que cuestionaran la legitimidad de una elección.
Por otra parte, se realizaron auditorías anuales sobre palabras que la empresa designa como groserías bajo sus políticas de Lenguaje que incita al odio, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurarse de no cometer errores en la moderación del discurso público.
El impacto de la IA en las elecciones
Con el auge de la Inteligencia Artificial generativa la preocupación sobre su impacto en las elecciones también aumentó y de acuerdo con Meta hubo casos de uso confirmado o sospechoso de IA.
No obstante, los volúmenes se mantuvieron bajos. Según datos de la plataforma Meta AI, se rechazaron 590,000 solicitudes para generar imágenes falsas (deepfakes) del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador de Minnesota Tim Walz y el presidente Biden en el mes previo al día de las elecciones.
“Nuestras políticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el período electoral, las calificaciones sobre el contenido de IA relacionado con las elecciones, la política y los temas sociales representaron menos de 1% de toda la desinformación verificada”, comentó Clegg.
La compañía informó que sobre el monitoreo del uso de la IA generativa por parte de campañas de influencia encubiertas (también conocidas como redes de comportamiento inauténtico coordinado o CIB), de las cuales se descubrió que han logrado mejoras incrementales en la productividad y la generación de contenido.
Para combatir este asunto, la empresa dijo haberse centrado en desmantelar las operaciones de influencia, a través de la eliminación de las campañas y no en el contenido que publican, ya sea creado con IA o no.
Si bien Clegg celebró el avance que tuvieron durante este año, también alertó en torno a que la prevalencia de estas herramientas de IA “claramente va a seguir creciendo en escala con el tiempo” desde un punto de vista de la desinformación, pero también de forma útil e incluso lúdica.