Publicidad
Publicidad

Los algoritmos se preparan para 2024

Con la elección presidencial en el horizonte, las tecnológicas no solo deberán combatir el discurso extremista en redes sociales, también tienen un nuevo reto: el uso de IA generativa.
mié 01 noviembre 2023 06:00 AM
algoritmos elecciones 2024
Las empresas de tecnología han focalizado sus esfuerzos en generar más confianza con los votantes.

Elegir un representante de gobierno también es un tema de algoritmos. En 2018, y aún más en 2012, el factor social media influyó para que miles de votantes salieran a las calles a emitir su voto, pero también su opinión. Camino a 2024, las plataformas de tecnología preparan una artillería anti noticias falsas, que tiene que combatir el crecimiento de bots y el uso de Inteligencia Artificial para cambiar la conversación.

Tan solo en 2022 un informe de Imperva señaló que los bots representaron el 47.4% de todo el tráfico en internet, lo que supuso un aumento de 5.1% en comparación con el año anterior. Aunque los bots pueden ser usados para brindar servicios de atención al cliente o para hacer tareas mecánicas, también son usados de manera maliciosa. El mismo informe apunta que este tipo de conversaciones de bots maliciosos creció 2.5% en comparación con 2021, por lo que tuvo una representación del 30.2%, y destaca que en 2022 el tráfico de este tipo de bots se clasificó como ‘avanzado’, o sea está potenciado por herramientas de tecnología como IA generativa.

Estas cifras representan para las plataformas de contenido un reto, sobre todo en tiempos electorales, pues deben mantener la conversación lo más neutra posible, libre de discursos de odio y con la menor cantidad de noticias falsas.

Publicidad

“Es un tema que hay que tratar con mucha responsabilidad, porque al final es el futuro de países, de los ciudadanos. El mexicano utiliza más las redes sociales, comparado con la media global. En promedio, globalmente los usuarios están dos horas y veintiocho minutos, en México tres horas y veinte cinco minutos”, afirma Geana Barbosa, directora de Hootsuite Latinoamérica, quien aprovecha para señalar que este factor de uso y cercanía de los usuarios con las redes y plataformas sociales ayuda principalmente a definir desde dónde se informa. Hootsuite ha identificado que las plataformas más utilizadas son WhatsApp, Facebook, Messenger, Instagram y TikTok.

“Lo que pasa en un contexto electoral es una necesidad de información, pues es una invitación a la población que participe en una discusión, que entienda cuáles son las propuestas de los candidatos y que puedan tomar una decisión”, apunta Barbosa.

De hecho, el Tribunal Electoral del Poder Judicial de la Federación (TEPJF) y TikTok, firmaron un Memorándum de Entendimiento para, entre otras cosas, contribuir a la comunicación de información electoral pública relevante y cierta en favor del electorado y a desincentivar la desinformación, además de que implementarán las mejores prácticas en materia de integridad y legalidad en los procesos electorales fomentando la transparencia y rendición de cuentas.

El Memorándum, firmado por el magistrado presidente del TEPJF, Reyes Rodríguez Mondragón y el director de Asuntos Públicos de la misma plataforma como testigo de honor, Edgar Rodríguez Rudich, establece las bases de una colaboración institucional abierta, transparente, sencilla, voluntaria y eficaz para implementar acciones y mecanismos de interés y beneficio mutuo relacionadas con el intercambio de información, la integridad electoral, la atención de obligaciones legales, capacitación y elaboración de proyectos.

Publicidad

Albedrío vs algoritmo

El uso de redes sociales y la interacción que tienen los usuarios con su smartphone han logrado que la industria de marketing digital cambie. El uso de big data para poder analizar las interacciones que tienen los usuarios con diversos intereses han permitido que también en la escala electoral se tengan que buscar nuevas narrativas y recursos tecnológicos.

Una de las primeras elecciones en las que se usó de manera exitosa este tipo de análisis fue la de Barack Obama, en 2012, cuando las encuestas tradicionales se complementaron con análisis de social media, pues a través de la tecnología de procesamiento de lenguaje natural (machine learning), era posible que los analistas políticos supieran los sentimientos que remitían los votantes a través de posteos en línea.

Este tipo de recursos también se convirtió en polémica en 2016, cuando la campaña de Donald Trump uso la inteligencia de Cambridge Analytica para un caso que se perfiló como ‘manipulación masiva’ y que llevó al CEO de Facebook, Mark Zuckerberg, a una auditoría con el Congreso de Estados Unidos para explicar el funcionamiento del ‘ánimo de los votantes’.

El enfoque de Cambridge Analytica se basó en métodos psicométricos desarrollados por el doctor Michal Kosinski, que podían desarrollar un perfil de usuario integral analizando una pequeña cantidad de me gusta en las redes sociales. Y aunque el problema no es técnico, el reclamo que existió en 2019 fue cómo las campañas la utilizan en secreto para la manipulación psicológica de votantes vulnerables, apelando directamente a sus emociones y difundiendo deliberadamente noticias falsas a través de robots.

Esto, además de evidenciar la proliferación de noticias falsas en plataformas digitales, también cansó a los usuarios de redes sociales. De acuerdo con el informe Digital News Report 2023, elaborado por Reuters, México ha visto una caída en la confianza en las noticias, que ha bajado del 50% en 2019 al 36% hoy y de los 46 mercados en los que se realizó el informe, la mayoría de las personas expresan desconfianza de lo que dicen en conversaciones políticas tanto en línea (54%) como en medios tradicionales (52%).

Esta percepción negativa hacia las noticias políticas y hacia la difusión de noticias falsas se ha incrementado por el potencial de IA que se puede aplicar en las campañas electorales. Y se han visto ejemplos. Unos meses antes de las últimas elecciones presidenciales de Dinamarca, celebradas en noviembre del año pasado, surgió un nuevo partido, el Partido Sintético (o Synthetic Party), liderado por un chatbot llamado Lars. Detrás de él estáAsker Brykd Staunæs, filósofo de la Universidad de Aarhus y artista conceptual, además de la Fundación Mind Future. Lars fue entrenado con todos los manifiestos políticos de los partidos políticos de Dinamarca desde 1970, con el fin de desarrollar una plataforma que atraer al 20% de la población del país que nunca vota. El año pasado no llegó a presentarse a las elecciones, pero sus responsables señalaron que aspiraba a hacerlo en 2025.

Vorágine automatizada

Aunque los retos para las plataformas, en torno a la conversación se ven potenciados por el uso de IA y por el tono radical que han tomado algunas posturas políticas, como lo sucedido con la topa del Capitolio de Estados Unidos en 2021, las empresas han evolucionado sus herramientas para tener una conversación libre de noticias falsas (las fake news) y polarización.

Facebook, tras su polémico caso con Cambridge Analytica, lanzó un centro de verificación de noticias en el que se busca tener información confiable circulando en la plataforma y donde alrededor de 40,000 personas están dedicadas a temas de seguridad, además de contar con más de 90 verificadores de datos, organismos independientes que le ayudan en esta revisión de contenido.

De acuerdo con la plataforma, en las elecciones de EU de 2020, no sólo se usaron estos recursos humanos para revisar y moderar la información, sino que también logró eliminar 180 millones de publicaciones en Facebook e Instagram que violaban las políticas de interferencia electoral de la empresa.

“Rechazamos 265,000 anuncios que podrían interferir en el proceso electoral y que no contaban con una adecuada autorización”, apunta el informe A Look at Facebook and

US 2020 Elections. Esto significa que muchas de las publicaciones comerciales que buscaban hablar de un tema social o que generaban una conversación que podía devenir en posturas políticas fueron rechazadas.

Por su parte WhatsApp ha enfocado sus esfuerzos en tres pilares: reducción de la viralidad, combatir el comportamiento abusivo dentro de la plataforma y brindar a los usuarios herramientas para verificar la información. Para reducir el primero, la plataforma implementó etiquetas de reenvío que indican cuando un mensaje que se recibe en una conversación fue reenviado muchas veces, además de limitar esta acción de envió a sólo cinco conversaciones grupales, lo que disminuyó en un 70% el número de mensajes altamente reenviados en todo el mundo.

“Durante los últimos años hemos trabajando para mejorar nuestra plataforma y crear acciones que contribuyan a las jornadas electorales en diferentes países a través de la tecnología y la colaboración con gobiernos, autoridades electorales y diferentes organizaciones civiles”, afirma Paloma Szerman, gerente de Políticas Públicas para WhatsApp en América Latina.

Con el fin de reducir el comportamiento abusivo en la plataforma, también utiliza una herramienta que detecta y suspende automáticamente cuentas relacionadas con comportamientos anómalos, como la creación de cuentas automatizadas, envío de mensajes en bloque o en altos volúmenes, la creación de grupos de manera masiva e inorgánica. Gracias a esta herramienta la empresa ha suspendido cerca de ocho millones de cuentas, en promedio, anualmente.

En 2021, la plataforma lanzó Inés, un chatbot en alianza con el Instituto Nacional Electoral (INE), que brindó información verificada a la ciudadanía sobre la jornada electoral de ese año. A través de este chatbot los usuarios de WhatsApp pudieron hacer consultas sobre el proceso, cómo dónde votar o medidas sanitarias a seguir o los cargos que se elegían en la jornada.

Y aunque estas tres plataformas fueron de las más usadas en la conversación digital de 2018, su uso ha bajado: en el caso de Facebook, desde 2017 disminuyó 8 puntos porcentuales, mientras que otras apps, como TikTok lo han incrementado en 3 puntos porcentuales, de acuerdo con el informe de Reuters. Esta numeralia puede ser importante, sobre todo para atraer a la población más joven a votar.

“Para llegar a estas nuevas audiencias, más jóvenes, las redes sociales más importantes son TikTok e Instagram, pero no podemos olvidar a YouTube, principalmente si uno quiere tener una discusión más profunda”, apunta Geana Barbosa, de Hootsuite Latinoamérica.

El video: atraer y poner en jaque

Hoy, 73.4% de la población del país accede a redes sociales, lo que significa que 94 millones usan estas plataformas, especialmente a las de video, apunta Barbosa. Ya sea en un reel de Instagram, un video de TikTok o un contenido de YouTube, estas plataformas son las principales en el país, según el estudio Digital 2023 elaborado por We Are Social y Meltwater.

YouTube logró que en 2022 las personas pasaran 21 horas invertidas al mes viendo contenido en su plataforma, mientras que en TikTok el tiempo de visualización de la app creció exponencialmente respecto al año anterior, pues los mexicanos pasaron un total de 27 horas y 36 minutos. Sin embargo, este éxito también genera nuevas tareas para las plataformas, como la identificación de videos potencialmente peligrosos o con información falsa.

“Debemos ser muy claros, y así está establecido públicamente, TikTok no permite pauta política pagada, no solo para campañas electorales, sino para temas políticos en general, pauta de gobiernos (...) Sin embargo, al generar contenido de carácter político, sepan que las normas de comunidad se aplican a todas y a todos, y es la base sobre la cual moderamos contenido”, explica Edgar Rodríguez Rudich, Public Policy Director de TikTok Latinoamérica.

Estas normas van desde bajar contenido con información falsa o potencialmente peligrosa para la salud de los usuarios, hasta aquel que usa tecnologías de IA sin precisarlo. Esta última norma surgió en 2022, cuando el uso de herramientas como ChatGPT o Midjourney empezó a crecer.

La IA generativa es capaz de crear contenido con fines políticos, lo que puede hacer la labor de verificación de la información más difícil. Ya han circulado imágenes y audios falsos de candidatos, incluido un anuncio de campaña generado por inteligencia artificial que ataca a Joe Biden y videos falsos que imitan imágenes de noticias de la vida real.

“Hoy, cualquiera puede utilizar Stable Diffusion o Midjourney para crear imágenes fotorrealistas de cosas que realmente no existen en el mundo. Esto, en torno a las elecciones de 2024, realmente ha captado la atención del público”, señaló a The Guardian, Renée DiResta, directora de investigación técnica del Observatorio de Internet de Stanford. La especialista señaló que más allá de satanizar esta tecnología, las plataformas de IA generativa permiten la generación de este contenido a un menor costo, lo que puede traer un reto especial para las plataformas digitales, en torno a la cantidad de bots o publicaciones mal intencionadas.

Las plataformas de contenido de video están utilizando tanto herramientas tecnológicas, como equipos de verificadores humanos que analizan y ven todo lo que el algoritmo deja pasar, o donde tiene duda de si se está violando o no una norma comunitaria.

YouTube tiene una política especial sobre desinformación electoral, donde la sanción máxima es la suspensión de los canales y la bajada de contenido de la plataforma, donde además de mejorar su revisión de contenidos, busca volver a la conversación de elecciones pasadas como la de 2020 en Estados Unidos.

“En el entorno actual, encontramos que, si bien eliminar este contenido frena cierta información errónea, también podría tener el efecto no deseado de restringir el discurso político sin reducir significativamente el riesgo de violencia u otros daños en el mundo real. Con eso en mente, y con las campañas de 2024 en marcha, dejaremos de eliminar contenido que presente afirmaciones falsas de que se produjeron fraudes, errores o fallas generalizadas en las elecciones presidenciales de EU de 2020 y otras pasadas”, precisó la plataforma en un anuncio dentro del mercado estadounidense en junio de este año.

Esta política busca que los usuarios se informen con mayor contexto sobre los procesos electorales que están por vivir, pero manteniendo el discurso extremista y de odio fuera de la plataforma.

Más herramientas para salir a votar

Los principales avances que han tenido las plataformas en torno a la moderación de contenido es la implementación de sistemas automatizados de revisan millones de publicaciones a diario, además de tener equipos humanos que trabajan en el entrenamiento de estas herramientas y en una moderación de las imágenes y videos que hay en la red. Pero otro esfuerzo que llevan a cabo la mayoría de las plataformas gira en torno al llamado a votar. “Hemos visto que de manera orgánica los institutos electorales y las autoridades electorales están viniendo a TikTok con el fin de impulsar la participación electoral, pero también para conocer de qué manera se combate la desinformación”, indica Rodríguez, quien señala que para los próximas elecciones de México y EU la plataforma tiene una guía electoral especial, con el fin de que se use la app para que los votantes sepan dónde, cuándo y por qué es importante votar.

Google también tiene un par de actualizaciones en el país con el fin de prepararse para 2024. Una de ellas es Google News Showcase, donde los usuarios pueden consultar medios de comunicación verificados sobre distintos temas sociales, además de la Red de Capacitación de la tecnológica en alianza con Factual, que continuará entrenando a redacciones en el país y donde se espera que 1,400 periodistas se capaciten a lo largo de más de 100 sesiones que se realizarán en estados clave de la República.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad