Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Confusión en redes: desinformación en la era de la Inteligencia Artificial

Las redes sociales han facilitado la diseminación de información falsa, tendenciosa y/o fraudulenta, un fenómeno que ha aumentado con el acceso global al internet.
mar 19 marzo 2024 06:00 AM
IA para detectar fake news
Nunca había sido tan importante moderar el contenido, en particular aquel sujeto a pautas publicitarias, pero, para hacerlo, es esencial que las compañías que lo albergan se responsabilicen y tomen medidas más efectivas, señala Marco A. Pinal Bremer.

“Invierte en Pemex y gana hasta 60,000 pesos al mes”. Probablemente es una frase conocida para cualquiera que navega las redes sociales y es que, desde hace varios meses, es parte de una publicidad engañosa y fraudulenta que hace uso de la imagen y voz de personajes como Azucena Uresti, Carlos Slim e, inclusive, el Presidente López Obrador, para brindar credibilidad y engañar así a usuarios. Sus voces, por supuesto, son generadas por inteligencia artificial (IA) y, al igual que la imagen del gobierno federal, son utilizadas sin el consentimiento de los involucrados.

Publicidad

Las redes sociales han facilitado la diseminación de información falsa, tendenciosa y/o fraudulenta, un fenómeno que ha aumentado con el acceso global al internet, así como tecnologías de IA que ofrecen un falso sentido de confianza. Además de la facilidad con la que un usuario puede generar contenido, éste puede ser impulsado a través de campañas publicitarias a costos muy asequibles.

El fraude de inversión en Pemex ha sido identificado por autoridades federales desde octubre del año pasado, sin embargo, sigue circulando en distintas redes sociales como una “legítima oportunidad” de inversión a través de múltiples videos que se promocionan como publicidad. Y, aunque es posible denunciar dicha estafa dentro de las plataformas digitales en donde aparece, la campaña continúa. ¿Cómo es posible que publicidad como esta siga apareciendo en plataformas de compañías como Google, META o TikTok?

Anteriormente la moderación de contenido se realizaba principalmente a través de la intervención humana, pero con el tiempo y la cantidad de contenido generado por usuarios, la tarea ha sido mayormente delegada a sistemas de lA y algoritmos de aprendizaje diseñados para identificar automáticamente contenido inapropiado o violatorio de los términos y condiciones de la plataforma.

Esta tecnología ha sido instrumental en permitir que sitios como YouTube regulen su contenido ya que, en éste, por ejemplo, se suben aproximadamente 500 horas de video por minuto, constituyendo una tarea titánica que sería imposible de realizar manualmente. La publicidad pagada, sin embargo, recae en otra categoría y atraviesa filtros que deberían ser más eficientes en identificar y penalizar fraudes como el mencionado anteriormente.

Desde finales del 2022, compañías como Google, Meta, “X” (antes Twitter) y otras, redujeron significativamente su personal, parte del cual estaba dedicado a la ética digital y moderación de contenido. Aunque no existe mucha transparencia al respecto, dichas acciones sucedieron bajo un modelo de “hacer más con menos", un mantra cada vez más común en Silicon Valley y uno que está siendo cuestionado por dar prioridad a las ganancias por encima del servicio y la seguridad de los usuarios.

Son demasiados los casos que demuestran que la moderación automatizada, al igual que el mecanismo de denuncia, no está funcionando óptimamente. Las empresas tecnológicas deben de aceptar el enorme impacto que pueden tener en la sociedad, la economía y la política, y responsabilizarse al establecer mejores prácticas que realmente atiendan este problema y lo que viene.

Publicidad

La moderación de contenido en redes sociales será particularmente importante este año debido a la gran actividad política global que se avecina. Aproximadamente 49% de la población mundial podrá participar en comicios electorales en 64 países alrededor del mundo, marcando el año de actividad electoral más alto de la historia humana y culminando en una serie de decisiones que afectarán el futuro próximo. El auge de tecnología de IA y el fracaso de moderar contenido diseñado para engañar o estafar podría inclinar la balanza en múltiples escenarios.

Entonces, ¿qué podría hacerse? Algunas medidas que deberían considerarse incluyen: Primero, reconocer las limitaciones de la moderación automatizada y emplear más moderación humana. Segundo, dar mucha más importancia a las denuncias por parte de usuarios y tomar acciones más inmediatas. Tercero, mejorar los procesos de evaluación de cuentas que desean promocionar contenido a través de publicidad y monitorear su actividad, así como penalizar de manera más severa el contenido fraudulento y violatorio de términos y condiciones.

Nunca había sido tan importante moderar el contenido, en particular aquel sujeto a pautas publicitarias, pero, para hacerlo, es esencial que las compañías que lo albergan se responsabilicen y tomen medidas más efectivas. ¿Sería posible hacerlo de manera rápida y eficiente, en particular considerando el costo que esto implica, así como la actividad electoral a nivel mundial que está en el horizonte?

Ante la incertidumbre el usuario es quien deberá mostrar más escepticismo y considerar todo aquello que consume digitalmente. Es imperativo que esta clase de contenido se visibilice para concientizar a los usuarios sobre su existencia y, con ello, intentar reducir su impacto al recordar que “afirmaciones extraordinarias requieren pruebas extraordinarias."

___

Nota del editor: Marco A. Pinal Bremer es Coordinador de la Licenciatura en Negocios Internacionales en CETYS Universidad. Síguelo en LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad