Publicidad
Publicidad

IA. ¿Germinarán las semillas de narrativas extremas que estaban tras bambalinas?

La radicalización y el extremismo en redes sociales no es novedoso. Lo que sí es la forma en la que las juventudes consumen ciertos contenidos o los productores de mensajes logran hacerlos masivos.
dom 20 abril 2025 07:02 AM
La fiebre por las fotos estilo Ghilbi ‘quema’ los servidores de ChatGPT
El boom de crear imágenes bajo el concepto de Studio Ghibli duró unos días, pero sus mensajes seguirán retumbando en las redes sociales y es muy probable que se conviertan en parte de una narrativa en la que los límites están difusos.

El boom de crear imágenes bajo el concepto de Studio Ghibli duró unos días, pero sus mensajes seguirán retumbando en las redes sociales y es muy probable que se conviertan en parte de una narrativa en la que los límites están difusos.

Publicidad

A finales de marzo de este año, con el nuevo modelo de ChatGPT, las redes sociales digitales comenzaron a inundarse de imágenes o fotografías personales en dibujos de diferentes estilos artísticos. Esta tendencia avivó dos debates. El primero, y tal vez no de los más recurrentes en Internet y el uso y reciclaje de indiscriminado de contenidos, se centró en los derechos de autor. Y es que Studio Ghibli, fundado por el japonés Hayao Miyazaki se caracteriza por ser uno de los impulsores de la animación tradicional en 2D, ha sido un defensor de la originalidad de cualquier obra artística. Incluso, se viralizó un video del 2016 en el que Miyazaki asegura que “jamás desearía incorporar esta tecnología (Inteligencia Artificial) a mi trabajo”. Su postura era y es clara. Ante esta disyuntiva, OpenAI, dueña de ChatGPT, ha afirmado en todo momento que lo que buscan es “brindar a los usuarios la mayor libertad creativa posible”.

La empresa fundada en 2015 por Sam Altman y Elon Musk (quien la abandonó antes que la firma alcanzará el firmamento tecnológico) se ha defendido de las críticas argumentando que su modelo está en constante perfeccionamiento.

Mensajes y una nueva narrativa en la que caben todos

El segundo debate es la intención de los mensajes. ¿Qué esperar de una herramienta a la que cualquier usuario introduce un ‘prompt’ para pedirle que genere una imagen sin importar que esta viole derechos de autor o busque generar una narrativa centrada en un discurso de odio?

La radicalización y el extremismo en redes sociales no es algo novedoso. Lo que sí es la forma en la que las juventudes consumen cierto tipo de contenidos o los productores de estos mensajes logran hacerlos masivos. Así, es común encontrar imágenes o mensajes generados por Inteligencia Artificial que han burlado la censura, por cierto, muy laxa en plataformas como X o Facebook, gracias al re-entrenamiento de los Modelos de Lenguaje Grande (LLM, por sus siglas en inglés).

Esto significa que cada ‘prompt’ (u orden que se le da a la IA) puede ser manipulada. Basta con que se haga un entrenamiento exhaustivo y constantemente se le dé una retroalimentación hasta modular o refinar el mensaje o imagen que se quiere obtener. En el estudio ‘IA y Holocausto: ¿reescribiendo la historia?’, la Unesco alerta y pone en el centro de la discusión digital la manera en que ciertos grupos neonazis han manipulado a dichos modelos de lenguaje para glorificar la ideología nazi. Incluso, en la aplicación ‘Historical Figures’ se puede iniciar un chat con algún personaje nazi en el que ellos se eximen de haber estado involucrados en cualquier tipo de genocidio.

Ahora bien, en el plano político actual es necesario entender que las tendencias, las noticias falsas y demás componentes de las redes sociales digitales se han convertido en las herramientas, tanto para la izquierda como para la derecha, para tratar de imponer sus narrativas. Quizá el ejemplo más claro lo tenemos en Donald Trump, presidente de Estados Unidos, quien tuvo que fundar su propia red social luego de ser expulsado de X. Ahí, el magnate republicano ha llevado su lucha por perpetuar su verdad a extremos irrisorios. Sin embargo, en las cuentas oficiales de su Gobierno ha echado mano de la Inteligencia Artificial para endurecer su política antinmigrante. Un ejemplo claro fue una imagen manipulada por la AI, y publicada el 18 de marzo en las cuentas oficiales de redes sociales de la Casa Blanca, en la que se burlan de una migrante latina detenida…al estilo Ghibli. LA mujer aparece esposada, llorando y custodiada por lo que parece ser un agente federal estadounidense quien la mira con desprecio.

Publicidad

Desafortunadamente, jóvenes y adultos muchas veces carecen de los métodos necesarios para contrarrestar información. Algunos, seducidos por la estética de las imágenes manipuladas y generadas con IA comienzan a tener realidades únicas y basar su fuente de conocimiento e información en modelos que, como lo describimos anteriormente, pueden ser manipulados y usados a conveniencia.

Aunque se ha dicho que este tipo de herramientas son usadas indiscriminadamente por cualquier ideología política, no pasemos de largo que Elon Musk, dueño de X, consejero de Trump y dirigente del Departamento de Eficiencia Gubernamental, ha azuzado ideologías muy pegadas al nazismo en sus discursos digitales. Ejemplos hay muchas, sin embargo hoy lo que debería importar es cómo establecer límites digitales en herramientas que siguen en fase experimental y en constante evolución.

____

Nota del editor: Jesús Franco es Maestro en Comunicación Política y Pública. Colaborador del Observatorio de Medios Digitales del Tecnológico de Monterrey. Síguelo en X: @soyfrancoromero IG: jjesusfranco Tik Tok: mxidentidad Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad