El planteamiento de la iniciativa es relativamente sencillo en su lógica, ya que si una campaña utiliza contenido generado o manipulado con IA, ese material debería ser identificado de forma clara. La intención es evitar que videos, imágenes o audios alterados influyan en la opinión pública sin que los votantes sepan que fueron creados con tecnología.
Sin embargo, en la práctica esa idea abre una pregunta mucho más compleja: ¿quién decide qué contenido fue creado con IA, a qué grado y cómo se demuestra?
Para los medios, las plataformas y los creadores de contenido, ese punto es probablemente el más difícil de resolver.
Identificar si un contenido fue generado con IA puede ser un desafío incluso para especialistas en tecnología. Heidi Padilla, fundadora de KeepMoving y especialista en IA, explica que el debate no debería centrarse sólo en la prohibición o restricción del uso de la tecnología, sino en la transparencia sobre cómo se utiliza.
“La discusión tiene que ir más hacia la transparencia y la ética profesional”, explica. Según la experta, cualquier creador de contenido que utilice herramientas de IA debería declarar en qué parte del proceso las utilizó y con qué propósito.
Hoy existen plataformas capaces de generar voz sintética, videos o imágenes hiperrealistas de figuras públicas. En algunos casos se utilizan para entretenimiento o sátira política, pero también pueden emplearse para difundir mensajes falsos atribuidos a candidatos o funcionarios.
“El problema no es usar IA, sino cómo se utiliza y si se informa al público que está siendo utilizada”, explicó Padilla.