Publicidad
Revista Digital
Publicidad

México ensaya su regulación de IA por la puerta electoral

La inteligencia artificial entra al debate en el país, lo que podría redefinir las campañas digitales.
mié 11 marzo 2026 02:00 PM
Sheinbaum propone regular la IA en su reforma electoral, pero abre un debate sobre su uso difícil de resolver
Las plataformas, medios y creadores de contenido tendrían que ser más transparentes en el uso de la IA en procesos electorales. (Mario Jasso)

La inteligencia artificial llegó a las campañas políticas antes de que los gobiernos decidieran cómo regularla. México está a punto de enfrentarse a ese dilema.

La propuesta de reforma electoral presentada por el gobierno federal incluye por primera vez disposiciones sobre el uso de IA en propaganda política, un intento por frenar la desinformación, los deepfakes y la manipulación digital en procesos democráticos. Esta iniciativa podrá ser el primer laboratorio regulatorio para la gobernanza de la herramienta.

Publicidad

El planteamiento de la iniciativa es relativamente sencillo en su lógica, ya que si una campaña utiliza contenido generado o manipulado con IA, ese material debería ser identificado de forma clara. La intención es evitar que videos, imágenes o audios alterados influyan en la opinión pública sin que los votantes sepan que fueron creados con tecnología.

Sin embargo, en la práctica esa idea abre una pregunta mucho más compleja: ¿quién decide qué contenido fue creado con IA, a qué grado y cómo se demuestra?

Para los medios, las plataformas y los creadores de contenido, ese punto es probablemente el más difícil de resolver.

Identificar si un contenido fue generado con IA puede ser un desafío incluso para especialistas en tecnología. Heidi Padilla, fundadora de KeepMoving y especialista en IA, explica que el debate no debería centrarse sólo en la prohibición o restricción del uso de la tecnología, sino en la transparencia sobre cómo se utiliza.

“La discusión tiene que ir más hacia la transparencia y la ética profesional”, explica. Según la experta, cualquier creador de contenido que utilice herramientas de IA debería declarar en qué parte del proceso las utilizó y con qué propósito.

Hoy existen plataformas capaces de generar voz sintética, videos o imágenes hiperrealistas de figuras públicas. En algunos casos se utilizan para entretenimiento o sátira política, pero también pueden emplearse para difundir mensajes falsos atribuidos a candidatos o funcionarios.

“El problema no es usar IA, sino cómo se utiliza y si se informa al público que está siendo utilizada”, explicó Padilla.

Publicidad

Un precedente regulatorio

Diversos gobiernos han comenzado a enfrentar el mismo problema, en Europa, el AI Act fue la primera gran regulación integral de IA que obligó a identificar contenidos generados o manipulados con IA en determinados contextos. En Estados Unidos, 14 estados ya aprobaron leyes para restringir el uso de deepfakes en propaganda electoral.

En ese contexto, el debate mexicano podría convertirse en el primer intento de regulación sectorial de la IA en el país.

Un análisis de José Ignacio Michaus, abogado por la Universidad Iberoamericana y miembro del capítulo ICON-S, señala que la propuesta electoral abre un nuevo capítulo en la regulación digital mexicana al incorporar por primera vez disposiciones específicas sobre esta herramienta en la comunicación política y en la propaganda digital.

El objetivo, según Michaus, es fortalecer la transparencia en campañas y limitar el uso de bots o contenidos manipulados que puedan alterar la conversación pública durante procesos electorales.

Pero también marca un cambio importante en la forma en que el Estado aborda la gobernanza tecnológica. En lugar de crear una gran ley general de IA, algunos gobiernos están optando por regular primero sectores específicos donde los riesgos son más visibles, como los procesos electorales.

La proliferación de deepfakes políticos, campañas automatizadas y contenidos generados por IA encendió alertas en distintos países, donde autoridades electorales buscan evitar que estas herramientas se conviertan en instrumentos de manipulación masiva.

Publicidad

Un reto para plataformas y medios

Pero implementar estas reglas no será sencillo, las plataformas digitales tendrían que desarrollar mecanismos para identificar contenido manipulado o generado por IA, mientras que los medios y creadores de contenido enfrentarían nuevas obligaciones de transparencia.

Padilla considera que el desafío no debería recaer únicamente en periodistas o creadores. “Un comunicador no tiene por qué ser técnico. Ahí también entra la responsabilidad de las plataformas para identificar cuándo se está utilizando IA y advertirlo al usuario”, precisó.

Las herramientas para crear contenido sintético son cada vez más accesibles y sofisticadas, mientras que los sistemas para detectarlo siguen en desarrollo.

Plataformas de redes sociales y de video ya tienen mecanismos para identificar y señalar que un contenido fue generado con IA, así como filtros para evitar que se propague desinformación. TikTok, YouTube y las plataformas de Meta señalan cuando un contenido tiene IA e invitan a que los usuarios agreguen estas leyendas en las publicaciones, además de revisar los metadatos de los contenidos.

sin embargo, aun si el Congreso decide avanzar con disposiciones sobre IA en campañas, los especialistas coinciden en que la regulación por sí sola no resolverá el problema de la desinformación digital, pues la educación tecnológica y la alfabetización digital serán igual de importantes.

“La regulación establece el deber ser, pero combatir la desinformación también pasa por la educación y por la responsabilidad de los usuarios, las plataformas y los creadores de contenido”, apuntó Padilla.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad