Publicidad
Publicidad

México ante la Inteligencia Artificial, ¿regulación o rezago?

Regular la IA no es frenar su avance. Es construir las vías seguras para un tren de alta velocidad que no se detendrá.
lun 14 julio 2025 06:03 AM
México ante la Inteligencia Artificial, ¿regulación o rezago?
El dilema no es si regular la Inteligencia Artificial, sino cómo hacerlo, con qué fines y bajo qué valores, apunta Isaías López.

“La IA es demasiado importante para no regularla y demasiado importante para no regularla bien”: Kent Walker, Presidente de Asuntos Globales de Google y Alphabet.

La Inteligencia Artificial (IA) está transformando industrias y redefiniendo el orden global. Ya no es una promesa del futuro: es la tecnología que impulsa avances vertiginosos en el desarrollo de vacunas, el rediseño de autos de Fórmula 1 cientos de veces por semana y la optimización de cadenas de suministro en tiempo real. Pero también es una herramienta que ha planteado riesgos y desafíos como la desinformación y la polarización. Ignorar su regulación no es neutralidad: es desinterés o negligencia.

Publicidad

Mientras México permanece en la incertidumbre, el mundo avanza sin freno, diseñando un mosaico regulatorio que refleja las tensiones geopolíticas de nuestro tiempo. En la Cumbre de París, Estados Unidos y Reino Unido evitaron compromisos regulatorios estrictos por temor a frenar la innovación. En contraste, más de 60 países respaldaron principios de ética, inclusión y seguridad en el desarrollo de la IA

Hace unas semanas, en Roma, se llevó a cabo la Segunda Conferencia Anual sobre IA, donde el papa León XIV reconoció que, si bien esta tecnología se ha usado para promover una mayor igualdad, “existe la posibilidad de que se utilice indebidamente para obtener ganancias egoístas a expensas de otros o, peor aún, para fomentar conflictos y agresiones”.

La respuesta global ha tomado formas diversas. La Unión Europea ha prohibido usos considerados de “riesgo inasumible”, como el reconocimiento facial, la vigilancia biométrica y la puntuación social. El G7 impulsa principios y códigos de conducta para enfrentar amenazas como la desinformación, la invasión de la privacidad y la violación de la propiedad intelectual.

La Asociación de Naciones del Sudeste Asiático (ASEAN) promovió una guía ética con recomendaciones educativas para cimentar una base moral en el desarrollo de estas tecnologías; mientras que China implementó regulaciones que exigen evaluaciones de seguridad, registros de algoritmos para proveedores con capacidades de movilización social y la diferenciación entre contenidos reales y generados por IA.

El sector privado también ha asumido un rol proactivo. Google, por ejemplo, propone una regulación basada en el análisis de riesgos específicos y adaptada a distintos casos de uso. Esta propuesta busca evitar enfoques generales que limiten la innovación sin responder adecuadamente a los peligros reales.

¿Y México?

La Alianza Nacional de Inteligencia Artificial (ANIA) presentó una ambiciosa agenda 2024-2030 que traza un mapa de acción en políticas públicas, regulación, gobernanza e indicadores de medición para integrar a la IA en la administración pública, el sector industrial y educativo, la investigación científica y el desarrollo tecnológico. A pesar de estos esfuerzos, y en ausencia de una Estrategia Nacional y de una especializada en esta materia, México ocupa un rezagado sexto lugar en el Índice Latinoamericano de IA (ILIA), superado por Chile, Brasil y Uruguay, considerados los líderes en la región.

A esto se suma un obstáculo estructural: el marco legal no ha sido actualizado. Aunque se han presentado múltiples iniciativas, todas dependen de una reforma constitucional que otorgue al Congreso de la Unión la facultad de legislar en esta materia a nivel nacional. El dilema no es si regular, sino cómo hacerlo, con qué fines y bajo qué valores.

La solución no radica en importar un modelo, sino en diseñar un traje a la medida de nuestra realidad. La organización “The Ambit” identifica tres aproximaciones clave para regular la IA:

- Enfoque basado en riesgos: centrado en identificar y evaluar riesgos potenciales y las medidas que deben adaptarse para mitigarlos. Puede haber riesgos que vulneren los derechos humanos, la salud y la seguridad (violación a la intimidad y vigilancia de la ciudadanía); riesgos a la seguridad nacional (ciberataques, fuga de datos, identificación biométrica, desinformación y manipulación de información); y riesgos de intervención en el proceso democrático (sesgos en los algoritmos y diseminación de noticias falsas).

- Enfoque basado en principios: que prioriza las consideraciones éticas y morales en el diseño y uso de la tecnología (por ejemplo, evitar su uso con fines discriminatorios).

- Enfoque basado en valores: orientado a objetivos como la defensa de la democracia o la protección de los derechos humanos.

Publicidad

Cada país deberá elegir el enfoque que mejor se ajuste a su realidad. Pero una regulación efectiva sólo será posible mediante una verdadera coordinación entre gobierno, academia y sector privado. Se requiere visión compartida para fomentar la innovación sin sacrificar derechos fundamentales.

Regular la IA no es frenar su avance. Es construir las vías seguras para un tren de alta velocidad que no se detendrá. No es solo una cuestión técnica: es una tarea política, ética y estratégica, porque lo que está en juego no es sólo el futuro de la tecnología, sino el futuro de nuestra sociedad.

____

Nota del editor: Isaías López es abogado, maestro en políticas públicas y Director de Asuntos Públicos en México de la consultoría Speyside Group. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad