La regulación de la IA en el mundo
La Unión Europea, a través de la Ley General de IA, tiene un enfoque más riguroso en torno a esta tecnología, pues se basa en riesgos y prohíbe prácticas de “riesgo inaceptable”; impone obligaciones estrictas a sistemas de alto riesgo (gestión de calidad, gobernanza de datos, documentación técnica, supervisión humana, registro, evaluación de conformidad); además de que exige transparencia para IA de uso general y modelos de “alto impacto”.
Entre los sistemas prohibidos, por citar algunos ejemplos, se incluyen aquellos que se dediquen a la puntuación social, reconocimiento de emociones o los diseñados para explotar vulnerabilidades de las personas. En el caso de los de alto riesgo están aquellos aplicados a infraestructuras críticas, como la educación, capacitación vocacional o la influencia en procesos democráticos.
En Estados Unidos, la regulación tiene puntos que chocan entre sí. Existen iniciativas a nivel estatal, como la Colorado AI Act, que es la primera ley estatal contra la “discriminación algorítmica” en sistemas de alto riesgo; requiere evaluaciones de impacto, gestión de riesgos, avisos al consumidor cuando interactúa con IA, y notificación al Fiscal General si se detecta discriminación.
No obstante, desde la Casa Blanca, el enfoque es otro, pues el mes pasado, Donald Trump emitió órdenes para acelerar infraestructura y “quitar barreras” a través de un plan con el que desea que EU sea una “potencia exportadora de IA” y ganar la carrera frente a China.
El llamado Plan de Acción de IA consta de tres pilares fundamentales: acelerar la innovación en IA, construir una infraestructura local y liderar la diplomacia y seguridad internacionales en torno a esta tecnología.
Una de las órdenes ejecutivas se llama “ Prevención de la IA ‘woke’ en el gobierno ”, y establece que el gobierno federal “tiene la obligación de no adquirir modelos que sacrifiquen la veracidad y la precisión en aras de agendas ideológicas”, algo que está relacionado con las políticas anti-DEI (Diversidad, equidad e inclusión) que anunció desde el inicio de su administración.
Como parte de la iniciativa se tiene la intención de implementar un “ Programa de Exportaciones de IA Estadounidense ”, el cual apoyaría el desarrollo y despliegue de la tecnología local en el extranjero. Hace unas semanas, el gobierno permitió a Trump retomar la venta de sus chips en China.
China cuenta con un sistema de regulación que apuesta por la IA con visión de Estado y no pone ningún tipo de freno. Plantea un fuerte énfasis en gestión de contenidos, registro de algoritmos y responsabilidad del proveedor, bajo supervisión de las autoridades locales.
Asimismo, apuesta por un régimen administrativo, que ya opera a través de normas de alcance nacional, como el Reglamento de Recomendación Algorítmica, que exige controles de uso de algoritmos, opciones para desactivar recomendaciones, transparencia y archivo ante autoridades.
En México, por otra parte, no existe una legislación promulgada al respecto. Hay un debate activo, con diferentes iniciativas, entre las que destacan las siguientes:
- Ley Federal para Regular la IA (presentada en el Senado en febrero de 2024) para regular por niveles de riesgo.
- Ley Federal de IA (abril 2024) que propone crear un marco jurídico general con lineamientos éticos, de supervisión y fomento.
- Ley Nacional que Regula el Uso de la IA (diciembre 2024), que busca regular el uso de IA en servicios públicos y privados.
- Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la IA (22 abr 2025): enfoque en desarrollo, implementación, supervisión y fomento; principios éticos y gobernanza.
Sin embargo, la eliminación de órganos autónomos, como el Instituto Nacional de Acceso a la Información (INAI), genera incertidumbre, pues su papel era fundamental para el cuidado de los datos personales de los usuarios, un elemento vital para hacer funcionar la IA.