Mientras México permanece en la incertidumbre, el mundo avanza sin freno, diseñando un mosaico regulatorio que refleja las tensiones geopolíticas de nuestro tiempo. En la Cumbre de París, Estados Unidos y Reino Unido evitaron compromisos regulatorios estrictos por temor a frenar la innovación. En contraste, más de 60 países respaldaron principios de ética, inclusión y seguridad en el desarrollo de la IA
Hace unas semanas, en Roma, se llevó a cabo la Segunda Conferencia Anual sobre IA, donde el papa León XIV reconoció que, si bien esta tecnología se ha usado para promover una mayor igualdad, “existe la posibilidad de que se utilice indebidamente para obtener ganancias egoístas a expensas de otros o, peor aún, para fomentar conflictos y agresiones”.
La respuesta global ha tomado formas diversas. La Unión Europea ha prohibido usos considerados de “riesgo inasumible”, como el reconocimiento facial, la vigilancia biométrica y la puntuación social. El G7 impulsa principios y códigos de conducta para enfrentar amenazas como la desinformación, la invasión de la privacidad y la violación de la propiedad intelectual.
La Asociación de Naciones del Sudeste Asiático (ASEAN) promovió una guía ética con recomendaciones educativas para cimentar una base moral en el desarrollo de estas tecnologías; mientras que China implementó regulaciones que exigen evaluaciones de seguridad, registros de algoritmos para proveedores con capacidades de movilización social y la diferenciación entre contenidos reales y generados por IA.
El sector privado también ha asumido un rol proactivo. Google, por ejemplo, propone una regulación basada en el análisis de riesgos específicos y adaptada a distintos casos de uso. Esta propuesta busca evitar enfoques generales que limiten la innovación sin responder adecuadamente a los peligros reales.
¿Y México?
La Alianza Nacional de Inteligencia Artificial (ANIA) presentó una ambiciosa agenda 2024-2030 que traza un mapa de acción en políticas públicas, regulación, gobernanza e indicadores de medición para integrar a la IA en la administración pública, el sector industrial y educativo, la investigación científica y el desarrollo tecnológico. A pesar de estos esfuerzos, y en ausencia de una Estrategia Nacional y de una especializada en esta materia, México ocupa un rezagado sexto lugar en el Índice Latinoamericano de IA (ILIA), superado por Chile, Brasil y Uruguay, considerados los líderes en la región.
A esto se suma un obstáculo estructural: el marco legal no ha sido actualizado. Aunque se han presentado múltiples iniciativas, todas dependen de una reforma constitucional que otorgue al Congreso de la Unión la facultad de legislar en esta materia a nivel nacional. El dilema no es si regular, sino cómo hacerlo, con qué fines y bajo qué valores.
La solución no radica en importar un modelo, sino en diseñar un traje a la medida de nuestra realidad. La organización “The Ambit” identifica tres aproximaciones clave para regular la IA:
- Enfoque basado en riesgos: centrado en identificar y evaluar riesgos potenciales y las medidas que deben adaptarse para mitigarlos. Puede haber riesgos que vulneren los derechos humanos, la salud y la seguridad (violación a la intimidad y vigilancia de la ciudadanía); riesgos a la seguridad nacional (ciberataques, fuga de datos, identificación biométrica, desinformación y manipulación de información); y riesgos de intervención en el proceso democrático (sesgos en los algoritmos y diseminación de noticias falsas).
- Enfoque basado en principios: que prioriza las consideraciones éticas y morales en el diseño y uso de la tecnología (por ejemplo, evitar su uso con fines discriminatorios).
- Enfoque basado en valores: orientado a objetivos como la defensa de la democracia o la protección de los derechos humanos.