Publicidad
Publicidad

IA sin frenos: cada semana cambia y no hay regulación que alcance

La IA avanza más rápido que las leyes y los expertos señalan que México necesita regulaciones híbridas: límites claros para proteger derechos y flexibilidad técnica que impulse la innovación.
vie 29 agosto 2025 05:55 AM
La regulación ante una IA que evoluciona cada semana
Ante la pregunta de si la IA puede ser flexible o necesita límites claros, la respuesta no es optar por una u otra alternativa, sino reconocer que ambas son necesarias en diferentes planos.

La discusión en torno a la regulación de la IA es una de las más urgentes en la tecnología, pero así como exige límites claros, especialistas apuntan a la adaptabilidad de las leyes ante su vertiginosa evolución.

“Las regulaciones tienen que ser flexibles, porque son reflejo de nuestro conocimiento”, apunta Bruce Duncan, creador del robot humanoide Bina48. “(Las legislaciones) son reflexiones de nuestro entendimiento, y es evidente que esto cambiará conforme se lancen nuevos productos".

Cada semana hay novedades en torno a la IA, con fuertes implicaciones en la vida de las personas, como los recientes casos de suicidios de adolescentes en donde chatbots estuvieron implicados, incentivando comportamientos nocivos para su salud mental.

Publicidad

En respuesta a la pregunta de si la IA puede ser flexible o necesita límites claros, Guillermo Larrea, experto en ciberseguridad, datos personales e IA para México y Latinoamérica de la consultora Hogan Lovells, menciona que la clave no es optar por una u otra alternativa, sino reconocer que ambas son necesarias en diferentes planos.

“Los límites claros e inflexibles deben aplicarse en aquellas prácticas que no son compatibles con un entorno democrático ni con los derechos fundamentales (...) Establecer estos límites da certeza a las empresas, confianza a los ciudadanos y reduce la posibilidad de conflictos legales prolongados”, detalla.

Por ello, puntualiza el especialista, la regulación necesita ser híbrida. "México debe tener límites claros en lo esencial, pero a la vez flexibilidad técnica para permitir ajustes y evitar que la norma se convierta en un obstáculo para la innovación y la competitividad”.

Uno de los roles de la regulación es fortalecer la innovación, apunta Duncan, pero también responsabilizar a las empresas de sus creaciones.

“La regulación es dibujar una frontera clara sobre lo que es aceptable en cierto momento”, menciona. “Eso cambiará, la clonación es un buen ejemplo. En este momento, la mayoría del mundo dice que no es aceptable”.

¿Cómo incorporar nuevos límites a las regulaciones?

Poner reglas claras y eficientes requiere mecanismos que permitan actualizarlas sin reformar la ley una y otra vez, comenta Larrea, de Hogan Lovells. En Europa, la Oficina de IA del bloque tiene la facultad de ajustar parámetros técnicos como los umbrales de cómputo de los modelos de propósito general. Otras vías son el uso de códigos de práctica sectoriales que sirvan como guías temporales mientras maduran los estándares formales basados en supervisión constante de los entes regulatorios.

Respecto a cada cuánto sería recomendable actualizar las regulaciones de IA, la respuesta es variable. Se necesitan evaluaciones de impacto de uso de la tecnología antes del lanzamiento de un producto o el uso de una tecnología que utilice IA, pero también, señala el experto, “para ciertas tareas de mediano y bajo riesgo, quizá sea relevante hacer evaluaciones anuales o bianuales, dependiendo del sector”.

Duncan, por otra parte, resalta el hecho de que la regulación no puede ser única y global, sino adaptable a cada comunidad, país y cultura aunque partiendo de bases comunes establecidas en un marco mundial. En la actualidad, existen tres modelos que tienen mayor relevancia a nivel mundial: el de la Unión Europea, el estadounidense y el chino; México, por otra parte, está rezagado.

Publicidad

La regulación de la IA en el mundo

La Unión Europea, a través de la Ley General de IA, tiene un enfoque más riguroso en torno a esta tecnología, pues se basa en riesgos y prohíbe prácticas de “riesgo inaceptable”; impone obligaciones estrictas a sistemas de alto riesgo (gestión de calidad, gobernanza de datos, documentación técnica, supervisión humana, registro, evaluación de conformidad); además de que exige transparencia para IA de uso general y modelos de “alto impacto”.

Entre los sistemas prohibidos, por citar algunos ejemplos, se incluyen aquellos que se dediquen a la puntuación social, reconocimiento de emociones o los diseñados para explotar vulnerabilidades de las personas. En el caso de los de alto riesgo están aquellos aplicados a infraestructuras críticas, como la educación, capacitación vocacional o la influencia en procesos democráticos.

En Estados Unidos, la regulación tiene puntos que chocan entre sí. Existen iniciativas a nivel estatal, como la Colorado AI Act, que es la primera ley estatal contra la “discriminación algorítmica” en sistemas de alto riesgo; requiere evaluaciones de impacto, gestión de riesgos, avisos al consumidor cuando interactúa con IA, y notificación al Fiscal General si se detecta discriminación.

No obstante, desde la Casa Blanca, el enfoque es otro, pues el mes pasado, Donald Trump emitió órdenes para acelerar infraestructura y “quitar barreras” a través de un plan con el que desea que EU sea una “potencia exportadora de IA” y ganar la carrera frente a China.

El llamado Plan de Acción de IA consta de tres pilares fundamentales: acelerar la innovación en IA, construir una infraestructura local y liderar la diplomacia y seguridad internacionales en torno a esta tecnología.

Una de las órdenes ejecutivas se llama “ Prevención de la IA ‘woke’ en el gobierno ”, y establece que el gobierno federal “tiene la obligación de no adquirir modelos que sacrifiquen la veracidad y la precisión en aras de agendas ideológicas”, algo que está relacionado con las políticas anti-DEI (Diversidad, equidad e inclusión) que anunció desde el inicio de su administración.

Como parte de la iniciativa se tiene la intención de implementar un “ Programa de Exportaciones de IA Estadounidense ”, el cual apoyaría el desarrollo y despliegue de la tecnología local en el extranjero. Hace unas semanas, el gobierno permitió a Trump retomar la venta de sus chips en China.

China cuenta con un sistema de regulación que apuesta por la IA con visión de Estado y no pone ningún tipo de freno. Plantea un fuerte énfasis en gestión de contenidos, registro de algoritmos y responsabilidad del proveedor, bajo supervisión de las autoridades locales.

Asimismo, apuesta por un régimen administrativo, que ya opera a través de normas de alcance nacional, como el Reglamento de Recomendación Algorítmica, que exige controles de uso de algoritmos, opciones para desactivar recomendaciones, transparencia y archivo ante autoridades.

En México, por otra parte, no existe una legislación promulgada al respecto. Hay un debate activo, con diferentes iniciativas, entre las que destacan las siguientes:

  • Ley Federal para Regular la IA (presentada en el Senado en febrero de 2024) para regular por niveles de riesgo.
  • Ley Federal de IA (abril 2024) que propone crear un marco jurídico general con lineamientos éticos, de supervisión y fomento.
  • Ley Nacional que Regula el Uso de la IA (diciembre 2024), que busca regular el uso de IA en servicios públicos y privados.
  • Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la IA (22 abr 2025): enfoque en desarrollo, implementación, supervisión y fomento; principios éticos y gobernanza.

Sin embargo, la eliminación de órganos autónomos, como el Instituto Nacional de Acceso a la Información (INAI), genera incertidumbre, pues su papel era fundamental para el cuidado de los datos personales de los usuarios, un elemento vital para hacer funcionar la IA.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad