Automatizar decisiones es tentador. Un sistema que detecte anomalías al instante o frene ataques sin intervención humana parece casi perfecto. Sin embargo, los algoritmos también se equivocan: heredan sesgos del pasado y, con frecuencia, actúan sin supervisión real. Lo que aparenta eficiencia puede derivar en exclusión, discriminación o uso indebido de datos personales. La ciberseguridad moderna no debe limitarse a blindar sistemas; requiere una visión integral que incorpore, de manera explícita, la dimensión ética.
En México, aún no contamos con una ley federal específica que regule el uso de la IA, aunque el tema ya está en la agenda legislativa. Se han presentado diversas propuestas que buscan encaminar su desarrollo hacia principios éticos, inclusivos y alineados con la soberanía tecnológica.
Comienzan a surgir posicionamientos de organismos nacionales que reconocen la urgencia de establecer lineamientos claros para garantizar que la IA se utilice de forma responsable y competitiva. Sin embargo, mientras no exista un marco jurídico consolidado, las empresas seguirán operando en un entorno de incertidumbre normativa, lo que dificulta anticipar riesgos y asumir compromisos claros en materia de gobernanza tecnológica.
En Estados Unidos, aunque no existe una ley federal exclusiva sobre IA, se han dado pasos relevantes mediante principios rectores como la AI Bill of Rights. Este documento —más político que vinculante— plantea criterios de transparencia, seguridad y explicabilidad para el desarrollo y uso de sistemas inteligentes. Y si bien queda un largo camino por recorrer, se ha convertido en un referente ético para muchas organizaciones.
Europa ha optado por un enfoque más contundente. El AI Act, aprobado en 2024, establece un marco normativo detallado con obligaciones diferenciadas según el nivel de riesgo de la IA. La trazabilidad de decisiones, la supervisión humana y la prohibición de ciertos usos considerados invasivos forman ahora parte del estándar regulatorio europeo. Aunque su implementación será gradual, el mensaje es claro: la innovación debe tener límites definidos por el interés público.