Publicidad
Revista Digital
Publicidad

Shadow AI: 3 de cada 10 herramientas de IA en empresas no están autorizadas

El fenómeno “Shadow AI” crece en las organizaciones. Aunque 80% de las grandes empresas usa agentes de IA, solo 47% implementa controles específicos, abriendo la puerta a filtraciones y ataques.
jue 19 febrero 2026 03:00 PM
Shadow AI en México
El riesgo más tangible que conlleva esta falta de controles es la filtración de información sensible, pues el peligre surge cuando un empleado le entrega un contrato confidencial a una IA no aprobada para que lo analice, provocando que esa información corporativa se escape del control de la empresa. (Moor Studio/Getty Images)

La adopción masiva de la inteligencia artificial (IA) generativa en el entorno laboral avanza a un ritmo mucho más veloz que las políticas de seguridad de las empresas. Según datos del Microsoft Cyber Report, aunque más del 80% de las compañías del Fortune 500 ya utilizan agentes de IA, solo el 47% ha implementado controles específicos para esta tecnología, lo que deja un margen de riesgo crítico para la operación global.

Esta brecha da lugar a un fenómeno conocido como "Shadow AI", donde los empleados utilizan herramientas no autorizadas para agilizar sus tareas. Se estima que el 29% de los agentes de IA utilizados en las organizaciones no cuentan con la "bendición" o sanción del equipo de tecnología, lo que impide cualquier tipo de gobernanza sobre los datos que se procesan.

El riesgo más tangible que conlleva esta falta de controles es la filtración de información sensible. Marcelo Felman, director general de seguridad empresarial de Microsoft para Latinoamérica, advierte que el peligro surge cuando un empleado le entrega un contrato confidencial a una IA no aprobada para que lo analice, provocando que esa información corporativa se escape del control de la empresa.

Publicidad

Y es que debido a que las empresas no tienen visibilidad sobre estas herramientas, desconocen qué datos están siendo accedidos por los agentes que los empleados utilizan, así como los permisos específicos que estos poseen, menciona Vasu Jakkal, vicepresidenta corporativa de seguridad, cumplimiento, identidad y gestión de Microsoft.

Alimentar a la IA con tus secretos

Este uso desmedido impacta directamente en la gobernanza tecnológica, ya que los modelos externos de IA suelen aprender de la información que reciben. Al compartir datos sin control, menciona Felman, las empresas están, en esencia, alimentando modelos de terceros con sus secretos comerciales, ampliando los vectores de ataque disponibles para actores malintencionados.

Otro desafío crítico es la dificultad de trazabilidad de las decisiones automatizadas. Dado que estos sistemas no son determinísticos, sino probabilísticos, "cometen errores y alucinan", lo que complica entender por qué una IA tomó una decisión específica si no se cuenta con una plataforma supervisada. Sin controles, la empresa pierde la capacidad de auditar procesos internos.

La seguridad operativa también está en juego debido al concepto del "doble agente". Si un atacante logra manipular a un agente de IA no protegido, este podría volverse contra la organización. Jakkal advierte que se debe operar bajo la premisa de que "mi agente ya está comprometido", especialmente si no existen capas de verificación explícita para cada acción que realiza el sistema.

Publicidad

Si un atacante logra explotar un agente que tiene permisos excesivos, puede convertirlo en un "agente doble". Esto significa que el atacante utiliza al propio agente de la empresa para extraer datos internos de forma legítima ante los sistemas de seguridad, señala la especialista.

En el contexto de América Latina, la situación es aún más alarmante. Las tendencias indican que existe un "mayor nivel de adopción de agentes con un menor nivel de adopción de políticas de seguridad" en comparación con otras regiones. Esta desconexión entre innovación y protección crea un escenario ideal para que el cibercrimen aproveche las vulnerabilidades.

Para mitigar estos riesgos, Felman puntualiza que la solución no es prohibir, sino gestionar. "La manera más efectiva y eficiente de reducir los riesgos... es proveyendo a las personas plataformas autorizadas". Al entregar herramientas sancionadas, las empresas pueden proteger la información mientras permiten que los empleados sean más productivos.

Recomendaciones para combatir el Shadow AI

1. Definir un propósito claro: Cada agente de IA debe tener una función y alcance específicos, evitando que se convierta en una herramienta genérica sin supervisión.

2. Aplicar el principio de "menor privilegio": La IA solo debe tener acceso a la información estrictamente necesaria para su tarea. "Si Marcelo trabaja con el sistema A, no debería tener acceso a nada más que a eso", detalla Felman.

Publicidad

3. Implementar un modelo de "Zero Trust" (Confianza Cero): Basado en el mantra "nunca confío, siempre verifico", cada acción de la IA debe ser validada explícitamente por el sistema de seguridad. En este sentido, Jakkal menciona que los permisos excesivos son uno de los desafíos más importantes, es decir, el hecho de que los agentes tienen más acceso del que necesitan para realizar sus tareas. “Si un agente con acceso a datos sensibles es comprometido, el riesgo para la organización es masivo”, sentencia.

4. Promover plataformas corporativas: El mejor antídoto contra el Shadow AI es ofrecer herramientas propias donde los datos están protegidos, evitando que el empleado busque soluciones externas.

5. Capacitación continua: Es vital que los colaboradores entiendan los riesgos de las alucinaciones de la IA y la importancia de no compartir datos sensibles en chats personales o aplicaciones de mensajería no permitidas.

6. Actualizar planes de respuesta: Las empresas deben incorporar en sus protocolos de emergencia la posibilidad de que la IA falle o sea comprometida. El objetivo, concluye Felman, no es eliminar el riesgo por completo dejando de usar la tecnología, sino alcanzar un equilibrio.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad