La adopción masiva de la inteligencia artificial (IA) generativa en el entorno laboral avanza a un ritmo mucho más veloz que las políticas de seguridad de las empresas. Según datos del Microsoft Cyber Report, aunque más del 80% de las compañías del Fortune 500 ya utilizan agentes de IA, solo el 47% ha implementado controles específicos para esta tecnología, lo que deja un margen de riesgo crítico para la operación global.
Esta brecha da lugar a un fenómeno conocido como "Shadow AI", donde los empleados utilizan herramientas no autorizadas para agilizar sus tareas. Se estima que el 29% de los agentes de IA utilizados en las organizaciones no cuentan con la "bendición" o sanción del equipo de tecnología, lo que impide cualquier tipo de gobernanza sobre los datos que se procesan.
El riesgo más tangible que conlleva esta falta de controles es la filtración de información sensible. Marcelo Felman, director general de seguridad empresarial de Microsoft para Latinoamérica, advierte que el peligro surge cuando un empleado le entrega un contrato confidencial a una IA no aprobada para que lo analice, provocando que esa información corporativa se escape del control de la empresa.