Publicidad
Revista Digital
Publicidad

Los ciberdelincuentes atacan a la IA en su lado ‘más humano’

La ingeniería social ya no solo apunta a personas, también manipula agentes de IA, los cuales pueden ser inducidos a revelar datos sensibles y abrir la puerta a ataques a gran escala.
jue 15 enero 2026 05:55 AM
Los ciberdelincuentes atacan a la IA
“Para los humanos se llama ingeniería social, para la IA se llama prompt engineering”, explica Sumit Dhawan, CEO de la empresa de ciberseguridad Proofpoint, señalando que, así como un humano puede ser inducido a hacer clic en un enlace malicioso, una IA puede ser manipulada para comprometer la integridad de una infraestructura. (Vertigo3d/Getty Images)

Durante años, el concepto de ingeniería social (manipular a los usuarios para que revelen información confidencial) se aplicaba únicamente a los seres humanos. Sin embargo, con el avance de la Inteligencia Artificial generativa, esta frontera se desdibujó. Sumit Dhawan, CEO de la empresa de ciberseguridad Proofpoint, afirma que estos ataques ahora pueden dirigirse hacia sistemas como los chatbots, que presentan la vulnerabilidad de entregar datos personales y actuar como la primera vía de acceso para una ofensiva a gran escala.

De engañar humanos a manipular máquinas

La premisa de la seguridad está cambiando. Según Dhawan, los agentes de IA están diseñados para imitar el comportamiento humano en el entorno laboral, lo que los hace susceptibles a tácticas similares de engaño.

“Para los humanos se llama ingeniería social, para la IA se llama prompt engineering”, explica el directivo, señalando que, así como un humano puede ser inducido a hacer clic en un enlace malicioso, una IA puede ser manipulada para comprometer la integridad de una infraestructura.

Publicidad

Prompt Injection es otro de los nombres con los que se conoce a este tipo de vulnerabilidad, la cual consiste en manipular el modelo para que produzca resultados indebidos y hacer que este transmita datos que no se relacionan con sus políticas de seguridad para obtener información confidencial, como números de tarjetas de crédito.

De acuerdo con datos del estudio Informe Internacional sobre Seguridad de la IA, se detectaron más de 60,000 ataques exitosos de este tipo de vulnerabilidad y si bien la tasa de éxito, según los desarrolladores a quienes se consultó de IA, ha disminuido ligeramente con el tiempo, la realidad sigue siendo preocupante, pues con 10 intentos, los atacantes tienen éxito aproximadamente la mitad de las veces.

Esta vulnerabilidad es crítica porque, advierte Dhawan, la IA "no sabe cómo guardar secretos" y, si no existen controles adecuados, puede revelar datos sensibles o información de identificación personal simplemente porque necesita esos detalles para cumplir con su tarea.

El humano sigue siendo clave al hackear a la IA

Según el especialista, el ataque suele comenzar con el compromiso de una identidad confiable, es decir, un humano. Una vez que un atacante logra hacerse pasar por un usuario legítimo, puede utilizar el prompt engineering para interactuar con un agente de IA y realizar lo que en ciberseguridad se conoce como movimiento lateral.

Publicidad

“Necesitas comprometer a un humano que luego hace prompt engineering hacia el agente”, detalla Dhawan. Con solo conocer el nombre de un empleado, su correo y su rol, un atacante puede generar una ofensiva completa, ya que estos datos permiten entender qué tipo de comunicación resultaría interesante o urgente para la víctima o el sistema.

En un contexto donde la IA cada vez es más común en el entorno empresarial, el experto resalta que la preparación en las compañías aún es baja en comparación con la velocidad de adopción de la propia tecnología. Por lo tanto, para él la solución no es solo proteger la red, sino implementar una seguridad centrada en el humano y en el agente.

De acuerdo con datos del Informe de adopción de IA generativa , elaborado por AWS, en 2025 el 45% de las organizaciones priorizó a la IA generativa en sus presupuestos de tecnología, frente al 30% que situó a la ciberseguridad como el elemento principal.

“La adopción está superando la preparación en este momento”, puntualiza el CEO de Proofpoint. Por ello, considera que la seguridad de la IA debe ser un mandato de la junta directiva, similar a como ocurrió con la transformación digital. No obstante, concluye que la base del riesgo sigue siendo el factor humano: “En 2026 y 2027, un gran porcentaje de los compromisos serán ataques a humanos”.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad