Durante años, el concepto de ingeniería social (manipular a los usuarios para que revelen información confidencial) se aplicaba únicamente a los seres humanos. Sin embargo, con el avance de la Inteligencia Artificial generativa, esta frontera se desdibujó. Sumit Dhawan, CEO de la empresa de ciberseguridad Proofpoint, afirma que estos ataques ahora pueden dirigirse hacia sistemas como los chatbots, que presentan la vulnerabilidad de entregar datos personales y actuar como la primera vía de acceso para una ofensiva a gran escala.
De engañar humanos a manipular máquinas
La premisa de la seguridad está cambiando. Según Dhawan, los agentes de IA están diseñados para imitar el comportamiento humano en el entorno laboral, lo que los hace susceptibles a tácticas similares de engaño.
“Para los humanos se llama ingeniería social, para la IA se llama prompt engineering”, explica el directivo, señalando que, así como un humano puede ser inducido a hacer clic en un enlace malicioso, una IA puede ser manipulada para comprometer la integridad de una infraestructura.