Identificar emociones es complejo y parte de esas habilidades es las que los humanos mejoran con el paso de los años. Si en una conversación en vivo algunos pueden tener problemas en la identificación de enojo, tristeza o frustración, en escrito esta percepción es más compleja, pero es una habilidad que los desarrolladores de Inteligencia Artificial están empujando.
La IA aprende a identificar emociones

“Dar a los agentes de IA y a grandes modelos de lenguaje la capacidad de adaptarse y responder correctamente a las emociones cambiantes que tenemos cuando conversamos es un nivel más sofisticado. Hoy, la mayoría de las inteligencias actuales se limitan a respuestas estáticas”, precisó en entrevista Willian Santo, CTO de Kaiko Studios, una empresa enfocada en desarrollar bases de datos y software de IA emocional.
En 2024, el mercado de Emotion AI en América del Norte alcanzó alrededor de 83,760 millones de dólares, según datos de Markets and Share. Hacia 2030 el mercado de IA emocional se multiplicará, esto con apoyo tanto del software como del hardware, ya sea con robots de servicio o con los agentes de IA de servicios al cliente.
Sin embargo, a escala técnica se requiere de mucha información y conocimiento no sólo de bases de datos, sino de disciplinas que van desde la sociología, la psicología y la lingüística.
“Kaiko está construyendo una capa de memoria que evalúa de forma constante la conversación y trabaja con los modelos de lenguaje grandes en segundo plano para adaptar la tasa de respuesta. Esto implica que el sistema evalúa en tiempo real el estado emocional y ajusta el tono, la longitud y la intención de las respuestas”, precisó Santo.
El ejecutivo señaló que uno de los mayores retos que tiene es el de poseer bases de datos de entrenamiento correctos, además de mucha mejora continua, pues como sucede con las emociones humanas, puedes iniciar la conversación con un ‘humor’ y terminarla con otro.
“Existe una brecha de adopción, un espacio entre cuán dispuesta está la gente a utilizar la IA y cuánto lo hace realmente. Esto se debe a las preocupaciones en torno a la confianza, la privacidad y el control, pero también a lo que está disponible actualmente”, señaló Jaume Sués, socio de innovación en EY.
La necesidad de identificar emociones en esta clase de herramientas crece al usar chatbots de atención a clientes que muchas veces deben identificar el tipo de usuario con el que están conviviendo. Por ejemplo, si un chatbot ubica que un cliente que acaba de perder su vuelo está enojado, podrá tener un acercamiento menos automatizado que el que busca saber sólo su clave de reservación.
“Ahora mismo, el análisis de sentimientos es solo una instantánea: ‘estabas feliz’. No me ayuda a interactuar con mis agentes. Lo que me importa no es solo ‘esta respuesta indica esta emoción’, sino cómo evoluciona la emoción a través de varias interacciones”, precisó Santo.
Para esto el ejecutivo recomendó que si estás desarrollando este tipo de acercamiento en una IA se debe evaluar bajo una escala emocional, donde la interacción puntúe qué tanta emoción hay en una conversación, cómo empezó y cómo finalizó.
Pero para poder alimentar estas bases se requiere de muchos datos, que van desde el conocimiento que tienen estas IA en términos de frases u oraciones usadas de manera cultural, como puede ser el ‘ahorita’ en México, hasta el uso de este tipo de sistemas, pues muchos usuarios aún tienen resistencia a ser atendidos por una IA en momentos de crisis.
“La inteligencia emocional es clave para la confianza. Si no confías en la respuesta de la IA, siempre la vas a cuestionar”, precisó Santo.