Así, antes de hacer cambios en la vida real, la organización puede anticipar qué medidas reducirían el desgaste del personal y cuáles podrían agravarlo.
“El gemelo digital permite simular el efecto de una política antes de aplicarla, pero siempre como un insumo. La decisión final la toma un humano”, aclaró Giraldi.
Sin embargo, el avance tecnológico convive con tensiones internas. Giraldi subrayó que la confiabilidad de estos modelos depende de la calidad de los datos y de la gobernanza del proceso.
“Los equipos de gestión de personas ya no pueden ser ajenos a la data que existe dentro de la organización. Tienen que saber qué información están entregando al modelo, porque si no entienden eso, tampoco pueden entender la decisión que sale después”, dijo.
El riesgo, explicó, aparece cuando la IA se convierte en una “caja negra”. Para evitarlo, Buk plantea un trabajo conjunto entre áreas de Recursos Humanos y equipos de datos, con criterios claros sobre qué información se utiliza y cómo se interpretan los resultados.
“El problema nace cuando nadie sabe qué decidió la IA ni por qué llegó a esa conclusión”, advirtió.
La discusión no es solo técnica, sino cultural. Según el IBM Institute for Business Value, solo 20% de los ejecutivos considera que Recursos Humanos es responsable de la estrategia del futuro del trabajo, a pesar de que la experiencia del empleado se vincula directamente con el desempeño financiero. El mismo instituto señala que las organizaciones que ofrecen mejores experiencias laborales superan en 31% el crecimiento de ingresos frente a sus competidores.
En ese contexto, los gemelos digitales también abren dilemas éticos, como qué ocurre si una simulación muestra que una decisión resulta rentable, pero eleva el desgaste emocional o si un colaborador no está de acuerdo con la conclusión del sistema. Para Giraldi, la clave está en reducir la autoridad de la IA y entenderla como una forma de consultoría.