Hace unos meses, un tribunal en Canadá ordenó a Air Canada indemnizar a un pasajero que fue mal informado por el chatbot de atención al cliente de la aerolínea. La empresa intentó deslindarse, alegando que la IA había actuado por su cuenta, sin embargo, el juez no lo permitió. Si pones un sistema frente a tus clientes, eres responsable de lo que ese sistema diga o haga en tu nombre .
El nuevo compañero de trabajo que no puedes ver
Ese caso, aparentemente aislado, ilustra el dilema que muchas compañías enfrentarán pronto: la Inteligencia Artificial (IA) dejó de ser una herramienta auxiliar para convertirse en una “compañera de trabajo” que atiende clientes, aprueba devoluciones, responde correos y ejecuta acciones dentro de tus propios sistemas. Pero mientras sus resultados se ven en pantalla, sus errores se sienten en reputación y en los resultados del negocio.
Durante el último año he escuchado a varios ejecutivos preguntar si los agentes son solo una moda. Mi respuesta es que no: son útiles, pero también riesgosos. Según Gartner, menos del 5% de las aplicaciones empresariales tendrán agentes autónomos en 2025; pero en 2026 ese porcentaje podría subir a 40% . McKinsey también apunta que el potencial de productividad es inmenso, pero advierte que solo se materializa cuando se rediseñan los flujos de trabajo, no cuando simplemente se “pega” un agente a un proceso que ya estaba roto.
Lo que está en juego no es la capacidad tecnológica, sino la responsabilidad organizacional. Cuando un analista humano se equivoca, hay un jefe que da la cara. ¿Y cuándo lo hace un agente? ¿Quién responde si actualiza mal un contrato, aprueba un reembolso indebido o hace una promesa comercial que tu empresa no puede cumplir?
Muchos líderes todavía piensan en estos sistemas como hojas de cálculo: útiles, pero impersonales. Sin embargo, cuando están conectados a canales públicos o automatizan decisiones operativas, ya no son neutrales. Son parte activa del rostro de tu empresa. Ignorar eso es prepararse para fallar en público.
La buena noticia es que las empresas pueden adelantarse a estos dilemas. No necesitan esperar una nueva norma o regulación para empezar a establecer límites claros y estructuras para dar seguimiento. En este nuevo entorno, cada agente desplegado en producción debería tener un responsable con nombre y apellido. No se trata de un rol técnico, sino de una función de liderazgo: alguien que apruebe el alcance de las tareas, documente su comportamiento y dé seguimiento a sus decisiones como si se tratara de un miembro más del equipo.
Ese liderazgo debe venir acompañado de reglas claras. Algunas decisiones, por su impacto financiero, legal o reputacional, no deben dejarse en manos de ningún sistema automatizado. Al igual que en operaciones críticas se requieren dos firmas, en estos casos debe establecerse qué tipo de acciones siempre permanecerán en manos humanas. Esto incluye, por ejemplo, la aprobación de créditos que rebasen ciertos límites establecidos, la emisión de compromisos legales o la desactivación de controles de seguridad.
Además, la trazabilidad debe ser obligatoria. Cada decisión tomada por un agente debe dejar un registro consultable, no solo para depurar errores, sino para poder responder con evidencia ante un cliente insatisfecho o una autoridad. Para decisiones sensibles, se puede implementar una verificación por un canal distinto, como un correo firmado o una confirmación desde una cuenta verificada. En una época donde los deepfakes y las falsificaciones digitales son cada vez más convincentes, estas medidas no solo previenen fraudes: protegen la confianza.
También es momento de empezar a reportar métricas específicas sobre el desempeño de estos sistemas. Así como hoy informamos sobre tiempos de atención o satisfacción del cliente, podríamos hablar de qué porcentaje de tareas atienden los agentes, cuántas veces escalan a humanos, y en qué medida sus errores tienen impacto financiero. Esas cifras no solo permiten medir el verdadero retorno, sino que previenen los errores sistemáticos antes de que lleguen al escritorio de un juez.
Finalmente, los incentivos deben alinearse. Si el bono de un gerente depende exclusivamente de reducir costos por contacto, es probable que empuje a los agentes más allá de sus límites razonables. Un enfoque más equilibrado incluiría variables como la precisión, la calidad en las transferencias a humanos, y la satisfacción posterior a la interacción. Y cuando existan ahorros reales, ¿por qué no reinvertir una parte en programas de formación para el talento humano que ahora necesita moverse hacia tareas más complejas?
Todo esto no es solo técnico, también es reputacional. Cada vez más empresas presumen que sus agentes responden el 90% de las consultas con alta precisión . Pero pocos aclaran en qué casos, bajo qué condiciones, y con qué evidencia. La Unión Europea ya avanza hacia regulaciones que obligan a etiquetar contenido generado por IA y a demostrar su origen . No esperemos la notificación oficial: si vas a usar agentes, diseña desde ahora protocolos de autenticación, transparencia y control.
Nadie extraña las tareas repetitivas que estos sistemas están eliminando. Pero eso no significa que debamos entregarles el volante sin un cinturón de seguridad. El trabajo ahora es mover al talento humano hacia las zonas donde el contexto, la empatía y la estrategia sí importan. No hay IA que sustituya eso.
Ese compañero de trabajo invisible ya está aquí. Dale un marco, un dueño, un historial y un botón de apagado. Explica a tus clientes cómo funciona. Sé claro con tus equipos sobre hasta dónde llegará. Y mide todo públicamente.
____
Nota del editor: Héctor Iván Lira Hevia es profesor de cátedra del Tec de Monterrey. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.
Consulta más información sobre este y otros temas en el canal Opinión