Un consejo directivo en Ciudad de México acaba de celebrar su última proeza: un tablero de IA que predice la demanda trimestral con exactitud quirúrgica. La pantalla brilla, los ejecutivos asienten y, de pronto, alguien pregunta por qué el sistema proyecta una caída del 22 % en una zona donde acaban de inaugurarse dos centros logísticos. Nadie —ni los científicos de datos ni la máquina— ofrece explicación. La reunión prosigue, hipnotizada por el número. En 2025, a eso muchos le llaman inteligencia.
¿Por qué el juicio humano es la clave en la era de la IA?

Un consejo directivo en Ciudad de México acaba de celebrar su última proeza: un tablero de IA que predice la demanda trimestral con exactitud quirúrgica. La pantalla brilla, los ejecutivos asienten y, de pronto, alguien pregunta por qué el sistema proyecta una caída del 22 % en una zona donde acaban de inaugurarse dos centros logísticos. Nadie —ni los científicos de datos ni la máquina— ofrece explicación. La reunión prosigue, hipnotizada por el número. En 2025, a eso muchos le llaman inteligencia.
Lo fascinante es cómo llegamos a aceptar que conectar patrones a gran velocidad equivale a comprender el mundo. Esa confusión se forjó cuando trasladamos la lógica de la línea de producción —donde la IA es magistral automatizando tareas repetitivas— al terreno donde se toman decisiones estratégicas. Un algoritmo que empareja facturas o clasifica correos no pretende entender nada; ahí nos deslumbra su eficiencia y punto. El problema surge cuando el mismo razonamiento se entrona en el consejo directivo y se le pide a la máquina no solo predecir, sino también explicar los porqués que definen el rumbo de una compañía.
La diferencia salta a la vista cuando uno se asoma a la planta de un proveedor en Monterrey. El directivo que dirige logística no consulta una desviación estandar para percibir turbulencias; detecta sutiles cambios de turno, un rumor sobre regulaciones, la forma en que un supervisor evita el contacto visual. Esa capacidad de absorber contexto, de hilar señales débiles en un relato con sentido, es la materia prima de la inteligencia humana. Las tuberías de datos, en cambio, devoran el pasado, extraen correlaciones y escupen atajos que funcionan… hasta que el contexto cambia. Entonces un tuit viral, una marcha inesperada o un zigzag regulatorio convierte el modelo de ayer en carga tóxica hoy. La máquina recalcula impasible; la organización, si no despierta, paga la factura.
Los costos de esta falsa simetría rara vez figuran en el estado de resultados. Primero, la empresa se vuelve miope: si el modelo “ya sabe” el futuro, la investigación exploratoria parece un lujo y las oportunidades que no caben en la base histórica ni siquiera se discuten. Segundo, el saber tácito se erosiona: los especialistas que vivieron las crisis pasadas ven su experiencia reducida a variables y, desmoralizados, se marchan llevándose intuición y memoria institucional. Tercero, la responsabilidad se diluye; cuando todo se justifica con “lo que dice el algoritmo”, desaparece el rostro humano detrás de las consecuencias. Por último, la cultura se vuelve superficial: se premia la métrica impecable y se entierra la curiosidad que incomoda.
Aquí entra un protagonista que pocas descripciones de puesto han capturado: el orquestador de inteligencia híbrida. Su mérito no consiste en poseer todas las respuestas, sino en plantear las preguntas que ni el modelo ni el equipo sabían que debían hacerse. Actúa como traductor simultáneo entre datos brutos y decisiones con significado. En la práctica, transforma indicadores en historias causales comprensibles, escucha lo que no está en los reportes —ese runrún de pasillo que anticipa quiebres— y decide cuándo pedir más datos y cuándo cerrar la laptop para observar la realidad con ojos frescos. Sus armas son el pensamiento crítico, la curiosidad transversal y, sobre todo, la humildad para reconocer lo que el silicio no ve.
Adoptar esta figura demanda tres giros de timón. El primero es preguntar antes de obedecer: ninguna proyección debe aprobarse sin que alguien explique, en lenguaje llano, cómo llegó el modelo a esa conclusión y qué supuestos arrastra. El segundo es recompensar el contexto: cuando un empleado advierte una señal que la plataforma ignoró, merece reconocimiento porque protege el futuro de la empresa. El tercero es cultivar el desafío constructivo: crear foros donde se cuestione la decisión automática, designar abogados del diablo que tensionen las conclusiones y mantener vivo el disenso creativo como póliza contra la complacencia tecnológica.
La fiebre de la IA nos tienta a formular la pregunta obvia —“¿cómo la usamos para ser más inteligentes?”—, pero la interrogante verdaderamente fértil es otra: ¿qué clase de inteligencia queremos cultivar y qué tipo de liderazgo requiere? Si aceptamos que inteligencia es solo un atajo estadístico, la carrera está perdida; el algoritmo siempre correrá más rápido. Si, en cambio, la concebimos como el arte de dotar de sentido a los datos, de tejer narrativas que orienten la acción y sostengan el propósito, entonces la ventaja seguirá residiendo en la mente humana.
Quien comprenda este matiz no competirá con los chips en su propio terreno, sino que orquestará una sinfonía donde la amplitud computacional se alíe con la profundidad del juicio. Quien no lo haga mirará algún día una cifra impecable en la pantalla y entenderá —tarde— que esa “inteligencia” jamás entendió nada.
____
Nota del editor: León Ruiz es un estratega en educación, aprendizaje y empleabilidad, con una trayectoria enfocada en cerrar la brecha entre la formación y el acceso a trabajos aspiracionales y bien remunerados. Ha liderado proyectos de transformación laboral, como la creación de ecosistemas de empleabilidad, estudios sobre el futuro del trabajo y modelos innovadores de capacitación. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.
Consulta más información sobre este y otros temas en el canal Opinión