Publicidad
Revista Digital
Publicidad

La IA sale de la pantalla y ‘se conecta’ con el cuerpo humano

Un proyecto de la Universidad Estatal de Oklahoma trabaja en un sistema que no reemplaza al humano, pero sí busca un robot con intuición.
mar 24 marzo 2026 10:00 AM
Robot que lee señales del cerebro
La nueva IA busca replicar un procesamiento cerebral en términos del error, con el fin de afinar la carrera en robótica. (imaginima/Getty Images)

La ciencia ficción trajo personajes como los de Rick Deckard o Rachel en Blade Runner donde se hablaba de los límites que existen entre humanos y humanoides con algunas características muy humanas como la intuición o la empatía.

Ahí es donde entra el proyecto de Hemanth Manjunatha, profesor de la Escuela de Ingeniería Mecánica y Aeroespacial de la Universidad Estatal de Oklahoma. Su equipo trabaja en un sistema que no reemplaza al humano, pero sí intenta leer la intuición.

Publicidad

La idea parece sacada de la ciencia ficción, pero en realidad descansa en una señal cerebral bastante concreta. Cuando una persona percibe un error, su cerebro genera un patrón eléctrico conocido como error-related potential o ErrP, esa señal aparece antes de que el cuerpo alcance a ejecutar la corrección física.

El sistema captura esa alerta con un gorro de electroencefalograma y la procesa en tiempo real. Si el robot está a punto de ejecutar una maniobra equivocada, la máquina no espera a que el operador termine de reaccionar, ya que interpreta esa señal temprana y ajusta su conducta. Esto, a escala de procesamiento de datos, es similar a lo que el cerebro hace.

Puede frenar, detenerse o devolver más control al humano, según las reglas que se le hayan impuesto, lo importante aquí es que no se trata de “leer pensamientos” en un sentido amplio, sino de detectar una respuesta en el error.

La Universidad de Oklahoma State explicó que el marco combina interfaz cerebro-computadora con restricciones formales de seguridad, justamente para evitar que una alerta cerebral mal interpretada se convierta en una reacción todavía más riesgosa.

Durante años, el gran objetivo de la robótica fue que el robot aprendiera a ver, calcular y decidir por sí solo, pero este proyecto propone que la máquina sea lo bastante lista como para escuchar al humano en el momento preciso en que su cerebro detecta peligro.

La robótica industrial ya no es un experimento marginal, datos de la Federación Internacional de Robótica reportan que el mercado de robots de servicio profesional, desde logística hasta medicina, creció y rozó las 200,000 unidades vendidas en 2024.

Publicidad

Si este proyecto logra funcionar de manera consistente, su mayor valor no sería demostrar que un robot “lee la mente”, sino abaratar el costo del error en entornos de alto riesgo. Por ejemplo, en una operación submarina, en una planta energética o en un proceso quirúrgico asistido, unos milisegundos pueden ser la diferencia entre una corrección menor y un accidente.

Nvidia, cuyo stack tecnológico aparece en este proyecto a través de Isaac Lab, Isaac ROS y GPUs RTX PRO 6000, lleva meses empujando la idea de que la siguiente gran ola no será sólo la IA generativa que escribe texto o produce imágenes, sino la IA Física, sistemas capaces de operar en el mundo real, entender contextos cambiantes y entrenarse en simulaciones antes de tocar un entorno físico.

Ian Buck insistió a este medio que los robots deben probar su utilidad fuera del laboratorio, no basta con más cómputo, sino que ahora deben entender mejor el entorno, usar simulación, datos del mundo real y modelos que aprendan de tareas humanas diversas.

Publicidad

Copiar menos el tamaño y más la eficiencia del cerebro

El segundo caso apunta en otra dirección en esta tendencia por ‘integrar’ a las máquinas en la relación humana. Investigadores de Cold Spring Harbor Laboratory, junto con Carnegie Mellon y Princeton, desarrollaron un modelo inspirado en el sistema visual de primates y lograron comprimirlo de manera drástica hasta volverlo diminuto, sin perder gran parte de su capacidad para predecir la respuesta de neuronas visuales.

Este hallazgo refuerza una idea que empieza a ganar tracción en la industria, ya que no toda mejora en IA pasará por hacer modelos más grandes, pues parte de la innovación vendrá de sistemas más pequeños, eficientes e interpretables, diseñados a partir de cómo resuelve problemas un cerebro biológico.

En esta solución se sugiere que la IA también puede aprender del cerebro para volverse menos pesada y más útil.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad