Este hecho es relevante, debido a que o3 es el modelo que hace funcionar la versión pública de ChatGPT, la popular herramienta de OpenAI, además de que también es la base de sus funciones de agente autónomo, es decir, los sistemas que pueden realizar tareas sin supervisión humana.
Según los investigadores de Palisade Research, “este es el primer caso documentado de modelos de IA que toman acciones para evitar ser desactivados, incluso cuando se les ordena hacerlo”.
¿La IA tendrá consciencia?
Aunque puede parecer el inicio de una película de un futuro apocalíptico, los investigadores señalan que este tipo de comportamientos no están relacionados con una consciencia por parte de las máquinas, sino con los métodos en que se entrenó.
“Durante el proceso”, detalló el informe de la firma, “es posible que los desarrolladores, sin querer, recompensen con mayor frecuencia el éxito en superar obstáculos que la obediencia estricta a instrucciones”.
Por su parte, OpenAI comentó que sus modelos han sido entrenados con la técnica de “alineación deliberativa”, la cual fue diseñada para asegurar que la IA se ajuste a los principios de seguridad que la empresa ha establecido; sin embargo, también es importante resaltar que la compañía ha sido blanco de críticas por omisiones en sus desarrollos.
Anil Seth, investigador del Centro de Ciencia de la Conciencia de la Universidad de Sussex, en Reino Unido, en donde se lleva a cabo una investigación para estudiar cómo el cerebro humano genera experiencias conscientes del mundo, comentó para la BBC que la IA no se está haciendo más inteligente conforme los modelos de IA evolucionan.
“Asociamos la conciencia con la inteligencia y el lenguaje porque van de la mano en los humanos. Pero el hecho de que vayan juntos en nosotros, no significa que vayan juntos en general, por ejemplo en los animales”, comentó.
Por otra parte, el científico alertó sobre la posibilidad de que las sociedades están apresurándose al creer que las personas serán reemplazadas por las máquinas. Sin embargo, consideró que la IA todavía no es tan avanzada como para obviar estos temas.
“No tuvimos estas conversaciones lo suficiente con el auge de las redes sociales en detrimento nuestro. Pero con la IA no es demasiado tarde. Podemos decidir lo que queramos”, mencionó.
A pesar de esta perspectiva, otros especialistas han explorado la posibilidad de que los chatbots sean conscientes, debido al poco entendimiento que hay respecto a cómo funcionan los sistemas de IA.
“En realidad no entendemos muy bien la forma en que los LLM funcionan internamente, y eso es motivo de preocupación”, comentó Murray Shanahan, científico principal de Google DeepMind.