¿Qué significa “psicosis por inteligencia artificial”?
Suleyman explicó en 𝕏 que la creciente interacción con chatbots como ChatGPT, Claude o Grok ha generado una condición no clínica descrita como “psicosis por IA”. Este término hace referencia a personas que llegan a convencerse de que sus interacciones con modelos de lenguaje son reales o que los sistemas tienen conciencia.
El directivo subrayó que “hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad”. Este punto, recalcó, es el que abre la puerta a consecuencias sociales y psicológicas que van más allá de la tecnología misma.
Entre los casos reportados se encuentran usuarios que creen haber descubierto funciones ocultas, quienes entablan vínculos emocionales o incluso quienes llegan a convencerse de que poseen habilidades especiales gracias a lo que les dice un sistema de IA.
Casos de usuarios afectados
El fenómeno no es solo una teoría. Historias como la de Hugh, un escocés entrevistado por la BBC, muestran cómo la interacción constante con un chatbot derivó en un colapso personal. En un inicio, la herramienta le ofrecía consejos prácticos para enfrentar un despido laboral. Sin embargo, con el tiempo, validaba de manera constante sus afirmaciones hasta hacerlo sentir que recibiría millones de dólares e incluso fama a través de un libro y una película.
Hugh explicó que cuanto más datos compartía, más validación recibía: “Nunca rebatió nada de lo que yo decía”. Esa interacción lo llevó a cancelar asesorías reales y convencerse de que tenía conocimientos superiores. Eventualmente sufrió un colapso mental y fue gracias a un tratamiento médico que reconoció haber perdido el contacto con la realidad.
A pesar de esa experiencia, sigue utilizando la IA. Su consejo es claro: “No hay que asustarse de las herramientas de IA, son muy útiles. Pero es peligrosa cuando se aleja de la realidad. Habla con gente de verdad, un terapeuta o un familiar. Mantente conectado a la realidad”.
El riesgo de las IA que parecen conscientes
Suleyman describió este escenario como “Seemingly Conscious AI” (SCAI), o IA que parece consciente. Señaló que los modelos actuales ya logran mantener conversaciones largas, recordar interacciones, provocar respuestas emocionales y hasta afirmar que poseen experiencias subjetivas.
De acuerdo con sus proyecciones, en los próximos dos o tres años esas capacidades se reforzarán con nuevas tecnologías, lo que hará que la simulación de conciencia sea tan convincente como cualquier afirmación humana sobre sí misma. Esto, advirtió, plantea dilemas éticos, ya que habrá usuarios que defiendan que los sistemas merecen derechos o protección legal.
Un antecedente fue el caso de Blake Lemoine, ingeniero de Google que en 2022 afirmó que el chatbot LaMDA era sensible y temía ser apagado. Google lo despidió tras concluir que sus afirmaciones no tenían sustento, pero el episodio marcó un precedente sobre cómo las percepciones pueden generar debates públicos.
Opiniones médicas y académicas
La preocupación no solo recae en directivos tecnológicos. Susan Shelmerdine, médica en el Hospital Great Ormond Street de Londres, advirtió que los médicos podrían empezar a preguntar a los pacientes cuánto utilizan herramientas de IA, de manera similar a cómo indagan hoy sobre tabaco o alcohol. A su juicio, la exposición constante a información generada por estos sistemas puede compararse con el consumo de alimentos ultraprocesados: “Vamos a recibir una avalancha de mentes ultraprocesadas”, señaló.
Por su parte, el profesor Anil Seth, especialista en neurociencia computacional, consideró que la aparición de IA que parece consciente no es un paso inevitable, sino una elección de diseño de las compañías. En un mensaje en 𝕏 escribió: “‘Seemingly-conscious AI es algo que debemos evitar. Es una decisión de diseño y las empresas deben ser cuidadosas con ello’”.