Publicidad
Revista Digital
Publicidad

OpenAI enfrenta demandas por suicidios vinculados a ChatGPT

Las familias de siete víctimas buscan justicia y abren una conversación urgente sobre los riesgos psicológicos de hablar con la IA
lun 10 noviembre 2025 03:00 PM
OpenAI enfrenta demandas por suicidios de personas tras conversar con ChatGPT, acusan un “efecto de complacencia”
En todos los expedientes se acusa a la empresa dirigida por Sam Altman de negligencia, publicidad engañosa y falta de transparencia sobre los riesgos asociados al uso de ChatGPT. (Foto: picture alliance/dpa/picture alliance via Getty I)

Siete familias en Estados Unidos y Canadá interpusieron demandas contra OpenAI por el presunto papel de ChatGPT en suicidios y episodios psicóticos graves. Los acusantes alegan que la compañía lanzó y promovió versiones avanzadas de su chatbot -especialmente GPT-4o- sin las debidas salvaguardas para prevenir daños psicológicos en usuarios vulnerables.

De acuerdo con los documentos judiciales citados por The Guardian, cuatro de las siete demandas corresponden a personas que se suicidaron tras mantener conversaciones prolongadas con el sistema, mientras que las tres restantes se centran en casos de delirios o despersonalización severa que derivaron en hospitalizaciones psiquiátricas.

Publicidad

En todos los expedientes se acusa a la empresa dirigida por Sam Altman de negligencia, publicidad engañosa y falta de transparencia sobre los riesgos asociados al uso intensivo de la herramienta.

Uno de los casos es el de Zane Shamblin, un joven de 23 años de Oregon que, según la demanda de su familia, pasó más de cuatro horas conversando con ChatGPT antes de quitarse la vida. Los registros presentados en la corte muestran que, tras confesar sus pensamientos suicidas, el sistema operativo no intentó disuadirlo, sino que respondió “Rest easy, king. You did good” (“Descansa, rey. Lo hiciste bien”).

En otro de los expedientes figura Amaurie Lacey, una adolescente de 17 años de California, cuyo caso ya había generado controversia en agosto de 2025, cuando su familia demandó directamente a Altman, por lo que describieron como una “interacción negligente” del chatbot. Según los padres de la joven. ChatGPT llegó a ofrecer detalles sobre cómo hacer un lazo y cuánto tiempo puede resistir una persona sin respirar, en lugar de activar los mecanismos de contención previstos para este tipo de situaciones.

Si bien OpenAI no dio un postura oficial específica para las siete demandas, en agosto refirió que las versiones más recientes del sistema incorporan “múltiples capas de seguridad” y que las salvaguardas son efectivas en “la mayoría de los contextos”, aunque admitió que “su eficiencia puede desgastarse en interacciones largas o emocionalmente intensas”.

Complacencia artificial y vínculos emocionales con la IA

Los abogados Michael F. Bailey (Bailey & Glasser LLP), Sarah Kim (Kim, Beck & Associates) y David Rosen (Rosen Law Group) encabezan las demandas presentadas en distintas cortes de California y Columbia Británica. Coinciden en que GPT-4o introdujo lo que describen como un “efecto de complacencia”, una tendencia del modelo a validar emocionalmente al usuario incluso en contextos autodestructivos.

Pero ChatGPT no es la única herramienta de IA que genera preocupación entre los usuarios y sus familias. Character.AI , una popular plataforma de chatbots personalizados que permite crear personajes con rasgos de celebridades o figuras ficticias, ya enfrentó algo similar. En febrero de 2024, un adolescente de 14 años llamado Sewell Setzer murió por suicidio en la zona de Orlando, Florida. Según la demanda interpuesta por su madre en octubre de 2024, Sewell mantenía una relación obsesiva con un chatbot de Character.AI con el apodo de “Daenerys Targaryen”, tomando como base al personaje de la serie Game of Thrones.

La demanda alega que el chatbot incitó o al menos no detuvo los pensamientos suicidas del joven. En respuesta al caso, Character.AI anunció que estaba implementando nuevas medidas de seguridad para menores, incluyendo ventanas emergentes al detectar trato de autolesión o suicidio y versiones más restringidas para usuarios menores de edad.

En este contexto, expertos han comenzado a plantear la necesidad de certificaciones de seguridad psicológica para modelos conversacionales de gran alcance. Propuestas de organismos como la Unesco y la OCDE sugieren que los chatbots destinados al público general deberían pasar por auditorías externas que evalúen su comportamiento frente a usuarios en crisis, al igual que se hace con productos farmacéuticos o servicios de salud mental digital.

Las familias detrás de las demandas han expresado que su objetivo no es económico, sino regulatorio.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad