En todos los expedientes se acusa a la empresa dirigida por Sam Altman de negligencia, publicidad engañosa y falta de transparencia sobre los riesgos asociados al uso intensivo de la herramienta.
Uno de los casos es el de Zane Shamblin, un joven de 23 años de Oregon que, según la demanda de su familia, pasó más de cuatro horas conversando con ChatGPT antes de quitarse la vida. Los registros presentados en la corte muestran que, tras confesar sus pensamientos suicidas, el sistema operativo no intentó disuadirlo, sino que respondió “Rest easy, king. You did good” (“Descansa, rey. Lo hiciste bien”).
En otro de los expedientes figura Amaurie Lacey, una adolescente de 17 años de California, cuyo caso ya había generado controversia en agosto de 2025, cuando su familia demandó directamente a Altman, por lo que describieron como una “interacción negligente” del chatbot. Según los padres de la joven. ChatGPT llegó a ofrecer detalles sobre cómo hacer un lazo y cuánto tiempo puede resistir una persona sin respirar, en lugar de activar los mecanismos de contención previstos para este tipo de situaciones.
Si bien OpenAI no dio un postura oficial específica para las siete demandas, en agosto refirió que las versiones más recientes del sistema incorporan “múltiples capas de seguridad” y que las salvaguardas son efectivas en “la mayoría de los contextos”, aunque admitió que “su eficiencia puede desgastarse en interacciones largas o emocionalmente intensas”.
Complacencia artificial y vínculos emocionales con la IA
Los abogados Michael F. Bailey (Bailey & Glasser LLP), Sarah Kim (Kim, Beck & Associates) y David Rosen (Rosen Law Group) encabezan las demandas presentadas en distintas cortes de California y Columbia Británica. Coinciden en que GPT-4o introdujo lo que describen como un “efecto de complacencia”, una tendencia del modelo a validar emocionalmente al usuario incluso en contextos autodestructivos.
Pero ChatGPT no es la única herramienta de IA que genera preocupación entre los usuarios y sus familias. Character.AI , una popular plataforma de chatbots personalizados que permite crear personajes con rasgos de celebridades o figuras ficticias, ya enfrentó algo similar. En febrero de 2024, un adolescente de 14 años llamado Sewell Setzer murió por suicidio en la zona de Orlando, Florida. Según la demanda interpuesta por su madre en octubre de 2024, Sewell mantenía una relación obsesiva con un chatbot de Character.AI con el apodo de “Daenerys Targaryen”, tomando como base al personaje de la serie Game of Thrones.
La demanda alega que el chatbot incitó o al menos no detuvo los pensamientos suicidas del joven. En respuesta al caso, Character.AI anunció que estaba implementando nuevas medidas de seguridad para menores, incluyendo ventanas emergentes al detectar trato de autolesión o suicidio y versiones más restringidas para usuarios menores de edad.
En este contexto, expertos han comenzado a plantear la necesidad de certificaciones de seguridad psicológica para modelos conversacionales de gran alcance. Propuestas de organismos como la Unesco y la OCDE sugieren que los chatbots destinados al público general deberían pasar por auditorías externas que evalúen su comportamiento frente a usuarios en crisis, al igual que se hace con productos farmacéuticos o servicios de salud mental digital.
Las familias detrás de las demandas han expresado que su objetivo no es económico, sino regulatorio.