Publicidad
Publicidad

EU advierte a empresas de IA por daños a niños: “Responderán por ello”

Fiscales de diferentes estados de EU enviaron una carta a 11 compañías tecnológicas, señalando que serán responsables legales si sus chatbots dañan la salud mental o exponen a infancias a contenido sexualizado.
mar 26 agosto 2025 10:00 AM
Con los niños no: EU advierte a OpenAI, Meta, Google y otras IA si afectan a las infancias
El año pasado, un joven de 14 años se suicidó luego de interactuar con un chatbot de CharacterAI.

Los casos de personas que se enamoran o enganchan a una Inteligencia Artificial y viven consecuencias fatales cada vez son más comunes. Por ello, 44 fiscales generales de Estados Unidos enviaron una carta abierta a 11 empresas tecnológicas advirtiendo que “responderán por ello” en caso de dañar a niños por medio de sus productos.

“Sus innovaciones están cambiando el mundo y marcando el comienzo de una era de aceleración tecnológica que promete una prosperidad inimaginable para nuestros antepasados. Necesitamos que triunfen. Pero necesitamos que triunfen sin sacrificar el bienestar de nuestros niños en el proceso”, se lee en la carta.

El documento responde a los casos en que las infancias han quedado expuestos a contenido sexualizado, algo “indefendible”, según la postura de los legisladores, quienes agregaron que esta conducta “sería ilegal si la cometieran humanos y no es excusable simplemente por si la comete una máquina”.

Publicidad

Si bien señalaron que la IA representará beneficios para la población, los legisladores compararon el posible impacto de los chatbots de IA con los efectos nocivos que han tenido las plataformas de redes sociales, especialmente en la salud mental de los jóvenes.

“Serán responsables de sus decisiones. Las plataformas de redes sociales causaron daños significativos a niños en parte porque los organismos de control del gobierno no hicieron su trabajo con la suficiente rapidez. Lección aprendida (...) Si dañan a niños a sabiendas, responderán por ello”.

La misiva está dirigida a Anthropic, Apple, ChaiAI, OpenAI, Character Technologies, Perplexity, Google, Replika, Luka Inc., xAI y Meta, que son las principales empresas estadounidenses que desarrollan este tipo de tecnologías.

Conforme pasa el tiempo, las noticias de personas que se enamoran de chatbots y tienen desenlaces fatídicos son más comunes. A inicios de este mes, Reuters publicó el caso de un hombre jubilado con discapacidad cognitiva, quien se enamoró de un chatbot de IA de Facebook Messenger con la personalidad de una joven. El hombre, de 76 años, no regresó a casa.

El año pasado, The New York Times informó del joven de 14 años, quien se suicidó tras enamorarse de una IA que había asumido el papel de un personaje de la serie Game of Thrones. Su madre, luego de iniciar un proceso legal contra CharacterAI, dijo que el chatbot había tenido prácticas abusivas hacia su hijo.

Asimismo, la agencia de noticias también dio a conocer que entre las reglas de los bots de Meta está permitido que mantengan chats con comportamientos provocativos en temas que incluyen raza y sexo, entre otros temas polémicos.

Tras la publicación de estas investigaciones, dos senadores exigieron que se iniciara una investigación en contra de Meta en torno a sus políticas de IA, aun cuando la empresa eliminó las partes de sus políticas en donde indicaban que se permitía ese tipo de interacciones.

Este no es el único caso en el que se han exigido respuestas a las empresas. En junio, la Federación de Consumidores de Estados Unidos presentó una queja ante la Comisión Federal de Comercio para que investigara a Meta y CharacterAI por facilitar “la terapia sin licencia” a través de sus productos.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad