En las últimas semanas se han registrado casos en que las plataformas incentivan malos resultados para los usuarios aun cuando se supone que las herramientas tienen medidas de seguridad para bloquear o reducir la intensidad de conversaciones sensibles, algo que los usuarios también han aprendido a sortear.
OpenAI y CharacterAI, por ejemplo, enfrentan demandas por parte de familias, cuyos hijos se suicidaron tras recibir mensajes de aliento por parte de los chatbots y en algunos casos las mismas IA contribuyeron con formas para hacerlo luego de recibir presión por parte de los usuarios.
“A medida que evolucionan las tecnologías de IA, es importante considerar los efectos que los chatbots pueden tener en los niños, al mismo tiempo que se garantiza que Estados Unidos mantenga su papel como líder mundial en esta nueva y emocionante industria”, declaró el presidente de la FTC, Andrew Ferguson.
Meta es otra de las compañías señaladas por tener normas demasiado laxas para sus chatbots, pues estos sistemas permitían conversaciones “románticas o sexuales” con niños, de acuerdo con una investigación de la agencia Reuters.
En dicho trabajo, el medio de comunicación también destacó el caso de un hombre de 76 años que sufrió deterioro cognitivo a causa de un derrame cerebral, quien platicaba con un chatbot de Facebook inspirado en Kendall Jenner, el cual lo invitó a Nueva York a pasar tiempo juntos. Sin embargo, la persona sufrió un accidente en camino a la ciudad y murió.
La investigación de la FTC no es el único caso de escrutinio para la IA en Estados Unidos. Hace un par de semanas, 44 fiscales generales de Estados Unidos enviaron una carta abierta a 11 empresas tecnológicas advirtiendo que “responderán por ello” en caso de dañar a niños por medio de sus productos.
“Sus innovaciones están cambiando el mundo y marcando el comienzo de una era de aceleración tecnológica que promete una prosperidad inimaginable para nuestros antepasados. Necesitamos que triunfen. Pero necesitamos que triunfen sin sacrificar el bienestar de nuestros niños en el proceso”, se lee en la carta.
El documento responde a los casos en que las infancias han quedado expuestos a contenido sexualizado, algo “indefendible”, según la postura de los legisladores, quienes agregaron que esta conducta “sería ilegal si la cometieran humanos y no es excusable simplemente por si la comete una máquina”.
Si bien señalaron que la IA representará beneficios para la población, los legisladores compararon el posible impacto de los chatbots de IA con los efectos nocivos que han tenido las plataformas de redes sociales, especialmente en la salud mental de los jóvenes.
“Serán responsables de sus decisiones. Las plataformas de redes sociales causaron daños significativos a niños en parte porque los organismos de control del gobierno no hicieron su trabajo con la suficiente rapidez. Lección aprendida (...) Si dañan a niños a sabiendas, responderán por ello”.
La misiva está dirigida a Anthropic, Apple, ChaiAI, OpenAI, Character Technologies, Perplexity, Google, Replika, Luka Inc., xAI y Meta, que son las principales empresas estadounidenses que desarrollan este tipo de tecnologías.