Publicidad
Publicidad

ONG acusa a ChatGPT por “alucinaciones”

Noyb, una ONG vienesa, sostiene que ChatGPT da información falsa sin avisar a los usuarios.
mar 30 abril 2024 05:00 PM
ChatGPT historia
La empresa afirmó que ninguno de sus productos llegó a ser viral o tener influencia pública.

NOYB, una ONG Vienesa dedicada a la protección de privacidad, presentó una queja ante la autoridad de protección de datos de Austria señalando que ChatGPT "alucina" y crea información de manera indebida , lo cual infringe las normas de privacidad de la Unión Europea.

La organización, fundada por el activista Max Schrems , compartió que la queja fue motivada por la incapacidad de ChatGPT para proporcionar la fecha de nacimiento correcta de Schrems, dando datos incorrectos. La queja de la ONG es que el chatbot no informa a los usuarios que no posee los datos correctos para responder a una solicitud.

La fecha de nacimiento de una persona es considerada como datos personales bajo el Reglamento General de Protección de Datos (GDPR por sus siglas en inglés), el cual establece diversos requisitos sobre cómo deben ser tratados los datos personales.

Publicidad

Noyb sostiene que el comportamiento del chatbot viola el GDPR en materia de privacidad, precisión de la información, así como el derecho a corregir información inexacta. También argumenta que la empresa de inteligencia artificial se negó a corregir o eliminar respuestas incorrectas, y no divulgará ninguna información sobre los datos procesados, sus fuentes o destinatarios.

"Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la ley de la UE al procesar datos sobre individuos", declaró Maartje de Graaf, abogada de protección de datos de noyb.

"Si un sistema no puede producir resultados precisos y transparentes, no se puede utilizar para generar datos sobre individuos. La tecnología debe seguir los requisitos legales, no al revés", añadió en el comunicado oficial.

¿Qué son las alucinaciones?

Cuando hablamos de inteligencia artificial, la "alucinación" se refiere a la generación de información o respuestas que no están basadas en datos reales o en la información proporcionada en los prompts..

En el contexto de sistemas de IA generativa, como los chatbots, la alucinación puede ocurrir cuando el modelo de IA produce respuestas que son inventadas o que no tienen una base sustancial en la información disponible.

De acuerdo con el NY Times , los chatbots pueden alucinar entre un 3% y 27% de las veces y uno de los principales riesgos es cuando se utilizan chatbots para asuntos como documentos judiciales, información médica o datos comerciales sensibles.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad