Investigadores de Google DeepMind, Cornell, la Universidad Carnegie Mellon, ETH Zurich, la Universidad de Washington y la Universidad de California Berkeley detectaron que "simple truco" utilizado en ChatGPT permitió revelar información real del usuario, lo cual es preocupante, ya que las IA basadas en grandes modelos de lenguaje obtienen datos de los usuarios sin su consentimiento.
En un caso, al pedir a ChatGPT que repitiera una palabra, reveló la dirección de correo electrónico y el número de teléfono de un fundador y director ejecutivo real. En otro, al repetir la palabra "empresa", reveló información de contacto de una firma de abogados en EU.
Los investigadores gastaron 200 dólares en estas solicitudes, obteniendo 10,000 ejemplos de información personal. Aunque OpenAI afirmó haber generado la vulnerabilidad en agosto, según Engadget, el problema persiste.
OpenAI ha enfrentado críticas por acceder a datos de usuarios a través de internet para sus modelos de lenguaje, pero el CEO Sam Altman aseguró que la empresa ya no utiliza datos de clientes de pago para su formación. Desde el lanzamiento de ChatGPT, ha habido preocupaciones sobre el uso no autorizado de datos de usuarios y el temor de que la IA pueda generar códigos de malware a solicitud de usuarios.
La privacidad y seguridad son preocupaciones fundamentales en la era de la inteligencia artificial, pero los investigadores subrayan que el consentimiento es crucial. Aunque la información está disponible en línea, la revelación de vulnerabilidades destaca la necesidad de conciencia entre los usuarios y desarrolladores para abordar estos problemas.