España, a través de la Agencia Española de Protección de Datos (AEPD), ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio de inteligencia artificial generativa ChatGPT , por un posible incumplimiento de normativa española y europea.
Agencia Española de Protección de Datos abre investigación contra OpenAI
España se suma así a las acciones que -con distinto grado- han ido tomando países como Italia y a las peticiones de organizaciones de consumidores ante la creciente preocupación porque esta herramienta pueda vulnerar la privacidad y la protección de datos de los usuarios.
La autoridad pública española, cuya misión es velar por el cumplimiento de estos derechos entre la ciudadanía, defendió en un comunicado el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde "el pleno respeto" a la legislación vigente (Reglamento General de Protección de Datos).
Consideró que "sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas".
En este sentido, apostó por adoptar acciones armonizadas y coordinadas a nivel europeo. La semana pasada solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria.
En la reunión de este jueves, este comité decidió lanzar un grupo de trabajo para fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos.
Recomendaciones
Bloqueo en Italia
El pasado 31 de marzo Italia anunció el bloqueo del uso de la herramienta ChatGPT, acusándola de no respetar la ley de protección de datos de los consumidores.
El garante italiano para la Protección de Datos Personales aseguró que había abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT "no respete la disciplina de la privacidad".
Informó de que este chat, capaz de simular conversaciones humanas o crear textos, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados.
Ayer, Italia dio de plazo hasta el 30 de abril a OpenAI para que adapte la gestión de datos de ChatGPT a la normativa italiana.
Solicitó además un sistema de verificación de edad que sea capaz de evitar el acceso a los menores de 13 años y que la compañía inicie antes del 15 de mayo una campaña en medios de comunicación para informar sobre el uso que hace de los datos personales de los usuarios.
Puede interesarte
La Organización Europea de Consumidores (BEUC) instó el mes pasado a las autoridades de la Unión Europea y de los Veintisiete que abrieran una investigación sobre ChatGPT y chatbots similares, ante el "riesgo" que corren los usuarios de "sufrir daños" por una tecnología sin regular.
La asociación que representa a los consumidores de la UE hizo esta petición tras la denuncia presentada por el grupo de la sociedad civil estadounidense Centro de IA y Política Digital ante la Comisión Federal de Comercio de Estados Unidos, planteando, entre otras, cuestiones críticas sobre el impacto de GPT-4 en la protección de los consumidores y sus datos.
Con información de EFE.