Publicidad
Publicidad

GPT-4o es capaz de crear clones de voz sin permiso de los usuarios

Una investigación interna de OpenAI determinó que su modelo más reciente también puede crear contenidos inquietantes o incluso violar los derechos de autor.
vie 09 agosto 2024 11:00 AM
Solo un 'riesgo medio': GPT-4o puede crear clones de tu voz sin tu autorización
La investigación se suma a las críticas de seguridad que ha recibido la empresa, incluso de sus propios empleados.

GPT-4o, el último modelo de Inteligencia Artificial de OpenAI, representa un riesgo “medio” para los usuarios, según la misma empresa, pues es capaz de crear clones de la voz de los usuarios sin su permiso, contenido violento o audios que violan los derechos de autor.

Este modelo se presentó por primera vez en mayo, como una de las evoluciones más importantes del chatbot de la empresa, pues es capaz de procesar texto, imágenes o video, incluso en tiempo real, además de tener conversaciones como si se tratara de una persona real.

De acuerdo con una investigación sobre la seguridad y riesgos de la plataforma, elaborada por un equipo interno de expertos, así como evaluadores externos, esta tecnología es propenso a generar efectos de sonido inquietantes o inapropiados, como gemidos eróticos, gritos violento y disparos cuando se le solicita de maneras específicas, algo que OpenAI ha trabajado para evitar.

Publicidad

La clasificación de riesgos también incluyó cuatro categorías generales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. En todas, el nivel de riesgo fue “bajo”, excepto en la de percepción, donde los investigadores revelaron que la IA era mejor para influir en las opiniones de los usuarios.

Un aspecto que ha sido criticado tras la investigación es que violara derechos de autor, pues esto implica que OpenAI habría entrenado al modelo con material protegido aun cuando la propia empresa también ha dicho que en el desarrollo de su tecnología han priorizado que se rechacen ese tipo de solicitudes.

Sin embargo, es importante resaltar las recientes declaraciones de OpenAI en torno a que sería “imposible” entrenar este tipo de modelos sin utilizar materiales protegidos por derechos de autor y es por ello que ha hecho acuerdos de licencias con proveedores de datos.

Cabe mencionar que este tipo de investigaciones son comunes dentro de OpenAI, pues también se han realizado con otros modelos, como DALL-E 3 para apuntalar la tecnología antes de su lanzamiento. En el caso de la herramienta multimodal de GPT-4o se espera para otoño de este año.

No obstante, la investigación se suma a las críticas de seguridad que ha recibido la empresa. El mes pasado, The Washington Post publicó una investigación donde múltiples empleados expresaron sus preocupaciones sobre la seguridad en los modelos de IA de la firma.

Muchos de ellos incluso firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia por parte de la startup poco tiempo después de que la directiva disolviera el equipo de seguridad de Ilya Sutskever, cofundador de la empresa y quien renunció a la misma debido a que “los procesos de seguridad pasaron a un segundo plano frente a los productos brillantes”, según su declaración.

Por otra parte, la revelación de este tipo de investigaciones resultan preocupantes en un momento donde la tecnología podría marcar el camino del proceso electoral que se está viviendo en los Estados Unidos.

Incluso figuras políticas, como la senadora Elizabeth Warren y la representante Lori Trahan, han pedido que la empresa responda la forma en que maneja a los denunciantes y las revisiones de seguridad, debido a las contradicciones entre comentarios públicos y los documentos que publican investigadores.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad