La clasificación de riesgos también incluyó cuatro categorías generales: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo. En todas, el nivel de riesgo fue “bajo”, excepto en la de percepción, donde los investigadores revelaron que la IA era mejor para influir en las opiniones de los usuarios.
Un aspecto que ha sido criticado tras la investigación es que violara derechos de autor, pues esto implica que OpenAI habría entrenado al modelo con material protegido aun cuando la propia empresa también ha dicho que en el desarrollo de su tecnología han priorizado que se rechacen ese tipo de solicitudes.
Sin embargo, es importante resaltar las recientes declaraciones de OpenAI en torno a que sería “imposible” entrenar este tipo de modelos sin utilizar materiales protegidos por derechos de autor y es por ello que ha hecho acuerdos de licencias con proveedores de datos.
Cabe mencionar que este tipo de investigaciones son comunes dentro de OpenAI, pues también se han realizado con otros modelos, como DALL-E 3 para apuntalar la tecnología antes de su lanzamiento. En el caso de la herramienta multimodal de GPT-4o se espera para otoño de este año.
No obstante, la investigación se suma a las críticas de seguridad que ha recibido la empresa. El mes pasado, The Washington Post publicó una investigación donde múltiples empleados expresaron sus preocupaciones sobre la seguridad en los modelos de IA de la firma.
Muchos de ellos incluso firmaron una carta abierta exigiendo mejores prácticas de seguridad y transparencia por parte de la startup poco tiempo después de que la directiva disolviera el equipo de seguridad de Ilya Sutskever, cofundador de la empresa y quien renunció a la misma debido a que “los procesos de seguridad pasaron a un segundo plano frente a los productos brillantes”, según su declaración.
Por otra parte, la revelación de este tipo de investigaciones resultan preocupantes en un momento donde la tecnología podría marcar el camino del proceso electoral que se está viviendo en los Estados Unidos.
Incluso figuras políticas, como la senadora Elizabeth Warren y la representante Lori Trahan, han pedido que la empresa responda la forma en que maneja a los denunciantes y las revisiones de seguridad, debido a las contradicciones entre comentarios públicos y los documentos que publican investigadores.