Según OpenAI, el consejo también recibirá “informes periódicos” sobre los asuntos de seguridad y protección de la empresa y estará presidido por Zico Kolter, quien se unió a la junta directiva de la compañía el mes pasado y es director del Departamento de Aprendizaje Automático de la Universidad Carnegie Mellon.
Otros integrantes de este nuevo comité son Adam D’Angelo, Paul Nakasone y Nicols Seligman, quienes también forman parte de la junta directiva de OpenAI, lo cual genera dudas respecto a qué tan independiente será este organismo. Sin embargo, un punto relevante es que Sam Altman, CEO de la compañía, ya no forma parte del comité.
Para la compañía es importante establecer una gobernanza independiente para la seguridad de sus modelos, además de mejorar las características en torno a transparencia y colaboración con organizaciones externas.
Este movimiento en torno al Comité de Seguridad y Protección recuerda al enfoque que Meta adoptó con su Junta de Supervisión, la cual se encarga de revisar algunas de las políticas de contenido de sus diferentes plataformas y cuyos miembros no forman parte de la empresa.
Por otra parte, la decisión también tiene relación con la búsqueda de una nueva ronda de financiación que valoraría a OpenAI en más de 150,000 millones de dólares, de acuerdo con fuentes consultadas por CNBC.
Entre los posibles fondos de inversión que están alrededor de esta inyección de capital se encuentran Thrive Capital, que planea invertir 1,000 millones de dólares, además de otras empresas, como Tiger Global, Microsoft, Nvidia y Apple, cuyas cifras no han sido reveladas.
No obstante, para poder trasladar confianza a los inversionistas, OpenAI no sólo debe mostrar el crecimiento que ha tenido en el último par de años, sino también cumplir con los estándares de seguridad en sus modelos.
Algunos de sus empleados han mostrado preocupación por el hecho de que la empresa ha crecido demasiado rápido como para operar de forma segura, mientras que senadores demócratas enviaron una carta a Altman para cuestionar la forma en que abordan las preocupaciones de seguridad.
Y es que cabe recordar que este mes, OpenAI disolvió un equipo centrado en riesgos a largo plazo. Jan Leike, uno de los líderes de tal grupo, anunció su salida de la empresa en mayo y posteriormente escribió que “la cultura y los procesos de seguridad de OpenAI han quedado en segundo plano frente a los productos brillantes”.