Publicidad
Publicidad

OpenAI va contra la Ley SB 1047 para regular la IA por frenar el progreso

La empresa afirma que este proyecto de ley ahuyentará a las empresas más avanzadas en IA de California.
jue 22 agosto 2024 09:00 AM
OpenAI crea una junta de seguridad capaz de detener nuevos lanzamientos
El nuevo organismo obtendrá información acerca de los nuevos desarrollos en términos de evaluación de seguridad para los modelos más importantes y tendrá mayor control sobre ellos.

La Ley SB 1047 para regular la Inteligencia Artificial en el estado de California tiene en vilo a las empresas tecnológicas, como OpenAI, la cual considera que esta legislación es excesiva, frenará el progreso en el sector y, además de todo, su objetivo es ahuyentar a las compañías más avanzadas del estado.

De acuerdo con una carta que el director de estrategia de OpenAI, Jason Kwon, envió al senador Scott Wiener, quien se encargó de presentar el proyecto de la Ley SB 1047, las regulaciones en torno a la IA deben quedar en manos del gobierno federal, pues de esa forma es como realmente se fomentará la innovación.

“La SB 1047 amenazaría ese crecimiento, ralentizaría el ritmo de innovación y llevaría a los ingenieros y empresarios de clase mundial de California a abandonar el estado en busca de mayores oportunidades en otro lugar”, comentó el especialista. “Dados estos riesgos, debemos proteger la ventaja de IA de Estados Unidos con políticas federales, en lugar de estatales”.

Publicidad

Por ello, escribió Kwon, se unieron a otros laboratorios de IA, desarrolladores, expertos y miembros de la delegación del Congreso de California para oponerse a la SB 1047 y solicitó la oportunidad de exponer algunas de sus principales preocupaciones.

¿Qué es la Ley SB 1047?

También conocida como Ley de Innovación Segura para Modelos de Inteligencia Artificial, establece estándares antes del desarrollo de modelos de IA, así como pruebas de seguridad previas a su implementación.

También incluye protecciones para los denunciantes de irregularidades en los laboratorios de IA y el Fiscal General de California tiene el poder de tomar acciones legales en caso de determinar que los modelos causan daño.

Su objetivo es reducir el riesgo de que se utilice para generar amenazas de seguridad pública, como el desarrollo de armas biológicas, químicas, nucleares o cibernéticas. No obstante, ha sido muy criticada por las empresas de tecnología por su carácter restrictivo.

Entre las medidas que impone esta legislación se encuentran incluir formas de apagar por completo los modelos si representan un riesgo crítico para los usuarios, así como multas civiles económicas, suspensiones de los modelos y reparación del daño para las personas afectadas.

Scott Wiener responde a OpenAI

Tras la publicación de la carta de OpenAI, el senador Wiener mencionó que ha estado en conversaciones con la compañía desde hace meses, pero también aprovechó para decir que su argumento de que expulsará a las empresas de California es “cansado”.

También dijo que no tiene sentido, pues la legislación no se limita a compañías con sede en California, sino que afecta a todos los desarrolladores que hacen negocios en California y cumplen con ciertos umbrales de tamaño, además de que no critican ninguna disposición del proyecto de ley.

“En lugar de criticar lo que realmente hace el proyecto de ley, OpenAI sostiene que este asunto debería dejarse en manos del Congreso. Estoy de acuerdo en que lo ideal sería que el Congreso se ocupara de esto”, compartió Wiener. Sin embargo, no lo ha hecho y somos escépticos de que lo haga”.

En medio de las preocupaciones por esta regulación, Bloomberg dio a conocer que OpenAI suspendió las conversaciones sobre la ampliación de sus oficinas en San Francisco, ciudad en la que se fundó la empresa.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad