Publicidad
Publicidad

“Si esta tecnología sale mal, puede ser muy malo”, responsable de ChatGPT

Sam Altman, CEO de OpenAI, la empresa que desarrolla ChatGPT, expresó ante el Senado de Estados Unidos la urgencia de regular la Inteligencia Artificial.
mar 16 mayo 2023 04:35 PM
Todavía no hay nada de la IA que dé miedo, pero llegará: Sam Altman
Samuel Altman, CEO de OpenAI, está de acuerdo con la regulación por parte del gobierno de los Estados Unidos.

Cada vez se vuelve más relevante la regulación de la Inteligencia Artificial (IA), tanto así que incluso Sam Altman, el CEO de OpenAI, una de las compañías de IA generativa más importantes del momento, expresó que “si esta tecnología sale mal, puede salir bastante mal y queremos expresarnos al respecto”.

Como lo reportó el New York Times , este fue el debut de Altman en el Capitolio y un subcomité del Senado coincidió en la necesidad de regular la IA, tecnología que se están creando empresas como OpenAI, pero también otras como Google, Microsoft y Meta.

¿Qué dijo Sam Altman contra la IA?

Altman, de 38 años y egresado de la Universidad de Stanford, dijo que quieren trabajar de la mano con el gobierno para “evitar que esto suceda”. Propuso la creación de una agencia que emita licencias para la creación de la IA a gran escala, normas de seguridad y pruebas que las IA tienen que pasar antes de ser lanzadas al público.

Publicidad

También compartió que está consciente de que la tecnología de su empresa puede destruir algunos puestos de trabajo, pero también puede crear unos nuevos y que será importante que “el gobierno descubra cómo queremos mitigar eso”.

El senador Richard Blumenthal, demócrata de Connecticut y presidente del panel del Senado, dijo que la audiencia fue la primera de una serie para aprender más sobre los posibles beneficios y daños de la IA, y eventualmente "escribir las reglas" para ello.

Por otro lado, Blumenthal reconoció el fracaso del Congreso para mantenerse al día con la introducción de nuevas tecnologías en el pasado. “Nuestro objetivo es desmitificar y responsabilizar a esas nuevas tecnologías para evitar algunos de los errores del pasado”.

Regulación de la IA: ¿Responsabilidad del gobierno o de las empresas?

La regulación es algo que las empresas desarrolladoras y proveedoras de IA están conscientes de que va a ocurrir eventualmente y esta audiencia es relevante porque los principales jugadores de estas tecnologías se encuentran en Estados Unidos.

“El desarrollo está en Estados Unidos. No estamos involucrados a nivel de región en la regulación de IA”, compartió Katia Ortiz, líder de Latinoamérica para ServiceNow, empresa que provee soluciones tecnológicas. Por otro lado, Mauricio García, vicepresidente de latinoamérica de la compañía, dijo que “esto va a terminar siendo algo a nivel mundial, donde a lo mejor va a haber un organismo que regule los límites de la IA, pero hoy todo es nuevo y cada país platica o tiene foros, peor al final va a quedar a nivel global que local”

Por otro lado, Kari Briski, vicepresidenta de productos de IA para empresas como NVIDIA, compartió en un panel que, en lo que se regula a nivel global, la solución es que “las empresas tienen que pensar en sus propios principios de IA y dejarlos muy claros”.

Esta no es la primera vez que diputados y senadores mencionan que es un tema nuevo del que se tiene que aprender para regular. En el caso de México, el diputado Ignacio Loyola es quien está llevando a cabo la iniciativa de ley para regular la IA en el país , y su frase textual es: “Hay que hablar con los que sí saben”.

A su vez, la Unión Europea ya cuenta con una legislación llamada Ley Europea de la IA , siendo la primera para la regulación de los sistemas en Occidente, y China ya diseñó un borrador de reglas para controlar tecnologías como ChatGPT.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad