Publicidad
Publicidad

La humanidad está en riesgo de extinción, advierten los CEO de empresas de IA

La Inteligencia Artificial está planteando riesgos tan altos como las pandemias o la guerra nuclear, indica una declaración firmada por los directivos de Google DeepMind, OpenAI, entre otros.
mar 30 mayo 2023 07:45 AM
¿Por qué este 2024 la inteligencia artificial podría tener su 'invierno'?
Durante este 2024, afirma el especialista, apenas se registrarán algunas grandes novedades en el campo.

"Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, advierte una declaración firmada por un grupo de científicos y expertos de talla mundial.

El grupo de expertos que firma la declaración incluye al director ejecutivo de Google DeepMind, Demis Hassabis, al CEO de OpenAI, Sam Altman; además de Geoffrey Hinton y Youshua Bengio, dos de los tres investigadores de Inteligencia Artificial que ganaron el Premio Turing 2018, considerado el Nobel de la Informática.

Publicidad

“La declaración sucinta tiene como objetivo superar” el obstáculo que implica lo difícil que es expresar todas las inquietudes alrededor de los riesgos más graves de la Inteligencia Artificial avanzada y está destinada a “crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio” las amenazas implícitas, indica el Center for AI Safety.

Es la segunda carta abierta que apunta en esta dirección, sin embargo, en esta ocasión no se plantea un llamado a pausar el desarrollo de la Inteligencia Artificial de inmediato, tal como sucedió en una declaratoria firmada por personajes como Elon Musk.

Sam Altman, CEO la empresa creadora del ChatGPT, también expresó estas preocupaciones en el blog de OpenAI recientemente, donde también apunta que los últimos avances de IA generativa son tan importantes como el descubrimiento de la energía nuclear. Altman propone, entre otras cosas, la creación de una agencia internacional para regular y auditar el desarrollo de estos sistemas que, en 10 años, podrían alcanzar la superinteligencia.

Expertos de Inteligencia Artificial de Meta no han firmado

Un comunicado de CAIS señaló a Meta META.O, donde trabaja el tercer padrino de la IA, Yann LeCun, por no firmar la carta.

"Pedimos a muchos empleados de Meta que firmaran", declaró Dan Hendrycks, director del CAIS. Meta no respondió inmediatamente a las peticiones de comentarios.

Publicidad

La carta coincidió con la reunión del Consejo de Comercio y Tecnología Estados Unidos-Unión Europea en Suecia, donde se espera que los políticos hablen sobre la regulación de la IA.

Elon Musk y un grupo de expertos en IA y ejecutivos de la industria fueron los primeros en citar los riesgos potenciales para la sociedad en abril.

"Hemos cursado una invitación (a Musk) y esperamos que la firme esta semana", dijo Hendrycks.

Los recientes avances en IA han creado herramientas que, según sus partidarios, pueden utilizarse en aplicaciones que van desde el diagnóstico médico a la redacción de informes jurídicos, pero esto ha suscitado temores de que la tecnología pueda dar lugar a violaciones de la privacidad, impulsar campañas de desinformación y provocar problemas con "máquinas inteligentes" que piensan por sí mismas.

Con información de Reuters

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad