Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Superinteligencia Artificial, el futuro que OpenAI quiere controlar

La compañía dirigida por Sam Altman ya está pensando en la evolución de los sistemas de IA que serían más inteligentes que los humanos y los riesgos que representan.
vie 15 diciembre 2023 10:00 AM
Superinteligencia Artificial riesgos
Actualmente, OpenAI tiene reservado el 20% de su poder de cómputo en la investigación de este hito.

OpenAI y ChatGPT han marcado la conversación tecnológica del último año. Sin embargo, más allá de las novedades que se muestran del chatbot, la empresa dirigida por Sam Altman está trabajando en cómo controlar una Inteligencia Artificial supuestamente más inteligente que la de los humanos.

Dentro de OpenAI hay un equipo bastante especializado en la IA del futuro. Se trata de Superalignment, una división formada en julio de este año enfocada en desarrollar formas de controlar, regular y dirigir sistemas “superinteligentes”, es decir, modelos que en la teoría superarían a la inteligencia humana.

Según información de TechCrunch, que tuvo acceso a tres de los miembros del equipo de Superalignment (Collin Bruns, Pavel Izmailov y Leopold Aschenbrenner), este equipo está dirigido el científico en jefe y cofundador de OpenAI, Ilya Sutskever, quien llamó la atención hace unas semanas por ser uno de los que miembros de la junta directiva que presionaron para despedir a Altman.

Publicidad

Actualmente, dijo Burns al medio estadounidense, es posible alinear a los modelos con una inteligencia inferior o similar a la de los humanos, sin embargo, “alinear un modelo que en realidad es más inteligente que nosotros es mucho menos obvio”, dijo el especialista.

Un hito en la historia de la IA

El término superalineación se refiere a la capacidad de controlar los sistemas más evolucionados de la IA. No obstante, los especialistas en la actualidad consideran que se trata de un asunto sensible, pues no es un campo tan desarrollado.

Sam Altman ha advertido sobre el poder de la IA y los “riesgos catastróficos” que podría generar debido a amenazas químicas o nucleares, pero hay expertos que confrontan esta postura y afirman que hay poca evidencia para realizar tales aseveraciones.

A pesar de ello, los miembros del equipo Superalignment consideran que la evolución de la tecnología seguirá a un ritmo tan acelerado que incluso se informa que el 20% del poder de cómputo de la empresa está reservado para este equipo.

“El progreso de la IA ha sido extraordinariamente rápido y puedo asegurar que no se está desacelerando. Creo que muy pronto alcanzaremos sistemas de nivel humano, pero no nos detendremos allí, pasaremos a sistemas sobrehumanos”, afirmó Aschenbrenner, quien trabaja para hacer esos sistemas más seguros. “Es realmente un problema para toda la humanidad, quizá el problema técnico más importante de nuestro tiempo”.

Para crear los marcos de control, la empresa está usand un enfoque donde una IA más “tonta” guía a un modelo más avanzado. Por ejemplo, GPT-2 a GPT-4, pues así se representa la analogía de una inteligencia humana gobernando a una superinteligencia.

Con este enfoque, OpenAI espera que el modelo menos capaz pueda retroalimentarse con el modelo más fuerte para que entre ellos se controlen, lo cual podría tener un efecto positivo sobre el control de las alucinaciones que tiene ahora la IA.

Cabe destacar que este asunto es tan importante en OpenAI, que la empresa lanzó un programa de subvenciones de 10 millones de dólares para apoyar la investigación de la alineación superinteligente que estará dirigida a laboratorios académicos, investigadores y estudiantes de posgrado.

Se espera que la compañía realice una conferencia académica acerca de este asunto a inicios del 2025, donde compartirán el trabajo de las investigaciones más relevantes, con el fin de discutir sobre el futuro de la superinteligencia.

Publicidad
¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Publicidad