Actualmente, dijo Burns al medio estadounidense, es posible alinear a los modelos con una inteligencia inferior o similar a la de los humanos, sin embargo, “alinear un modelo que en realidad es más inteligente que nosotros es mucho menos obvio”, dijo el especialista.
Un hito en la historia de la IA
El término superalineación se refiere a la capacidad de controlar los sistemas más evolucionados de la IA. No obstante, los especialistas en la actualidad consideran que se trata de un asunto sensible, pues no es un campo tan desarrollado.
Sam Altman ha advertido sobre el poder de la IA y los “riesgos catastróficos” que podría generar debido a amenazas químicas o nucleares, pero hay expertos que confrontan esta postura y afirman que hay poca evidencia para realizar tales aseveraciones.
A pesar de ello, los miembros del equipo Superalignment consideran que la evolución de la tecnología seguirá a un ritmo tan acelerado que incluso se informa que el 20% del poder de cómputo de la empresa está reservado para este equipo.
“El progreso de la IA ha sido extraordinariamente rápido y puedo asegurar que no se está desacelerando. Creo que muy pronto alcanzaremos sistemas de nivel humano, pero no nos detendremos allí, pasaremos a sistemas sobrehumanos”, afirmó Aschenbrenner, quien trabaja para hacer esos sistemas más seguros. “Es realmente un problema para toda la humanidad, quizá el problema técnico más importante de nuestro tiempo”.
Para crear los marcos de control, la empresa está usand un enfoque donde una IA más “tonta” guía a un modelo más avanzado. Por ejemplo, GPT-2 a GPT-4, pues así se representa la analogía de una inteligencia humana gobernando a una superinteligencia.
Con este enfoque, OpenAI espera que el modelo menos capaz pueda retroalimentarse con el modelo más fuerte para que entre ellos se controlen, lo cual podría tener un efecto positivo sobre el control de las alucinaciones que tiene ahora la IA.
Cabe destacar que este asunto es tan importante en OpenAI, que la empresa lanzó un programa de subvenciones de 10 millones de dólares para apoyar la investigación de la alineación superinteligente que estará dirigida a laboratorios académicos, investigadores y estudiantes de posgrado.
Se espera que la compañía realice una conferencia académica acerca de este asunto a inicios del 2025, donde compartirán el trabajo de las investigaciones más relevantes, con el fin de discutir sobre el futuro de la superinteligencia.