Para los creadores del ChatGPT, uno de los chatbots de inteligencia artificial más avanzados del mercado, es inevitable que se llegue en una década a una superinteligencia artificial que superará "el nivel de habilidad de los expertos en la mayoría de los dominios" y es posible que estos tipos de sistemas "lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad".
Pero advirtieron que hay tres aspectos en los cuales la humanidad debe poner su atención si quiere mitigar los riesgos de este desarrollo.
Establecer límites al ritmo de desarrollo de la IA
Los autores llaman a un esfuerzo conjunto de los principales gobiernos del mundo para establecer un proyecto que pueda establecer límites anuales al aumento de las capacidades de la Inteligencia Artificial, con el fin de "ayudar a la integración fluida de estos sistemas con la sociedad" y garantizar la seguridad.
Crear un ente regulador internacional
También piden crear algo similar a la Agencia Internacional de Energía Atómica para regular a nivel global el desarrollo y la implementación de sistemas basados en la inteligencia artificial.
El papel de dicha agencia se centrará en la inspección de sistemas, la realización de auditorías, supervisar estándares de seguridad e imponer sanciones a las empresas que no cumplan con niveles mínimos de seguridad.
Pero advierten que esta agencia no deberá encargarse de cuestiones que podrían dejarse en manos de países individuales, como definir lo que se le debe permitir decir o no a una IA.
Capacidad técnica para garantizar la seguridad
Adicionalmente, indicaron que la siguiente tarea es garantizar la capacidad técnica para hacer que una superinteligencia sea segura.