¿Qué sigue?
Por otra parte, el multimillonario, que también cofundó OpenAI, dijo que la falta de chips avanzados estaba obstaculizando el entrenamiento del modelo versión 2 de Grok, lo cual también representa un argumento en torno a las regulaciones de la IA.
Musk dijo que para entrenar el modelo Grok 2 requirió alrededor de 20,000 unidades de procesamiento gráfico (GPU) H100 de Nvidia y agregó que el modelo Grok 3 y tecnologías posteriores requerirán 100,000 chips Nvidia H100.
De acuerdo con una reciente investigación realizada entre especialistas de la Universidad de Cambridge, Harvard y Oxford, así como especialistas de OpenAI, creadores de ChatGPT, una de las formas para regular esta innovación es desde el control de los chips que facilitan su funcionamiento.
En el estudio se resalta que si bien la tecnología tiene complejidades por las cuales los gobiernos no han logrado establecer una serie de reglas aplicables de la misma forma en todos los territorios, los componentes necesarios para hacer funcionar tienen una serie de características en las que se puede intervenir para controlar su avance.
“La computación relevante para la IA es detectable, excluible y cuantificable, y se produce a través de una cadena de suministro extremadamente concentrada”, mientras que los modelos de lenguaje grande “son bienes intangibles, no rivales y fácilmente compartibles, lo que los hace intrínsecamente difíciles de controlar”, se lee en el documento.
Según los especialistas, los componentes necesarios para hacer funcionar la IA son fabricados por un grupo muy pequeño de empresas y es ahí donde reside la facilidad de los gobiernos de establecer medidas restrictivas.