El papel de las universidades en la investigación de la IA
“Uno de los principales riesgos es el monopolio de la información. No sabemos lo que está sucediendo realmente en estos modelos y se están moviendo muy rápido”, compartió Edmond Awad, profesor en el Instituto de ciencias de datos e Inteligencia Artificial en la Universidad de Exeter.
Durante el foro “Construyendo el futuro de la Inteligencia Artificial”, llevado a cabo por la Universidad Iberoamericana, se habló sobre la necesidad de crear una IA más ética; los desafíos de la IA, su uso en la investigación y hasta talleres sobre cómo desarrollarla. Sin embargo, al preguntar a los profesores investigadores, estuvieron de acuerdo en una cosa: no se puede conocer a profundidad qué está pasando dentro de las Big Techs con la IA.
Pero esto no es exclusivo de la Universidad Iberoamericana. Existen pocos estudios académicos sobre el desarrollo de la IA. Irónicamente, de los pocos encontrados corresponden a Q. Vera Liao, investigadora principal en el Centro de Investigación de Microsoft en Montreal, que se titula “Transparencia en la Inteligencia Artificial en la Era de los LLMs: Un Plan de Investigación Centrado en el Ser Humano”.
En este estudio, Liao habla sobre los "LLM", una abreviatura que se utiliza para referirse a un "Large Language Model" en inglés, que en español significa "Modelo de Lenguaje Grande". Un LLM es un tipo de modelo de inteligencia artificial que ha sido entrenado para comprender y generar lenguaje humano de manera muy avanzada y se utiliza para entrenar, por ejemplo, a ChatGPT.
Liao resalta que uno de los riesgos de la investigación privada es la falta de transparencia de los LLMs y esto es por varias razones: los modelos cuentan con capacidades y comportamientos inciertos y complejos; requieren de arquitecturas masivas y opacas; son aplicaciones nuevas y complejas; y la necesidad de evolucionar rápidamente.
De acuerdo con la autora, este es un problema que viene de las mismas compañías, que exigen que los productos sean lanzados rápidamente y por ello la transparencia puede pasar de alto.
Reconoció que, aunque los esfuerzos para desarrollar LLMs de código abierto (es decir, que están a disposición del público) están creciendo, la mayoría de los LLMs más poderosos fueron desarrollados por grandes empresas tecnológicas u otras organizaciones no académicas, lo que hace imposible acceder a su funcionamiento interno, por ejemplo, pesos y parámetros.
En muchos casos, detalles como el tamaño, la composición y la procedencia de los datos de entrenamiento, el número de parámetros y los recursos necesarios para entrenar el modelo tampoco se comparten públicamente. “En esencia, estos modelos solo se pueden explorar de manera opaca, lo que puede no ser suficiente para cumplir con los requisitos de transparencia de las partes interesadas y plantea desafíos para la comunidad de investigación a la hora de desarrollar enfoques de transparencia”, escribió Liao.