Los LLMs como ChatGPT no son bases de datos fácticas, no "aprendieron" todo el conocimiento público disponible ni todo lo que está en internet. Aprendieron las relaciones de las palabras a partir de la exposición al conocimiento humano y se basan en este para predecir estadísticamente la próxima palabra en una secuencia.
Como resultado de este proceso inventan -o alucinan- algunas respuestas. Esto no es obvio porque los textos suenan bien y por omisión se les atribuyen veracidad.
Usar estas herramientas no es por sí solo un problema en ningún ámbito, ni profesional ni educativo. El verdadero desafío es utilizarlas para mejorar el trabajo, la creatividad y el pensamiento humano, no reemplazarlo, y aproximarse a ellas con una perspectiva crítica.
¿Cómo funciona la AI? Cuatro principios clave
Para que no des por hecho todo lo que te diga la IA te explico los principios con los que funciona:
1. No “aprende” la data sino la relación entre la información y el contexto
Los modelos de lenguaje no son repositorios de hechos que aprendieron. En realidad, los LLMS están entrenados con una cantidad gigantesca de conocimiento o documentos de todo tipo: gráficos, diagramas, informes médicos hasta estados de cuenta del banco, por dar algunos ejemplos.
Además de eso, están entrenados con anotaciones que los humanos hacen sobre estos documentos. Esto quiere decir que no aprenden sino que se entrenan con esa información y reconocen las relaciones entre las palabras en el contexto de dichos documentos.
Cuando consultamos una de estas herramientas, el resultado -conocido como inferencia- está en función de la cantidad de relaciones o la predominancia que tienen las relaciones entre ciertas palabras en ciertos contextos lingüísticos.
No hay hechos, lo que hay son relaciones de palabras que dependiendo del contexto, tienen un mayor o menor peso.
2. Responden con patrones de lenguaje humano
Los grandes modelos de lenguaje utilizan las palabras de una forma similar a un teclado predictivo en el celular, aunque con un contexto mucho más amplio.
Por ello, pueden responder de una manera muy cercana a como lo haría una persona.
3. Producen respuestas bien redactadas pero que pueden ser falsas.
El hecho de que la información de ChatGPT o cualquier otra IA generativa tenga sentido e incluso sea precisa, no significa que siempre es verdadera.
Un buen ejemplo de esto son las predicciones. La IA puede hacer pronósticos basados en información histórica y patrones, pero hay factores externos que cambian el rumbo de dichas proyecciones.
Y regularmente producirán respuestas bien redactadas pero falsas, cuando las preguntas que hagamos estén muy lejos de los datos con los que fueron entrenadas.
La forma en la que preguntamos a estos modelos de lenguaje también influye en las respuestas que obtenemos. Mejorar nuestra habilidad para preguntar y pedir los datos precisos es también clave para darle un mejor uso a las herramientas de IA.
4. Tienen mucha información pero su conocimiento es limitado y con sesgos
Los LLMs fueron entrenados con una base de conocimiento muy amplia, pero siempre limitada y en la que puede haber sesgos.
La inteligencia artificial está basada en lo que ya existe y eso también significa que los errores o sesgos humanos están presentes en el contenido o el producto que genera.