Publicidad
Publicidad

El error que todos cometemos con la Inteligencia Artificial y cómo evitarlo

Por lo general, la manera en la que nos acercamos a la AI generativa es intuitiva, pues la tratamos como una base de datos omnisciente. Esto es natural, pero es incorrecto.
mar 29 octubre 2024 06:00 AM
No está mal usar ChatGPT para hacer tareas escolares y esta es la razón
Perderle el miedo, experimentar con la AI y conocer realmente cómo funciona nos ayudará a sobrevivir en esta nueva realidad, apunta Aníbal Rojas.

El gran error que todos cometemos con la Inteligencia Artificial (IA) es no comprender los principios bajo los cuales funciona esta tecnología. Eso nos lleva a dar por verdadero cualquier dato que arrojen las herramientas de AI generativa solo porque el texto tiene sentido.

No conocer cómo funcionan los grandes modelos de lenguaje (LLMs, por sus siglas en inglés), provoca desde errores simples, como entregar una tarea con un dato viejo, hasta problemas complejos, como citar en un juicio casos precedentes que nunca existieron .

Publicidad

Los LLMs como ChatGPT no son bases de datos fácticas, no "aprendieron" todo el conocimiento público disponible ni todo lo que está en internet. Aprendieron las relaciones de las palabras a partir de la exposición al conocimiento humano y se basan en este para predecir estadísticamente la próxima palabra en una secuencia.

Como resultado de este proceso inventan -o alucinan- algunas respuestas. Esto no es obvio porque los textos suenan bien y por omisión se les atribuyen veracidad.

Usar estas herramientas no es por sí solo un problema en ningún ámbito, ni profesional ni educativo. El verdadero desafío es utilizarlas para mejorar el trabajo, la creatividad y el pensamiento humano, no reemplazarlo, y aproximarse a ellas con una perspectiva crítica.

¿Cómo funciona la AI? Cuatro principios clave

Para que no des por hecho todo lo que te diga la IA te explico los principios con los que funciona:

1. No “aprende” la data sino la relación entre la información y el contexto

Los modelos de lenguaje no son repositorios de hechos que aprendieron. En realidad, los LLMS están entrenados con una cantidad gigantesca de conocimiento o documentos de todo tipo: gráficos, diagramas, informes médicos hasta estados de cuenta del banco, por dar algunos ejemplos.

Además de eso, están entrenados con anotaciones que los humanos hacen sobre estos documentos. Esto quiere decir que no aprenden sino que se entrenan con esa información y reconocen las relaciones entre las palabras en el contexto de dichos documentos.

Cuando consultamos una de estas herramientas, el resultado -conocido como inferencia- está en función de la cantidad de relaciones o la predominancia que tienen las relaciones entre ciertas palabras en ciertos contextos lingüísticos.

No hay hechos, lo que hay son relaciones de palabras que dependiendo del contexto, tienen un mayor o menor peso.

2. Responden con patrones de lenguaje humano

Los grandes modelos de lenguaje utilizan las palabras de una forma similar a un teclado predictivo en el celular, aunque con un contexto mucho más amplio.

Por ello, pueden responder de una manera muy cercana a como lo haría una persona.

3. Producen respuestas bien redactadas pero que pueden ser falsas.

El hecho de que la información de ChatGPT o cualquier otra IA generativa tenga sentido e incluso sea precisa, no significa que siempre es verdadera.

Un buen ejemplo de esto son las predicciones. La IA puede hacer pronósticos basados en información histórica y patrones, pero hay factores externos que cambian el rumbo de dichas proyecciones.

Y regularmente producirán respuestas bien redactadas pero falsas, cuando las preguntas que hagamos estén muy lejos de los datos con los que fueron entrenadas.

La forma en la que preguntamos a estos modelos de lenguaje también influye en las respuestas que obtenemos. Mejorar nuestra habilidad para preguntar y pedir los datos precisos es también clave para darle un mejor uso a las herramientas de IA.

4. Tienen mucha información pero su conocimiento es limitado y con sesgos

Los LLMs fueron entrenados con una base de conocimiento muy amplia, pero siempre limitada y en la que puede haber sesgos.

La inteligencia artificial está basada en lo que ya existe y eso también significa que los errores o sesgos humanos están presentes en el contenido o el producto que genera.

Publicidad

¿Cómo sí tratar a la IA?

Por lo general, la manera en la que nos acercamos a la AI generativa es intuitiva, pues la tratamos como una base de datos omnisciente. Esto es natural, pero es incorrecto.

Para evitar errores, hay que acercarnos a ella con una visión crítica, cuestionar y dimensionar su alcance. Perderle el miedo, experimentar con la AI y conocer realmente cómo funciona nos ayudará a sobrevivir en esta nueva realidad.

____

Nota del editor: Aníbal Rojas es VP de Tecnología en Platzi. Síguelo en LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad