Publicidad
Publicidad

La IA aprende de nuestros errores, pero también los reconfigura

Conversar con chatbots como Gemini o ChatGPT empoderan la retroalimentación que dan los usuarios, pero por lo mismo los vulnera.
lun 26 mayo 2025 05:55 AM
error inteligencia artificial
Hacia futuro, la IA tendrá un toque multiplataforma.

Los modelos de inteligencia artificial generativa, como ChatGPT o Gemini aprenden en gran medida de los usuarios. Cada conversación representa una fuente de información, pero también un posible vector de vulnerabilidad. En este ciclo de retroalimentación, la inteligencia artificial aprende de los errores humanos y, en ese proceso, puede reconfigurar nuestra percepción de lo que está bien o mal.

Desde 2022, la adopción masiva de chatbots conversacionales marca un antes y un después en la relación entre humanos y tecnología. Según un informe de Pew Research Center de 2024, el 58% de los adultos estadounidenses ha interactuado con un chatbot al menos una vez, y el 19% lo hace con regularidad. En esas interacciones, los usuarios no solo piden ayuda también corrigen.

Publicidad

Esto es lo que se conoce como reinforcement learning from human feedback (RLHF), un proceso mediante el cual los sistemas aprenden de la evaluación humana de sus respuestas. Y aunque permite que modelos como ChatGPT o Gemini sean cada vez más precisos, también los hace profundamente dependientes de la calidad y los sesgos de esa retroalimentación.

"El feedback del usuario juega un rol principal en el desarrollo de Gemini", explicó Ángela Sun, directora multiplataforma en Google.

La ejecutiva subrayó que cada interacción cuenta, desde un prompt simple hasta un error de interpretación, todo sirve para refinar el comportamiento de la IA y volverla más precisa, accesible y personal.

Gemini, el modelo multimodal de Google, está diseñado para ser un asistente universal capaz de generar respuestas a partir de texto, voz, imagen y video, lo que lo puede volver una extensión de los usuarios que interactuan con él.

Pero también esta interacción es más personal, lo que lleva a una ilusión de intimidad. En algunos casos, usuarios comparten información sensible, asumen que el sistema tiene memoria o incluso proyectan emociones en él.

Un estudio de Mozilla Foundation sobre privacidad en plataformas de IA encontró que más del 30% de los usuarios compartió datos personales sin verificar si estaban siendo almacenados.

Además, existen preocupaciones éticas sobre cómo la IA “reconfigura” el error humano. Si una persona expresa un prejuicio, y el sistema lo interpreta como un patrón válido porque fue reforzado con retroalimentación positiva, el modelo podría amplificarlo. A esto se le conoce como "deriva algorítmica".

Según un informe de AI Squared, integrar retroalimentación humana en el entrenamiento de modelos mejora significativamente la precisión y la relevancia de sus respuestas. A su vez, Zendesk señala que el 72% de los líderes en experiencia del cliente esperan que la IA refleje los valores y la voz de sus marcas, lo que sólo es posible si la tecnología aprende de los usuarios reales.

El futuro, según Sun, será inevitablemente multimodal, pues no se tratará de elegir entre texto o imagen, sino de interactuar según el contexto y la necesidad. En ese escenario, el error humano no desaparecerá, pero cambiará de función. Ya no será una falla que interrumpe el sistema, sino una señal que lo fortalece.

Publicidad

El espejo (distorsionado) que nos devuelve la IA

En marzo de 2024, un grupo de investigadores de la Universidad de Stanford publicó un análisis de cómo los modelos de IA reconstruyen información errónea tras haberla sido corregida por usuarios en etapas previas. “El sistema no olvida del todo: puede replicar errores pasados si los percibe como patrones estables”, explica el reporte.

Esto pone sobre la mesa un dilema al corregir a la IA, ¿estamos educándola o alimentando una versión suavizada de nuestros propios errores?

OpenAI, por ejemplo, permite a los usuarios desactivar el uso de sus conversaciones para entrenamiento, pero esta opción no siempre está activada por defecto. En el caso de Google Gemini, la empresa afirma que los datos se usan para mejorar sus productos, pero también que pueden ser revisados por humanos en ciertos casos.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad