Las alucinaciones generadas por la inteligencia artificial (IA) se han convertido en uno de los desafíos más complejos para las big tech. Estas respuestas erróneas o fabricadas por los modelos representan un obstáculo para la adopción generalizada de la IA, además de poner en riesgo la confianza de los usuarios.
Este tipo de fallas ocurren cuando un modelo de IA genera información falsa o sin sustento, pero presentada con una alta confianza. Este fenómeno puede variar desde errores menores hasta la creación de datos completamente ficticios que no tienen base en la realidad. Las alucinaciones se presentan con mayor frecuencia en modelos de lenguaje generativo como ChatGPT, Gemini o Apple Intelligence, especialmente cuando se enfrentan a preguntas ambiguas o fuera de su entrenamiento.
Un ejemplo de alucinación podría ser que un modelo de lenguaje afirme con certeza que una celebridad ganó un premio que nunca recibió, o que proporcione una referencia bibliográfica inventada.