La manera en que funciona es que aprende conceptos, los sintetiza durante su entrenamiento y participa en intercambios fluidos de conversación que inician con un tema pero pueden evolucionar hacia uno que no tiene relación directa con el primero. Por ejemplo, “Plutón” fue capaz de explicar que se compone de cañones, cráteres y geiseres, pero al mismo tiempo pudo relacionar que la persona que quiere visitarlo necesitaría una chamarra porque el clima es frío y de ahí, saltar a decir que es un “planeta hermoso” y que “no recibe el reconocimiento que merece”.
Google’s LaMDA AI language demo shows what it’s like to have a chat with Pluto. Yes, the planet. #GoogleIO pic.twitter.com/sC4aSJImr5
— The Verge (@verge) May 18, 2021
Este proyecto es de dominio abierto por lo que puede trabajar con cualquier tema, pero si decidieras repetir la temática, nunca tomaría la misma vía de conversación, además, puedes tener una conversación sin tener que re entrenar el modelo. Por ahora, LaMDA solo funciona en texto, pero la visión es que se convierta en un modelo multimodal que pueda entender también imágenes, audio y conceptos.
Esta tecnología supondría una mejora importante en los productos de Google que cuentan con un sistema de inteligencia artificial como soporte.