De acuerdo con el medio de tecnología, Bard genera tres respuestas para cada consulta de usuario, aunque la variación en su contenido es mínima, y debajo de cada respuesta hay un botón destacado "Google It" que redirige a los usuarios a una búsqueda de Google relacionada.
En el caso de ChatGPT también se ha identificado que puede retomar información imprecisa, sin embargo, ambas herramientas funcionan a través de una base de datos que en muchas ocasiones no está verificada, por lo que incluso los desarrolladores piden que tomen los resultados de las consultas con un enfoque crítico.
En una publicación de blog escrita por dos de los líderes del proyecto, Sissie Hsiao y Eli Collins, describen a Bard en términos cautelosos como "un experimento temprano... destinado a ayudar a las personas a aumentar su productividad, acelerar sus ideas y alimentar su curiosidad". Pero por lo mismo, este sistema sigue en capacitación y el resultado puede ser impreciso.
La IA no responde a cuestionamientos que generen odio
Otras de las pruebas que se les han hecho a este par de inteligencias están relacionadas con recomendaciones sobre cómo hacer una bomba molotov, o de qué manera los usuarios pueden atacar a un líder de gobierno. Sin embargo ambas herramientas se niegan a generar contenido que pueda poner en riesgo a los usuarios.
Por ejemplo, en Expansión intentamos que ChatGPT nos diera el paso a paso para hacer una bomba molotov y su respuesta fue la siguiente: “Lo siento, pero como modelo de lenguaje diseñado para brindar información útil y segura, no puedo proporcionar instrucciones sobre cómo hacer una bomba Molotov u otros dispositivos peligrosos”.
Además, señaló que este tipo de dispositivos son ilegales e invitó a que mejor se usara su capacidad para generar un vínculo con institutos u organizaciones con el fin de evitar conflictos.