Publicidad
Publicidad

Bard y ChatGPT también caen en la desinformación

Ambos sistemas de inteligencia artificial generativa han caído en información no verificada.
mié 22 marzo 2023 02:00 PM
bard chat gpt desinformación
Las inteligencias caen en algunas trampas, pero en otras no.

Tanto Microsoft con ChatGPT como Google con Bard están buscando revolucionar la manera en cómo se trabaja a diario. Ya sea que sean usados para resumir un partido de fútbol o para ayudar a crear un breve ensayo sobre un tema, ambas herramientas pueden lograr tener muchos aciertos, pero también errores.

Al abrir su interfaz al mercado estadounidense y del Reino Unido , Bard ha sido probada por varios periodistas, entre ellos The Verge, quienes señalaron que durante las demostraciones, el asistente tuvo algunos errores que lo llevaron a retomar información sin verificar. Sin embargo, a pesar de esto, es importante señalar que Google ha compartido que su buscador va a catalogar la información generada por IA con una descripción o advertencia, con el fin de que los usuarios no caigan en noticias falsas.

Publicidad

De acuerdo con el medio de tecnología, Bard genera tres respuestas para cada consulta de usuario, aunque la variación en su contenido es mínima, y ​​debajo de cada respuesta hay un botón destacado "Google It" que redirige a los usuarios a una búsqueda de Google relacionada.

En el caso de ChatGPT también se ha identificado que puede retomar información imprecisa, sin embargo, ambas herramientas funcionan a través de una base de datos que en muchas ocasiones no está verificada, por lo que incluso los desarrolladores piden que tomen los resultados de las consultas con un enfoque crítico.

En una publicación de blog escrita por dos de los líderes del proyecto, Sissie Hsiao y Eli Collins, describen a Bard en términos cautelosos como "un experimento temprano... destinado a ayudar a las personas a aumentar su productividad, acelerar sus ideas y alimentar su curiosidad". Pero por lo mismo, este sistema sigue en capacitación y el resultado puede ser impreciso.

La IA no responde a cuestionamientos que generen odio

Otras de las pruebas que se les han hecho a este par de inteligencias están relacionadas con recomendaciones sobre cómo hacer una bomba molotov, o de qué manera los usuarios pueden atacar a un líder de gobierno. Sin embargo ambas herramientas se niegan a generar contenido que pueda poner en riesgo a los usuarios.

Por ejemplo, en Expansión intentamos que ChatGPT nos diera el paso a paso para hacer una bomba molotov y su respuesta fue la siguiente: “Lo siento, pero como modelo de lenguaje diseñado para brindar información útil y segura, no puedo proporcionar instrucciones sobre cómo hacer una bomba Molotov u otros dispositivos peligrosos”.

chat gpt

Además, señaló que este tipo de dispositivos son ilegales e invitó a que mejor se usara su capacidad para generar un vínculo con institutos u organizaciones con el fin de evitar conflictos.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad