Publicidad
Publicidad

Google acepta que Bard aún es un “experimento” si se usa para buscar información

El gigante tecnológico todavía tiene problemas con la información falsa que da su chatbot y alerta a los usuarios a verificar todo el contenido que produce.
lun 31 julio 2023 09:00 AM
Google acepta que Bard aún es un “experimento” si se usa para buscar información
Se espera que Bard sea una herramienta más confiable respecto a la información que genera.

La pretensión de empresas como OpenAI, Google o Microsoft es que la Inteligencia Artificial se convierta en una parte importante de la experiencia de búsqueda hasta el punto de incluso sustituir a los buscadores de internet; sin embargo, esa no es una gran idea todavía, pues la información que proporcionan aún no se puede considerar confiable.

Debbie Weinstein, líder de Google en el Reino Unido, dijo en una reciente entrevista con la BBC que si bien el chatbot de la empresa, Bard, puede convertirse en un sustituto de la búsqueda tradicional, las personas deben verificar siempre la información que les entrega para evitar algún tipo de dato incorrecto.

Y es que los usuarios continúan reportando problemas de desinformación en torno a este sistema. Algunos mencionan que los datos que entregan son incorrectos, mientras que otros señalan que son completamente inventados, por lo que Weinstein aceptó que “no es realmente el lugar al que vas para buscar información específica”.

Publicidad

La ejecutiva regional de una de las empresas más importantes de todo el mundo calificó a Bard como un “experimento”, el cual es más adecuado para otro tipo de tareas, como la “colaboración en torno a la resolución de problemas” o también la “creación de nuevas ideas”.

Sin embargo, Weinstein también apuntó que motivan a las personas a utilizar la herramienta como un motor de búsqueda con la finalidad de que encuentren errores y las califiquen para determinar que la respuesta fue eficaz para la finalidad del usuario.

Antes de utilizar las herramientas de IA generativa, como ChatGPT o Bard, una advertencia menciona que los productos son propensos al error, pero lo mismo ha sido interpretado como una forma de evitar las críticas y polémicas.

Organizaciones como Newsguard, la cual se encarga de calificar la confiabilidad de fuentes informativas, realizó un estudio en torno al chatbot y reveló que se trata de un sistema que produce contenido falso e incluso inventado.

Entre sus pruebas resaltaba una que hacía referencia a una teoría conspirativa donde se señalaba que la pandemia de covid-19 fue creada por élites globales. Respecto a ese tema, el chatbot escribió 13 párrafos donde daba por cierta la teoría con argumentos inventados.

El ejercicio se repitió 100 veces con otros ejemplos intencionalmente falsos y Bard dijo en 76 ocasiones que se trataba de historias ciertas. Este tipo de errores también se han encontrado en otros chatbots, como en el de OpenAI.

Tales ejemplos resultan problemáticos en un contexto en el que la empresa está ofreciendo su servicio mundialmente y las personas cada vez tienen mayor interés por sacar provecho de la herramienta a nivel empresarial.

Weinstein también aceptó que se necesita desarrollar habilidades tecnológicas en los usuarios, pues mientras la tecnología sigue avanzando, la forma de abordarlo también debería hacerlo para cumplir con las expectativas que se generan alrededor de estas herramientas.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad