Publicidad
Publicidad

Empleados de Google critican a Bard, el chatbot de la empresa

Un reporte de Bloomberg señala que 18 empleados actuales y anteriores se mostraron inconformes con la herramienta.
jue 20 abril 2023 07:08 AM
empleados de Google critican a Bard
Oficinas de Google en Londres.

Empleados de Google no están muy conformes con Bard, su chatbot interno, pues de acuerdo con un informe de Bloomberg , calificaron al sistema de mensajes internos como un “mentiroso patológico” y pidieron a la empresa que no lo lanzara.

Publicidad

En el texto, el medio citó a 18 trabajadores actuales y anteriores de Google, así como capturas de pantallas de mensajes internos. En ellas, se puede leer que un empleado notó que Bard solía dar a los usuarios consejos peligrosos, como cómo aterrizar un avión o bucear.

Otro empleado dijo: “Bard es peor que inútil: por favor, no lo lances”. Bloomberg dice que, incluso, la compañía "rechazó una evaluación de riesgos" presentada por un equipo de seguridad interno que decía que el sistema no estaba listo para uso general. La tecnológica abrió el acceso anticipado al bot "experimental" en marzo a los usuarios de Estados Unidos y el Reino Unido.

Respecto a la publicación de Bloomberg, Google compartió su postura: “La Inteligencia Artificial responsable sigue siendo una de las principales prioridades de la empresa y seguimos invirtiendo en los equipos que trabajan para aplicar nuestros Principios de IA a nuestra tecnología”.

De acuerdo con el medio The Verge , a finales de 2020 y principios de 2021 la empresa despidió a dos investigadores, Timnit Gebru y Margaret Mitchell, después de que escribieran un artículo de investigación que expuso fallas en los mismos sistemas de lenguaje de IA que sustentan chatbots como Bard.

"El gigante de búsqueda en internet de confianza está brindando información de baja calidad en una carrera para mantenerse al día con la competencia, mientras le da menos prioridad a sus compromisos éticos", compartió Bloomberg.

Sin embargo, otros empleados de Google y especialistas en IA en general, argumentaron que es común que las pruebas públicas sean necesarias para desarrollar y salvaguardar estos sistemas, y que el daño conocido causado por los chatbots, es mínimo.

“Los rivales de Google, como Microsoft y OpenAI, también están posiblemente tan comprometidos como Google. La única diferencia es que no son líderes en el negocio de las búsquedas y tienen menos que perder”, se lee en el texto de The Verge.

La empresa de Menlo Park cuenta con una página en la que hablan sobre sus principios de IA, entre los que se encuentran: ser socialmente beneficiosa, evitar crear o reforzar prejuicios injustos, ser construido y probado para la seguridad y ser responsable ante las personas, entre otros.

¿Son seguros los chatbots?

Los chatbots como ChatGPT o Bard no representan un riesgo per se. Sin embargo, su uso inadecuado sí puede violar reglas de ciberseguridad o violaciones a la privacidad de datos.

De acuerdo con la empresa de ciberseguridad NordVPN, los delincuentes de la Dark Web planean la adquisición de ChatGPT, con un aumento de 625% en las publicaciones sobre pirateo de bots. Esto porque podrían aprovechar su inteligencia artificial para cometer fraudes.

Una vez que un hacker se ha hecho con el control del chatbot puede eliminar sus restricciones de seguridad y utilizarlo para crear malware y correos electrónicos de phishing, además de promover discursos de odio o incluso difundir propaganda.

Marijus Briedis, experto en ciberseguridad de NordVPN , compartió: "La ingeniería social, en la que se anima a un objetivo a hacer clic en un archivo falso o descargar un programa malicioso a través de correos electrónicos, mensajes de texto o chats online, consume mucho tiempo a los hackers. Sin embargo, una vez que se ha explotado un bot, estas tareas pueden externalizar por completo, estableciendo una línea de producción de fraudes".

Estos son algunos consejos que ofrece la empresa de ciberseguridad:

  1. No introduzca demasiados detalles personales: Los chatbots de IA están diseñados para aprender de cada conversación que tienen, mejorando sus habilidades en la interacción "humana", pero también construyendo un perfil suyo más preciso que puede ser almacenado. Si te preocupa el uso que puedan hacer de tus datos, evita darles información personal.
  2. Mucho phishing: Es probable que la inteligencia artificial ofrezca oportunidades adicionales a los estafadores en línea y se puede esperar un aumento de los ataques de phishing a medida que los hackers utilizan bots para elaborar estafas cada vez más realistas. Las características tradicionales del phishing, como la mala ortografía o gramática en un correo electrónico, pueden estar en vías de desaparición, así que comprueba la dirección del remitente y busca incoherencias en los enlaces o nombres de dominio.
  3. Utiliza un antivirus: Los hackers ya han manipulado con éxito chatbots para crear malware básico, por lo que merece la pena contar con herramientas como antivirus para protegerse de amenazas.
Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad