Alexa, cállate: la ira contra los asistentes artificiales
Amy Ingram estaba tratando de programar una reunión a principios de este mes cuando recibió una respuesta cortante.
Uno de los participantes de la reunión la llamó “fastidio” por enviar “correos electrónicos PERSISTENTES”.
Este intercambio podría causar sorpresa en cualquier oficina, pero este fue notable por una razón diferente. Amy Ingram no es en realidad una persona. Es un asistente personal alimentado por inteligencia artificial. El producto, de una startup llamada X.ai, tiene un solo propósito: programar reuniones por correo electrónico.
Apple, Google, Amazon y Microsoft han invertido en asistentes de voz conectados a teléfonos inteligentes y altavoces inteligentes. Se espera que más de 35 millones de estadounidenses utilicen un asistente activado por voz al menos una vez al mes este año, según un estimado de la firma de investigación eMarketer. Y eso ni siquiera considera a chatbots y a productos como Amy Ingram.
Lee: Siri se vuelve actriz y protagoniza un cortometraje con 'La Roca'
Pero a medida que las empresas de tecnología introducen asistentes y chatbots más avanzados, algunas de estas conversaciones inevitablemente se vuelven hostiles.
Tal vez Siri de Apple llama por error a tu jefe en la noche en lugar de a tu novia. O estás molesto porque tu reunión ha sido reprogramada y decides desquitarte con el mensajero automatizado.
Puedes llamarlo la versión 2.0 de golpear en el teclado o de lanzar un mouse a la pared. Y ahora, la máquina contesta.
“Muchas de las interacciones son entre tú y la máquina”, dice Dennis Mortensen, fundador y CEO de X.ai, sobre la mayoría de los productos asistenciales en el mercado. “En ese entorno, la gente tiende a sentirse cómoda aplicando su frustración”.
Esto crea un nuevo desafío para las empresas de tecnología: ¿qué tan seriamente deben responder los productos a la hostilidad?
Sherry Turkle, directora de la Iniciativa del MIT sobre Tecnología y Autonomía, dice que hay más en juego aquí que simplemente la experiencia del cliente. Desahogarse con las máquinas podría conducir a una “vulgarización en la forma en que la gente se trata entre sí”.
“Le gritas a Alexa... sabes que Alexa es una máquina”, dijo Turkle a CNN Tech por correo electrónico. “Tratamos a las máquinas como si fueran personas, y luego nos sentimos inclinados a tratar a las personas como si fueran máquinas”.
Lee: Bixby, el nuevo asistente de Samsung que quiere competir con Siri y Alexa
Hay pocos datos sobre la frecuencia con que las personas se enfurecen contra las nuevas máquinas. Las empresas de tecnología en su mayoría son vagas en los detalles. Amazon no quiso hacer comentarios y Apple no respondió a una solicitud de comentarios.
Cortana, el producto de asistente personal ofrecido por Microsoft, es golpeado por insultos y lenguaje ofensivo de manera diaria. Corresponde al personal editorial interno de Cortana crear la respuesta correcta.
“Aunque Cortana siempre está dispuesta a tener una conversación productiva y positiva, la meta es acallar el comportamiento ofensivo de inmediato”, dice Deborah Harrison, escritora del equipo editorial de Cortana.
Cuando alguien llama a Cortana una perra, por ejemplo, Cortana responde diciendo: “Bueno, eso no nos llevará a ninguna parte”. Trata de lanzar el mismo insulto de nuevo y obtendrás la misma respuesta, lo cual podría limitar el incentivo para repetirlo.
Siri ofrece una mezcla similar de respuestas lindas a un lenguaje bajo, pero la misma maldición puede dar lugar a varias respuestas. Dígale a Siri que “se vaya a la m*****”, y podría responder con: “Me ruborizaría si pudiera” o “Voy a fingir que no escuché eso”.
No son solo las maldiciones las que provocan este tipo de respuestas. Si te quejas con Siri diciéndole: “No estás ayudando”, ella podría responder con: “Si tú lo dices”.
nullSin embargo, este enfoque podría no ser suficiente como para frenar nuestro peor comportamiento o para abordar las quejas subyacentes del usuario. Lo que se necesita, según Cynthia Breazeal, es algo más que “un sistema que falla y te da una respuesta linda”.
“Este es un problema difícil de resolver”, dice Breazeal, fundador y científico en jefe de Jibo, una empresa que desarrolla un robot para el hogar. Ella espera que la “próxima gran cosa” sea una comprensión más profunda de la frustración del usuario y qué se puede hacer para solucionarla.
IBM intenta hacer algo de esto ahora. Su plataforma de inteligencia artificial Watson impulsa chatbots de servicio al cliente y “agentes virtuales” para los clientes. El equipo de IBM se basa en el análisis del tono y la emoción para detectar y lidiar con clientes enojados, de acuerdo con Rob High, director tecnológico de IBM Watson.
La primera vez que Watson detecta que un usuario se enoja, intenta “interpretar y responder a su intención”, dice High. La segunda vez, Watson podría disculparse y decir que no entiende. Si el incidente continúa más allá de eso, Watson acude al último recurso: gente de verdad.
“Ofreceremos transferirlo a un agente en vivo”, dice High.
Por supuesto, el enojo puede ser solo una de las posibles explicaciones. Algunos usuarios pueden simplemente desear desahogarse o probar los límites de lo que pueden hacer sin consecuencias.
Mortensen de X.ai dice que le gustaría que se impusiera una “sanción” a los usuarios que sean hostiles hacia los asistentes personales “como en la vida real”. Una idea que sugiere es que el tiempo de respuesta del asistente suba precipitadamente.
“La velocidad de respuesta de Amy podría pasar de ser casi instantánea a 'Voy a dejar que te enfríes un poco' y así tendrías una respuesta en dos horas”.
“Sabrías inmediatamente que perdiste”, dice.
Pero también es verdad que la firma podría perder clientes.