De asistentes virtuales, ¿a víctimas de acoso sexual?

Algunos usuarios llegan a decir cosas sucias o hasta confesar su amor a estas interfaces; empresas que desarrollan asistentes por voz exploran un mercado para personalidades a la medida.
cortana microsoft  (Foto: Microsoft)
Heather Kelly

A la gente le da mucha curiosidad la vida sexual de Cortana.

Todas las asistentes virtuales tienen que lidiar con comentarios y preguntas fuera de lugar, desde las veteranas como Siri y Google Now hasta las nuevas especialistas de nombre Amy, Molly, Mia y Robin.

Cuando Microsoft presentó Cortana en 2014, una buena parte de las primeras preguntas tenían que ver con su vida sexual, de acuerdo con Deborah Harrison de Microsoft.

Tal parece que la gente se siente muy cómoda hablando sin tapujos con las asistentes de texto y voz. El humanizar a los robots con nombres, sentimientos fingidos, personalidad y género (en su mayoría femenino) ayuda a que los usuarios entren en confianza.

Uno de los efectos secundarios de crear personalidades femeninas amistosas es que la gente también quiere decir cosas sucias, confesar su amor, participar en juegos de roles o bombardearlas con insultos.

Cortana no está dispuesto a soportarlo.

"Si le dices cosas particularmente groseras a Cortana, se enojará", dijo Harrison durante una conferencia en la Cumbre Re•Work sobre asistentes virtuales que se llevó a cabo en San Francisco la semana pasada. "Esa no es la clase de interacción que queremos fomentar".

Harrison es uno de los ocho escritores que crea los diálogos de Cortana en Estados Unidos. Además de escribir chistes y de idear bromas informales, su equipo tiene que pensar en la mejor forma de frustrar conversaciones vulgares.

Está muy claro que Cortana es mujer. Su avatar es femenino y una mujer de carne y hueso, de nombre Jen Taylor, le presta su voz. Sin embargo, los escritores saben que deben evitar los estereotipos sobre las asistentes. Cortana no se menosprecia y evita disculparse.

"Queríamos tener mucho cuidado para que no diera la impresión de ser servil en ningún sentido… o de no establecer una dinámica que no queremos que se perpetúe en sentido social", dijo Harrison.

No todas las asistentes recurren a esa táctica tan firme. La premisa de Robin Labs, empresa que desarrolla asistentes por voz para conductores, es que podría haber un mercado para personalidades a la medida. Su director ejecutivo, Ilya Eckstein, dice que hay una gran demanda para una asistente con una personalidad "más íntima/sumisa con tintes sexuales".

Robin ha sostenido más de 100 millones de conversaciones. Al analizar los datos, Eckstein se dio cuenta de que la gente se puede clasificar en unas cuantas categorías básicas. A algunas les gusta tener muchas conversaciones amistosas, mientras que otras quieren solo los hechos, sin descaros. Al parecer a uno de los grupos le gusta mucho que Robin repita blasfemias con su suave voz femenina.

¿Quieres más noticias como esta?
Conoce las innovaciones y las tendencias tecnológicas más relevantes.

A veces la gente coquetea sin darse cuenta de que las asistentes son simples programas. A veces, como ocurre con la nueva herramienta M Messenger de Facebook, un humano hace parte del trabajo. Aunque Amy, la robot programadora de citas de x.ai, es alegre y amistosa, siempre se comporta de forma profesional. Eso no ha impedido que la gente le envíe flores, chocolates y botellas de whisky. Un usuario incluso la invitó a salir (Amy se negó).

Una forma inteligente de aprender a lidiar con el acoso es hablar con asistentes reales, cosa que Microsoft hizo con Cortana. Después de todo, han soportado conductas similares durante años.

Ahora ve
Tras ataque en Las Ramblas, Mariano Rajoy pide unión contra el terrorismo
No te pierdas
×