La violencia es inaceptable en todas las escalas, incluso cuando se está cometiendo ante inteligencias no humanas. De acuerdo con Google, en México, su asistente de voz tuvo un 2% de consultas ofensivas o abusivas dentro de las consultas que realizaron los usuarios en el último año, un mensaje que la empresa considera emergente por atender.
“Parte del comportamiento que tienen los usuarios con este tipo de dispositivos refleja una realidad social que se vive en el país y debemos evitar que se normalice la violencia en cualquier escala”, señaló durante su presentación en Google for México, Nicolás Mamboury, director de mercadotecnia en la tecnológica.
La compañía reveló que la voz femenina del Asistente es un 27% más atacada que la masculina, específicamente con comentarios misóginos, mientras que la voz masculina tampoco está exenta de abusos verbales ante los usuarios mexicanos, ya que también recibe comentarios negativos, principalmente homofóbicos.
En detalle, la voz femenina ha recibido 25% de insultos; 25% comentarios sobre su apariencia física; 12% de misoginia; y 35% de comentarios de acoso sexual. En el caso de la masculina ha recibido 27% de insultos; 13% de comentarios de homofobia; y 22% de acoso sexual.
“Si ponemos esto en cifras donde entre el 2014 y el 202 fueron asesinadas al menos 2,800 personas de la comunidad LGBTQA+, la normalización de esta conducta puede ser perjudicial”, precisó Mamboury.
Por ello, la empresa lanzó #NoMeHablesAsí, una campaña donde se busca corregir este tipo de conductas, de parte de los usuarios, sin embargo, también pone en la mesa, la ética con la que se consume la Inteligencia Artificial.