Publicidad

Síguenos en nuestras redes sociales:

Publicidad

El supremacismo blanco es más difícil de combatir en línea que el ISIS

El ataque terrorista en Nueva Zelanda muestra que el verdadero reto de las tecnológicas como Facebook, Twitter y Google es la propaganda terrorista de extrema derecha.
lun 25 marzo 2019 05:06 AM
Contra el terrorismo.
Contra el terrorismo. La gente se reúne para formar un "anillo de paz" alrededor de una mezquita local para mostrar solidaridad con las víctimas de los ataques de la mezquita de Christchurch en Nueva Zelanda, en Toronto, Ontario, Canadá.

(CNN) — Ha llegado la hora de la verdad para las redes sociales: tras el ataque letal en las mezquitas de Nueva Zelanda que se transmitió en vivo por Facebook, deben reflexionar sobre su rol en la difusión de la propaganda terrorista de extrema derecha.

Tras reconocer que el fin de la treta horripilante del pistolero era volverse viral, los gobiernos y los líderes empresariales están llamando a Facebook, Twitter y Google a hacer más para librar a sus plataformas del discurso de odio que podría fomentar la violencia.

En años recientes, la mayoría de las redes sociales han tomado medidas agresivas para combatir a otro grupo extremista: el Estado Islámico (ISIS). Sin embargo, su reacción a la supremacía blanca ha sido más lenta.

Los expertos dicen que eso se debe a que no es tan fácil detectar en línea el extremismo de derecha, dada la naturaleza política innata del movimiento y la cultura de chistes privados ambiguos. Los investigadores suelen comparar los mensajes que los supremacistas blancos difunden en línea con los que propaga el grupo terrorista islámico porque comparten la táctica de radicalización en la red.

"No creo que [las empresas de redes sociales] tengan la capacidad, ni siquiera a nivel básico, para actuar ante los contenidos supremacistas blancos cuando se alerta sobre ellos", dijo a CNN Joshua Fisher-Birch, especialista en análisis de contenidos del Counter Extremism Project, una organización no lucrativa estadounidense. Fisher-Birch agregó que duda de que esas empresas estén tomando lo suficientemente en serio los contenidos supremacistas blancos.

Fisher-Birch, quien vigila la proliferación de contenidos extremistas en línea, dijo que aunque las plataformas sociales y los servicios de transmisión de videos han sido diligentes al suspender cuentas que difunden contenidos de ISIS, los mensajes supremacistas blancos han pasado sin restricciones.

Publicidad

El nacionalismo blanco está superando a la propaganda de ISIS en línea

En medio de la estrategia de las redes sociales contra la propaganda de ISIS, los movimientos nacionalistas blancos estadounidenses han florecido; sus seguidores han aumentado en más de un 600% en Twitter desde 2012, según un estudio de 2016 del Programa sobre el Extremismo de la Universidad George Washington . De hecho, el aumento de las cuentas de nacionalistas blancos y nazistas en Twitter superó por mucho a ISIS en casi todos los parámetros, en parte porque corren menos riesgo de que las suspendan.

J. M. Berger, autor del estudio, dijo que los hallazgos "indican que la batalla contra ISIS en las redes sociales es apenas el primero de muchos desafíos a los que se enfrentan los valores normativos tradicionales"; agregó que "otros grupos extremistas" han podido aprender de los éxitos y los errores de ISIS para desarrollar sus propias estrategias digitales.

Esa estrategia pudo verse en todo su esplendor en el montaje del ataque de Nueva Zelanda. En Twitter y 8chan, un tablero de mensajes en línea en el que se permite todo discurso, incluidas las publicaciones racistas y extremistas, el tirador dio señas de su ataque inminente con un llamado a difundir su mensaje a través de memes y shitposting, término coloquial para referirse a la emisión de un alto volumen de contenidos irónicos de baja calidad para provocar una reacción.

Según Google, la reacción no tuvo precedentes: en las 24 horas posteriores a la transmisión en vivo del video en su plataforma, Facebook señaló que retiró 1.5 millones de videos sobre el ataque en todo el mundo, de los cuales 1.2 millones se bloquearon al momento de cargarse.

La tormenta comenzó luego de que los sistemas de Facebook no pudieran detectar el video inicial , que se vio en vivo menos de 200 veces antes de que se propagara por toda la red. La empresa señaló que lo retiró una vez que la policía de Nueva Zelanda los alertó. Esto coincide con los muchos llamados a intensificar la moderación de las plataformas. La empresa contrató hace poco a decenas de miles de moderadores de contenidos. YouTube, el servicio de transmisión de videos en directo de Google, también ha invertido en moderadores humanos para eliminar videos ofensivos de su servicio .

Google señaló que el volumen de videos relacionados que se difundió en YouTube en el mismo periodo fue a veces tan rápido como "una carga nueva cada segundo". La tecnológica agregó que eliminó decenas de miles de videos y que canceló cientos de cuentas.

Twitter declaró que "vigila y retira constantemente cualquier contenido que represente la tragedia".

Al parecer, el ataque en Nueva Zelanda es uno de los primeros en los que las redes sociales tratan al terrorismo de extrema derecha con la misma táctica de borrado general que al material pro-ISIS. Sin embargo, la velocidad con la que se difundieron las copias del video refleja la magnitud del desafío al que se enfrentan las redes sociales.

¿Por qué es tan difícil detener el contenido supremacista?

En 2016, debido a la presión de los legisladores de Reino Unido, Europa y Estados Unidos, YouTube, Facebook, Microsoft y Twitter crearon una base de datos compartida de hashes , rastros digitales de imágenes extremistas. Su objetivo es encontrar propaganda de ISIS para retirarla y, en algunos casos, impedir que vuelva a publicarse.

Desde su auge, en 2014, cuando el aparato mediático de ISIS plagó las redes sociales con videos espeluznantes, la presencia del grupo en línea se ha reducido drásticamente, según el reporte de la Universidad George Washington.

Tras el ataque en Nueva Zelanda, Facebook señaló que había compartido los rastros de más de 800 videos visualmente específicos relacionados a través de su base de datos colectiva.

Sin embargo, Julia Ebner, investigadora del Instituto para el Diálogo Estratégico en Londres, especialista en extremismo islámico y de derecha, dijo a CNN que Facebook y otras grandes tecnológicas no han desplegado esta estrategia con la agresividad necesaria para contrarrestar el extremismo de derecha. Eso se debe en parte a que los mensajes nacionalistas blancos no son fácilmente reconocibles, explicó Ebner. Suele estar oculto en memes, alusiones y chistes privados.

"Las redes extremistas nacionalpopulistas son muy buenas para darles la vuelta a las leyes existentes (políticas y prácticas en las plataformas). Recurren a la ironía y al sarcasmo para difundir ideas de odio y para ocultarlas en memes", explicó Ebner. "La derecha nacionalpopulista lo ha aprovechado como ningún movimiento yihadista lo ha hecho".

Lee: Nueva Zelanda busca prohibir los rifles de asalto. ¿Estados Unidos puede?

Por otro lado, el contenido de ISIS es más fácil de identificar porque tiende a repetir palabras y frases que no figuran en ningún otro contenido, de acuerdo con Pedro Domingos, profesor de Ciencias Computacionales de la Universidad de Washington y autor del libro The Master Algorithm.

Las fórmulas que ISIS usó para difundir su propaganda —hashtags en diferentes idiomas, discursos codificados, videos e iconografía con marcas de agua— también permitieron que los equipos de revisión crearan fácilmente copias de los rastros para incluirlos en la lista negra.

Domingos dijo que las plataformas digitales todavía no tienen la capacidad técnica para combatir las cuentas de los supremacistas blancos como lo hicieron con las de ISIS.

"El problema principal es que el contenido [de los extremistas de derecha] es demasiado variable y diverso como para poder distinguirlo confiablemente de los contenidos aceptables a través de los algoritmos de filtrado que las tecnológicas usan, ni siquiera de los más avanzados", explicó Domingos en un correo electrónico a CNN.

Lee: Nueva Zelanda prohíbe los fusiles de asalto tras el atentado en las mezquitas

Como parte del debate actual, los expertos en tecnología están pidiendo a plataformas como Facebook que transparenten el funcionamiento interno de sus algoritmos, lo que daría a los usuarios más claridad respecto al contenido que ven y a las razones por las que lo ven. Sin esa transparencia, es fácil que los usuarios piensen que los algoritmos están optimizados para mostrar contenidos veraces, en vez de ser una vía para difundir contenidos relacionados que mantienen a la gente en las plataformas.

Sin embargo, la transparencia también podría resultar contraproducente, de acuerdo con Domingos, porque sería más fácil que los supremacistas blancos burlen los algoritmos.

No es solo un problema tecnológico

Aunque hubiera una capacidad algorítmica avanzada —una que pudiera detener la difusión del discurso de odio matizado—, las tecnológicas tendrían que estar comprometidas a desplegarla. Esto exige que acepten una responsabilidad mayor como editores: moderar y eliminar los contenidos mucho antes de que propicien la violencia o el acoso.

Antes del mitin supremacista blanco de 2017 en Charlottesville, Virginia, que se volvió letal, la mayoría de las principales redes sociales, registros de dominios y plataformas de pago no habían prestado atención al extremismo interno.

En varias plataformas se prohibieron diversas cuentas de nacionalistas blancos, entre ellas uno de los sitios neonazis más influyentes de la red: Daily Stormer .

CNN le pidió a Facebook que explicara cómo está impidiendo la difusión de los contenidos extremistas de derecha, a lo que un vocero respondió que están invirtiendo en equipos de seguridad y en herramientas técnicas para "detectar el discurso de odio proactivamente" y que están trabajando con sus socios para entender mejor a estas organizaciones conforme evolucionan.

"Prohibimos a estas organizaciones e individuos en nuestras plataformas y también eliminamos todos los halagos y los gestos de apoyo cuando nos enteramos de su existencia", dijo el portavoz.

Un vocero de YouTube le dijo a CNN que han "invertido intensamente en equipos humanos de revisión y en tecnología inteligente" para "detectar, revisar y eliminar" rápidamente los contenidos extremistas. "El discurso de odio y los contenidos que promueven la violencia no tienen lugar en YouTube", señaló el vocero.

Lee: Refugiado sirio y su hijo son las primeras víctimas sepultadas de Nueva Zelanda

Un portavoz de Twitter dijo que la política de la empresa respecto al discurso de odio "prohíbe conductas dirigidas contra individuos con base en categorías protegidas como la raza, la etnia, el origen nacional o la filiación religiosa".

"Cuando identificamos contenido que rompe esas reglas, tomamos medidas regulatorias agresivas", dijo el portavoz a CNN.

¿Las redes sociales deberían vigilar el discurso político?

Joan Donovan, directora del Proyecto de Investigación en Tecnología y Cambio Social del Centro Shorenstein de la Universidad de Harvard, señaló otra de las razones por las que las tecnológicas estadounidenses no han reaccionado tan rápido a los contenidos supremacistas blancos que a los contenidos relacionados con ISIS: los políticos de todo el mundo usan el mismo discurso.

"La cultura misma de Silicon Valley no está diseñada para mirar hacia adentro", dijo Donovan a CNN. "Entonces, cuando hablamos de supremacía blanca, la gente en las plataformas destaca que no sabe cómo detectarla porque a veces es ambigua, a veces está cifrada o a veces refleja el lenguaje de los políticos".

Esta coincidencia entre las personas que promueven la ideología supremacista blanca en línea y los partidos populistas de todo el mundo representa un problema para las plataformas, problema que no tenían en el combate a ISIS.

En 2015, durante la campaña presidencial en Estados Unidos, acusaron al mismísimo Donald Trump de usar discurso de odio luego de que publicara una declaración en su página de Facebook, en la que llamaba a prohibir la entrada de todos los viajeros de países musulmanes, misma que borró más tarde. También lo han criticado por haber publicado una campaña publicitaria con carga racista y por aparentemente aludir a teorías de la conspiración antisemitas en sus tuits. Trump ha dicho que no es racista y ha censurado a los neonazis.

Algunas cuentas nacionalistas blancas en Twitter hacen referencia a Trump y a etiquetas relacionadas con Trump, como #makeamericagreatagain, más que a cualquier otro tema salvo #whitegenocide, según el mismo estudio de la Universidad George Washington, en el que se subrayan los obstáculos para combatir las cuentas infractoras.

Abordar este discurso polarizador de personajes influyentes tiene que ser parte de cualquier estrategia digital a largo plazo, señaló Ebner.

"Uno de los aspectos más alarmantes de todo esto es la normalización del lenguaje deshumanizador y de las narrativas radicales de políticos como Trump, [el vice primer ministro de Italia, Matteo] Salvini o el senador australiano", dijo Ebner. (Poco después del tiroteo en Nueva Zelanda, el senador australiano Fraser Anning culpó a la inmigración musulmana de la violencia en un tuit).

Lee: Así es como Twitter dice combatir cuentas relacionadas al terrorismo

Cuando se le preguntó si podrían ocurrir ataques como los de Nueva Zelanda en Italia por su discurso agresivo antiinmigrante, Salvini respondió: "El único extremismo que merece atención es el islámico".

De acuerdo con Ebner, para enfrentar los discursos divisivos como este tenemos que centrarnos en dar solidez a los esfuerzos de la sociedad civil y promover la educación sobre el civismo digital. "No queremos reprimir la libertad de expresión, pero tenemos que abordar esta clase de discurso… y esa es una inversión a más largo plazo".

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad