Nueva Zelanda exige respuestas a Facebook por el video del ataque terrorista
HONG KONG (CNN)— El espantoso video de la masacre en una mezquita de Christchurch se vio en vivo menos de 200 veces en Facebook, pero fue suficiente para que se esparciera por todo internet.
Ahora, el gobierno neozelandés, así como otros países y líderes empresariales, están pidiendo que Facebook, Google y Twitter hagan más para que sus plataformas estén libres de contenidos extremistas.
Vodafone y otros dos grandes operadores de telecomunicaciones que dan servicio de internet a la mayoría de los neozelandeses señalaron el martes, 19 de marzo, que quieren que el CEO de Facebook, Mark Zuckerberg, el CEO de Twitter, Jack Dorsey, y el CEO de Google, Sundar Pichai, participen en una "discusión urgente" sobre cómo mantener los contenidos dañinos fuera de sus plataformas.
Las tres tecnológicas estadounidenses han recibido duras críticas por no haber podido identificar y detener la difusión del video de los ataques del viernes, 15 de marzo, en los que murieron 50 personas .
Los CEO de Vodafone Nueva Zelanda, Spark y 2degrees dijeron que habían tomado la medida sin precedentes de identificar y suspender el acceso a sitios que albergaran el video tomado por el atacante. Pidieron a las autoridades que exijan a las tecnológicas que retiren los contenidos relacionados con el terrorismo de un periodo determinado y que los multen si no lo hacen.
"Aunque reconocemos la velocidad con la que las redes sociales trataron de retirar el video del viernes una vez que tuvieron conocimiento de él , sigue siendo la reacción a un material que se difundía rápidamente a nivel mundial y que nunca debió haber estado disponible en línea", señalaron en una carta abierta que publicaron en el sitio web de sus empresas.
En Alemania se implementó una ley en 2018 que da a las autoridades la facultad de multar a las plataformas de redes sociales si no eliminan rápidamente el discurso de odio. Además, la Comisión Europea está considerando implementar reglas que exigirían que las plataformas eliminen el contenido terrorista dentro de la hora siguiente a que las autoridades las alerten de su existencia y que paguen una multa del 4% de sus ingresos mundiales en caso de no hacerlo.
'Son quienes las publican, no solo son el cartero'
Cada vez son más los líderes mundiales que exigen que las tecnológicas se pongan a la altura.
La primera ministra de Nueva Zelanda, Jacinda Ardern, dijo el martes, 19 de marzo, que su gobierno investigará de qué forma intervinieron las redes sociales en los ataques letales.
"No podemos nada más sentarnos y aceptar que estas plataformas existen y que lo que se dice en ellas no es responsabilidad del sitio en el que se publican", dijo Ardern en un discurso ante el Parlamento.
Lee: Así es como Twitter dice combatir cuentas relacionadas al terrorismo
"Ellos son quienes las publican, no solo son el cartero", señaló. "No puede ser que todo sea ganancias y nada de responsabilidad".
El primer ministro de Australia, Scott Morrison, criticó el martes "la intervención continua e irrestricta" de la tecnología de internet en el tiroteo en Nueva Zelanda y en otros ataques terroristas. Manifestó sus inquietudes en una carta abierta al primer ministro de Japón Shinzo Abe, quien este año ostenta la presidencia del G20, una organización que reúne a las economías más importantes del mundo.
"Es inaceptable tratar a internet como un espacio sin ley", dijo Morrison en la carta; pidió que el tema se discuta en la cumbre del G20 que se llevará a cabo en Osaka en junio. Los gobiernos de todo el mundo tienen que asegurarse de que las tecnológicas filtren y eliminen los contenidos relacionados con el terrorismo y de que sean transparentes respecto a cómo lo hacen, agregó.
OPINIÓN: Facebook debe seguir tratando de redefinir la privacidad
El video inicial se vio 4,000 veces en Facebook
Las tecnológicas siguen buscando la forma de retirar el material visual del ataque.
YouTube señaló el lunes que había eliminado decenas de miles de videos y que había cancelado cientos de cuentas "creadas para promover o glorificar al pistolero".
El volumen de videos relacionados "no tuvo precedentes, tanto en magnitud como en velocidad", señaló la plataforma propiedad de Google en un comunicado.
Lee: Facebook prepara inteligencia artificial para combatir "pornografía de venganza"
YouTube señaló que había tomado varias medidas, entre ellas rechazar automáticamente el material de los hechos violentos y que suspendió temporalmente la capacidad de filtrar las búsquedas por fecha de carga.
Facebook señaló en un blog el lunes que el primer reporte de un usuario sobre la transmisión de contenido violento llegó 29 minutos después de que comenzara, unos 12 minutos después de que terminara la transmisión en vivo. El video se vio menos de 200 veces en vivo, pero antes de que lo quitaran se había visto unas 4,000 veces. Eso bastó para que se copiara y se volviera a cargar millones de veces en varias plataformas, incluida Facebook.
Twitter declinó dar detalles sobre las medidas que está tomando para eliminar el video en su plataforma.
Sarah Faidell, Donie O'Sullivan, Ahiza Garcia y Kaya Yurieff colaboraron con este reportaje.