Facebook intensificará la lucha contra el terrorismo
Facebook dice que tiene más de 150 personas que están enfocadas principalmente en luchar contra el terrorismo en la red social, incluyendo un grupo de académicos, analistas y exagentes del orden público.
Según una publicación de Facebook en la que detalló sus esfuerzos para eliminar a los terroristas y sus publicaciones de la red social, este equipo de especialistas ha crecido significativamente durante el último año.
“Mi trabajo realmente es interrumpir lo que los terroristas están tratando de hacer y estar adelante de eso”, le dijo a CNN Tech Brian Fishman, manager de política contraterrorista de Facebook.
Fishman, un exprofesor que publicó un libro sobre ISIS y al Qaeda, se unió a Facebook hace tan solo un año. Su equipo trabaja con otros de Facebook para construir herramientas para detectar actividad terrorista y prevenir la difusión de propaganda.
Facebook dice que recientemente empezó a experimentar con inteligencia artificial para entender mejor si el lenguaje usado en las publicaciones es propaganda terrorista, resaltando el potencial de la nueva tecnología para ayudar a solventar el problema.
Lee: Alemania da el primer paso para espiar WhatsApp en caso de terrorismo
El titán de las redes sociales utiliza herramientas de coincidencia de imágenes para prevenir que los usuarios suban videos o imágenes de terroristas conocidos, y también usa algoritmos para detectar grupos de perfiles afines, páginas y otros que apoyen el terrorismo.
“Las tácticas (de los terroristas) cambian rápidamente”, dice Fishman. “Lo que vemos es que los actores terroristas y sus seguidores empiezan a entender el tipo de cosas que estamos haciendo y tratan de cambiar lo que hacen y nosotros tenemos que reaccionar a eso”.
“Ese es el problema”, agrega.
Facebook y sus pares en la industria de la tecnología han recibido presiones de los legisladores en los últimos meses para que hagan más en sus plataformas para combatir terroristas.
La primera ministra de Gran Bretaña, Theresa May, ha convocado a regular “el ciberespacio para prevenir la propagación de la planificación extremista y del terrorismo”. Luego del ataque terrorista en Londres a principios de este mes, Facebook dijo que la compañía está trabajando para evitar las interacciones terroristas dentro de la plataforma.
"Queremos que Facebook sea un ambiente hostil para los terroristas”, dijo Simon Milner, director de políticas de la compañía , en un comunicado posterior al atentado que dejó un saldo de siete muertos y casi medio centenar de heridos en el puente de Londres.
El ataque fue el segundo que se registró en dos semanas en territorio inglés, tras las explosiones que mataron a 22 personas durante un concierto de la artista estadounidense Ariana Grande en Manchester .
Múltiples denuncias se han presentado contra Facebook y Twitter, así como contra otras empresas tecnológicas acusadas de funcionar como plataforma para ISIS.
Debido a ello, Google anunció este lunes que intensificará sus esfuerzos para luchar contra los contenidos extremistas o relacionados con actos terroristas en Youtube .
La empresa se comprometió a reforzar la utilización de inteligencia artificial en la plataforma de videos, aunque reconoció que la principal arma en contra de este tipo de contenidos es la experiencia humana, por lo que también incrementarán el número de expertos destinados a esa tarea.
Facebook, por su parte, ofreció mayores detalles de cómo identifica y rige el contenido de un sitio que es usado por casi dos mil millones de personas cada mes. El equipo vio la necesidad de sacar a la luz la información a propósito de los recientes ataques y el aumento del escrutinio a empresas de tecnología.
“Ciertamente hemos visto preguntas sobre lo que deberían estar haciendo las compañías de redes sociales”, dijo Monika Bickert, directora de gestión de políticas globales de Facebook. “Parte de esto es decirle a nuestra comunidad ‘este es nuestro compromiso y de esta manera es como estamos a la altura'”, aseveró.
En la publicación en Facebook, Bickert y Fishman admitieron que “la Inteligencia Artificial no puede atrapar todo”.
“Imaginarnos lo que apoya el terrorismo y lo que no, no es siempre fácil y los algoritmos no son aún tan buenos como las personas cuando se trata de entender esta clase de contexto”, escribieron.
Con ese fin, Facebook está construyendo su grupo interno de contraterrorista, asociándose con investigadores y gobiernos, y aprendiendo de sus equipo de moderadores de comunidad.
Lee: Facebook apuesta por los desarrolladores de Latinoamérica
La compañía dijo el mes pasado que planeaba contratar a 3,000 revisores para combatir los videos violentos además de las 4,500 personas que ya están en el equipo de operaciones de la comunidad. Algunos expertos criticaron la medida como insuficiente considerando la gran cantidad de contenido que los usuarios de Facebook comparten.
Facebook está reconociendo la complejidad para resolver este problema y está pidiendo ayuda de su comunidad.
Pidió, además, a sus usuarios que opinaran sobre una serie de “preguntas difíciles” que está enfrentando la compañía, incluyendo la mejor manera para “evitar que terroristas difundan propaganda en la red”.
“Mientras procedemos, ciertamente no esperamos que todo el mundo esté de acuerdo con todas las decisiones que tomamos. No siempre estamos de acuerdo internamente. También estamos aprendiendo con el tiempo, y a veces nos equivocamos”, escribió en un blog Elliot Schrage, vicepresidente de política pública y de comunicaciones de Facebook.
“Pero incluso cuando nuestras decisiones te causan escepticismo, esperamos que estos mensajes te den una mejor idea de cómo abordamos estas publicaciones".