¿Qué opina Facebook del asesinato transmitido en su red?
Robert Godwin Sr. estaba caminando a casa después de una comida de Pascua con su familia cuando recibió un disparo de un extraño, quien después publicó el video del asesinato en Facebook. El escalofriante video permaneció por horas el domingo antes de ser eliminado por Facebook. Continúa siendo compartido en línea.
Steve Stephens, el sospechoso de asesinato Cleveland acusado de publicar el video, fue encontrado muerto este martes en el condado de Erie, Pensilvania, de acuerdo con un reporte de la policía estatal en Twitter.
"Después de una breve persecución, Stephens se disparó a sí mismo", dijo la policía del estado de Pennsylvania.
A todo esto, Facebook tiene en cuenta que queda trabajo por hacer. Justin Osofsky, VP de operaciones globales de la red social, admitió que "tienen mucho por mejorar".
“Deshabilitamos la cuenta del sospechoso a los 23 minutos de recibir el primer reporte sobre el video de asesinato, y dos horas después de recibir un reporte de cualquier tipo”, dijo. Facebook se encuentra ahora en un proceso de revisión sobre cómo etiquetan los videos los usuarios.
Es simplemente el más reciente de una lista de videos inquietantes de asesinato, suicidio, tortura y decapitación publicados en Facebook, si bien por un periodo breve, ya sea a través de transmisiones en vivo o videos cargados.
Lee: Facebook desmantela una operación de ‘me gusta’ falsos
El nuevo video revive preguntas sobre cómo trata la red social el contenido ofensivo. ¿Cuántas personas tiene Facebook en todo el mundo moderando y etiquetando este contenido? ¿Cuál es el tiempo de respuesta promedio para eliminarlo? ¿Facebook guarda el contenido para las fuerzas de la ley una vez que lo eliminan?
Facebook, como varios de sus compañeros de la industria de la tecnología ha permanecido tradicionalmente ambiguo sobre estos detalles, fuera de señalar a sus estándares comunitarios. Facebook llamó al incidente un “crimen horroroso” en un comunicado el lunes.
“No permitimos este tipo de contenido en Facebook”, dijo la empresa en un comunicado proporcionado a CNNTech. “Trabajamos arduamente para mantener un ambiente seguro en Facebook y estamos en contacto con las fuerzas policiales en las emergencias en donde existen amenazas directas a la seguridad física”.
Una fuente cercana a Facebook dice que tiene “miles” de personas revisando el contenido en todo elmundo. Una vez que se reporta un contenido como inapropiado por parte de los usuarios, se revisa típicamente “dentro de 24 horas”.
Recomendamos: Este reportero denunció contenido en Facebook y esto pasó
Facebook depende de una combinación de algoritmos, “empleados reales” y su comunidad de usuarios para detectar el contenido ofensivo, dice Stephen Balkam, fundador y CEO de Family Online Safety Institute, un miembro de la junta de asesores de seguridad de Facebook.
“Ellos tienen evaluadores en Asia, tienen evaluadores en Europa y tienen evaluadores en Norteamérica”, dijo Balkam. Pero al menos una parte de ello proviene de contratistas más costeables provenientes del sur de Asia, de acuerdo con Balkam y otros.
“Es un empleo considerado de bajo nivel [en Silicon Valley]”, dijo Sarah T. Roberts, profesora asistente de la UCLA que estudia la moderación del contenido en línea. “No es el departamento de ingeniería. Es el horrible y necesario producto de estas plataformas”.
Roberts también critica a las empresas de tecnología por poner algo de la responsabilidad en sus usuarios. “De hecho son los usuarios los que se exponen a algo que encuentran inquietante, y después inician el proceso de revisión”, dijo.
En el caso del video del asesinato reciente, pasaron casi dos horas antes de que los usuarios lo reportaran a Facebook, de acuerdo con la compañía. Facebook deshabilitó la cuenta detrás del video 23 minutos después de ello.
En un largo manifiesto sobre el futuro de Facebook publicado en febrero, el CEO Mark Zuckerberg reconoció que “eventos terriblemente trágicos, como suicidios algunos transmitidos en vivo, que quizás podrían haber sido prevenidos si alguien se hubiera percatado antes de lo que estaba sucediendo y reportado antes”.
Zuckerberg dijo que Facebook está desarrollando inteligencia artificial pra etiquetar mejor el contenido del sitio. El sistema “genera ahora cerca de un tercio de todos los reportes al equipo que revisa el contenido”, de acuerdo con una publicación de Zuckerberg.
“Parece como una bala mágica, y no ayudó ayer, ¿o sí?”, dijo Roberts sobre la apuesta por la IA. Facebook no es la única empresa de tecnología que sigue esta ruta. Google dijo a principios de este mes que depende de la IA para señalar contenido que podría ser objetable para sus anunciantes, después de un gran boicot a la marca por el contenido extremista en YouTube.
Recomendamos: 10 tips de Facebook para detectar noticias falsas
Pero mientras Facebook y Google generan centros de videos en su búsqueda por dólares en publicidad, incluso un video ofensivo o extremista que se cuele por las grietas de los moderadores, humanos o IA, es demasiado.
“No creo que entiendan que la respuesta correcta es cero”, dijo Brian Wieser, analista que cubre a ambas empresas en Pivotal Research Group. “Por supuesto que hay cosas que salen mal y haces el esfuerzo por resolver ese problema cuando surge. Pero el estándar debe ser cero”.