¿Por qué Facebook no baja el video de un asesinato en vivo?
La semana pasada, el asesinato de un hombre de 28 años en Chicago fue capturado mientras hacía una transmisión en vivo en Facebook. Un minuto, el hombre estaba transmitiendo en Live a sus amigos, y al siguiente, solo se escuchaban balazos y gritos.
Él recibió un disparo el miércoles por la noche y Facebook aún no ha retirado el video de su plataforma, lo que nos obliga a preguntar: ¿Por qué no?
De acuerdo con Facebook, el video no viola los estándares de su comunidad pues no considera que el video celebre la violencia. Considera que cae dentro de otra categoría: Crear consciencia. En lugar de quitar ese tipo de videos, son etiquetados con una advertencia al usuario.
Es una línea delgada. Cuando un simpatizante de ISIS asesinó a un comandante de policía y lo transmitió en vivo a principios de la semana, se retiró el video.
Los estándares de comunidad de Facebook se dividen en ocho categorías incluyendo ataques a figuras públicas, bullying y acoso, violencia sexual y bienes regulados. Pero exactamente qué permite y cuándo no es tan claro.
Los estándares de comunidad afirman que “buscan encontrar el balance” para mantener seguros a sus usuarios, motivar el comportamiento respetuoso, reconocer la diversidad cultural y empoderar a las personas a controlar lo que ven en su feed.
Pero a la vez que mostrar el video de un asesinato está bien de acuerdo con los estándares de Facebook, mostrar un pezón no lo está. La empresa sí permite, sin embargo, fotos de mujeres que muestran las cicatrices después de una mastectomía o dando pecho. Aunque esto no fue siempre así.
Antes de 2014, las mamas se quejaban de que sus fotografías dando pecho eran removidas. En el 2014, Facebook añadió más contexto a su política para permitir este tipo de imágenes no-sexuales. Esto fue gracias en parte a un movimiento hashtag llamado #FreeTheNipple que llamó la atención a la prohibición de la desnudez femenina en sitios como Instagram y Facebook. Facebook permite desnudos en pinturas, esculturas y arte, pero a veces lo entiende mal.
Por ejemplo, Lee Rowland del ACLU dijo en marzo que le retiraron una publicación porque contenía la imagen de una estatua desnuda. La directora de gestión de políticas Mónica Bickert dijo que esto de hecho no violaba las políticas de Facebook y era tan sólo un error.
Del mismo modo, cuando la artista Illma Gore publicó una foto de Donald Trump con un pene pequeño, fue removida. Los estándares de comunidad de Facebook permiten arte al desnudo publicado por “propósitos educativos, humorosos o satíricos”. De acuerdo con Facebook, esto también fue un error y fue restituido.
Facebook dibuja una gruesa línea sobre vender medicamentos con receta, marihuana, fuegos artificiales o municiones, las cuales dice que están prohibidas en su plataforma. Pero puedes publicar fotos de ti fumando marihuana con una pipa.
Facebook, como otras comunidades en línea, depende de una mezcla de reportes de usuarios y moderación interna para señalar el contenido inapropiado o ilegal. Esto significa que Facebook tiene 1.65 mil millones de personas ayudando a mantener sus estándares, pero lo que se considera “aceptable” no es universal.