Facebook se la ve difícil para eliminar contenido violento sin que sea censura
Facebook está bajo muchas críticas por la manera en que trata el contenido violento y explícito.
Mientras la empresa lucha por lidiar con los videos de suicidio y homicidio publicados en su plataforma, un reporte de The Guardian da una nueva perspectiva sobre el papel incómodo del gigante de las redes sociales como regulador de contenido.
El reporte se basa en un documento filtrado en el que supuestamente se establecen las reglas internas y normatividad usadas por Facebook para revisar las publicaciones que contienen violencia, lenguaje de odio, desnudez, autolesiones y terrorismo. Este señala la dificultad de la empresa para censurar contenido dañino sin ser acusado de pisotear la libertad de expresión.
The Guardian dice que los documentos fueron “entregados a los moderadores de Facebook el año pasado”. La red social se negó a confirmar el reporte, pero tampoco lo negó.
"Trabajamos duro para hacer de Facebook un lugar tan seguro como sea posible permitiendo la libertad de expresión”, dijo Monika Bickert, la directora de políticas globales de la compañía en un comunicado para CNNMoney. "Esto exige mucha atención sobre preguntas detalladas y frecuentemente difíciles, y lograr que funcione es algo que nos tomamos con mucha seriedad”, detalló.
El CEO de Facebook, Mark Zuckerberg, anunció a principios de este mes que la empresa estaría contratando a 3,000 personas más para ayudar a “revisar los millones de reportes que recibimos cada semana”.
Estos son los principales puntos del reporte de The Guardian:
Amenazas violentas contra jefes de Estado
Los documentos instruyen a los moderadores de Facebook que eliminen los comentarios como “Alguien, dispárele a Trump”, porque como presidente de Estados Unidos se encuentra en una categoría protegida.
Sin embargo, comentarios como “para romper el cuello de una p*ta, asegúrate de aplicar toda la presión en el centro de su garganta”, o “Espero que alguien te mate”, pueden permanecer en el sitio pues no son considerados creíbles.
Los videos de muertes violentas tampoco son eliminados siempre, pues pueden ayudar a generar consciencia sobre asuntos como salud mental o crímenes de guerra, de acuerdo con la normatividad. Esos videos se marcan como inquietantes y se esconden a los menores.
Transmisiones en vivo de personas lesionándose están permitidas
Facebook permitirá a los usuarios a transmitir videos en vivo de autolesiones e intentos de suicidio pues no busca censurar o castigar a la gente afligida , de acuerdo con los documentos. Si la persona no puede recibir ayuda, la transmisión será retirada, a menos que el incidente sea considerado de interés periodístico.
Los moderadores tienen sugerido ignorar amenazas suicidas expresadas a través de hashtags o emoticones, o cuando el método propuesto probablemente no funcione.
Facebook ha dicho en el pasado que se encuentra en una posición única para hacer algo sobre la epidemia de suicidios. En marzo pasado, anunció que estaba probando la habilidad de la inteligencia artificial para identificar publicaciones de “suicidios o autolesiones” potenciales basados en reconocimiento de patrones de publicaciones pasadas en el sitio.
La empresa dijo en un comunicado a CNNMoney que está intentando facilitar a los revisores el contacto a las agencias de seguridad en caso de que alguien necesite ayuda. La meta, dice Facebook, es proporcionar los recursos de manera oportuna.
La desnudez es un área gris
Los documentos muestran una nueva normativa sobre la desnudez después de que los críticos atacaran a Facebook el año pasado por eliminar una foto icónica de la Guerra de Vietnam porque la niña en la imagen estaba desnuda. Tales imágenes ahora están permitidas bajo “excepciones de interés periodístico”.
El arte "hecho a mano” que muestra desnudez y actividad sexual está permitida, según muestran los documentos. El arte digital que muestra el mismo tipo de contenido, no.
El porno por venganza viola los estándares de abuso de la red social y será eliminado del sitio. Facebook lo define como el compartir fotos de desnudos o casi desnudos de alguien públicamente o a personas con quienes no querían compartirlas para avergonzarlas.
Jethro Mullen contribuyó a este reportaje.