El incómodo rol de Facebook para censurar el contenido perturbador

El diario 'The Guardian' publicó las directrices de cómo la red social -que enfrenta problemas con videos de suicidios y asesinatos publicados en su plataforma- decide qué contenido violento censura.
Las amenazas contra líderes de Estado están prohibidas, pero publicar autolesiones e intentos de suicidio, sí está permitido.
Reglas  Las amenazas contra líderes de Estado están prohibidas, pero publicar autolesiones e intentos de suicidio, sí está permitido.  (Foto: CNNEspañol)
NUEVA YORK (CNNMoney) -

Facebook se está enfrentando a muchas críticas por la manera como maneja el contenido violento y perturbador que los usuarios publican en la red.

Mientras la compañía enfrenta problemas con los videos de suicidios y asesinatos publicados en su plataforma, un reporte del diario británico The Guardian da nuevas ideas sobre el incómodo rol que ahora juega el gigante de las redes sociales como regulador de contenidos.

Este reporte está basado documentos filtrados que presuntamente establecen las reglas internas y las directrices que Facebook usa para revisar publicaciones que contienen violencia, discursos de odio, desnudez, lesiones propias y terrorismo. Esto resalta el problema de la compañía para censurar contenido dañino sin que sea acusado de pisotear la libertad de expresión.

Lee: Facebook busca prevenir los suicidios entre sus usuarios

The Guardian dice que los documentos fueron “suministrados a moderadores de Facebook el año pasado”.

Facebook se negó a confirmar el reporte de The Guardian, pero tampoco lo negó.

“Trabajamos duro para hacer Facebook tan seguro como sea posible mientras permitimos la libertad de expresión”, le dijo a CNNMoney en un comunicado Monika Bickert, líder de política global de manejo de la compañía.

“Esto requiere de mucha reflexión a preguntas detalladas y a menudo difíciles, y hacerlo bien es algo que nos tomamos muy en serio”, agregó.

El director ejecutivo de Facebook, Mark Zuckerberg, anunció a principios de este mes que la compañía iba a contratar a 3,000 personas más para ayudar a “revisar millones de reportes que nos llegan cada semana”.

Estos son los tres puntos principales del reporte de The Guardian:

1. Las amenazas violentas contra líderes de Estado están prohibidas

El documento instruye a los moderadores de Facebook para que borren comentarios como “alguien que le dispare a Trump”, porque como presidente de Estados Unidos está en una categoría protegida.

Sin embargo, comentarios como “romperle el cuello a esa p***, asegúrate poner toda su presión en la mitad de su garganta”, o “espero que alguien te mate”, pueden ser permitidos en el sitio porque no son tenidos en cuenta como amenazas creíbles.

Los videos de muertes violentas no son siempre borrados porque pueden ayudar a crear consciencia en temas como enfermedades mentales o crímenes de guerra, según las directrices. Por el contrario, esos videos son marcados como contenido perturbador y se esconde de la vista de los menores.

Recomendamos: Facebook y Micosoft, las que mejor pagan a los practicantes

2. Las transmisiones en vivo de personas que intentan lastimarse están permitidas

Facebook permitirá a los usuarios transmitir en vivo autolesiones e intentos de suicidio porque no quiere censurar o castigar a personas que están angustiadas, según los documentos. Si esto no ayuda a la persona, el video será eliminado a menos que el incidente sea considerado como noticioso. A los moderadores se les aconseja ignorar amenazas de suicido expresadas a través de hashtags o emoticones, o cuando no sea probable que el método propuesto sea exitoso.

Facebook ha dicho en el pasado que esta en una posición única para hacer más sobre la epidemia del suicidio. En marzo anunció que estaba haciendo pruebas de la habilidad de un sistema de inteligencia artificial para identificar las publicaciones potenciales de “suicidio o daño autoinflingido” basados en patrones de reconocimiento de publicaciones que han sido marcadas anteriormente en el sitio.

La compañía dijo en un comunicado a CNNMoney que está tratando de hacer que sea más fácil para que los revisores contactar a las autoridades cuando alguien necesite ayuda. La meta, dice Facebook, es proporcionar recursos a alguien de una manera más oportuna.


El crimen de Facebook

3. Los desnudos son aparentemente un área gris

Los documentos muestran las nuevas directrices luego de las críticas que recibió Facebook el año pasado por borrar una icónica foto de la Guerra de Vietnam porque la niña en la foto estaba desnuda. Esa imagen ahora está permitida bajo “excepciones noticiosas”.

Fotos de “niños desnudos en el contexto del Holocausto”, sin embargo, no están permitidas en el sitio.

El arte “hecho a mano” que muestre desnudez o actividad sexual está permitida, según los documentos. Digitalmente ese tipo de arte explícito que representa la misma clase de contenido, no está permitido.

Lee: Los chistes de violación, ¿libertad de expresión o violencia?

La pornografía de venganza viola los estándares de abuso de la red social y será eliminada del sitio.

Facebook define pornografía de venganza como compartir fotografías de personas desnudas o semidesnudas a personas que no quieren verlas con el fin de avergonzarlas.

Contradicciones en sus políticas

La firma reconoció este martes que sus políticas de gestión de contenidos pueden parecer contradictorias porque se construyen con las observaciones de expertos de distintas áreas, pero que buscará una forma de ser "más objetivo" y evaluar sus "zonas grises".

"Estamos en constante diálogo con expertos y organizaciones locales para todo, desde seguridad infantil, terrorismo o derechos humanos. A veces, esto significa que nuestras políticas pueden parecer contradictorias", señaló Monika Bickert, responsable de Gestión Global de Políticas.

¿Quieres más noticias como esta?
Conoce las innovaciones y las tendencias tecnológicas más relevantes.

Durante el verano del año pasado, los moderadores se enfrentaron a más de 4,500 informes de daño autoinfligido en dos semanas, y las estadísticas habán de 5,400 en un periodo de dos semanas.

Bickert subrayó que los encargados de revisar los contenidos susceptibles de ser ofensivos han de superar el "obstáculo" de "entender el contexto" de los mismos.

Ahora ve
Estatuas de la Confederación, los símbolos de la discordia
No te pierdas
×