Publicidad
Publicidad

¿Qué son los Facebook Papers? Salen a la luz informes internos de la red social

La información con más de 10,000 páginas otorga una visión profunda sobre la compañía y su enfoque en temas como la desinformación y la moderación de contenido.
lun 25 octubre 2021 09:00 AM
Los esfuerzos de Facebook para moderar contenido son en vano
Aunque Facebook gasta miles de millones de dólares para mantener el contenido ofensivo fuera de su plataforma, sus propios empleados ya se habían dado cuenta de la insuficiencia de sus esfuerzos.

Facebook está inmerso en uno de sus periodos más oscuros. Frances Haugen, la exempleada que decidió comparecer ante el Senado de Estados Unidos, presentó más de 10,000 páginas de documentos internos de la empresa a la Comisión de Valores y Bolsa, al Congreso de EU, así como a un consorcio de 17 medios de comunicación.

Estos documentos han sido llamados “The Facebook Papers” y ofrecen una visión profunda acerca de la cultura interna de la compañía, además de un enfoque muy revelador en torno a sus preocupaciones por la desinformación, la moderación de los discursos de odio e incluso la poca aceptación de la red social entre el público más joven.

De acuerdo con una historia publicada por Bloomberg , uno de los medios que obtuvo la información, si bien Facebook gasta miles de millones de dólares para mantener el contenido ofensivo fuera de su plataforma, algunos de sus propios empleados ya se habían dado cuenta de la insuficiencia de sus esfuerzos.

Y es que según los documentos, el equipo de integridad de Facebook, el cual se encarga de detener el flujo de publicaciones dañinas, está librando una batalla perdida para eliminar dicho contenido problemático. Sin embargo, la base de todo ese asunto era el propio algoritmo de la red social.

Publicidad

Los empleados detallaron que dicho algoritmo estaba orientado a mantener a las personas en la plataforma para seguir monetizando su atención a partir de anuncios y a pesar de que Facebook promocionó públicamente sus inversiones en tecnología e ingenieros para mantener el contenido ofensivo fuera, la compañía reconoció internamente que esas labores fracasaban.

Asimismo, se detalla que las propuestas de los empleados para solucionar tales situaciones modificando la forma en que los algoritmos deciden qué contenido mostrar, a menudo fueron bloqueadas o incluso anuladas.

Joe Osborne, un portavoz de Facebook, dijo a Bloomberg que no es exacto sugerir que la red social fomenta el contenido inadecuado y citó una investigación externa, la cual halló que la plataforma no es un factor importante de polarización. “Seguimos realizando mejoras significativas para abordar la propagación de información errónea y contenido dañino”, dijo.

Cabe mencionar que en el informe también se detalla que disminuir el contenido ofensivo, incluso en un 90%, no afectaría la promoción de publicaciones que fueron amplificadas por los algoritmos, por lo que el contenido cuestionable sería uno de los elementos principales en el feed del usuario.

Publicidad

Según el documento de 2019, los ingenieros contaban con “evidencia convincente de que la mecánica de nuestro producto central, como la viralidad, las recomendaciones y la optimización para el compromiso son una parte importante de por qué este tipo de discurso florece en la plataforma. La mecánica de nuestra red social no es neutral”.

Tal información coincide con la mencionada por Haugen durante su comparecencia ante el Senado, donde mencionó que los dirigentes de Facebook e Instagram “saben cómo hacer que sus plataformas sean más seguras, pero no hacen los cambios necesarios porque han antepuesto sus astronómicos beneficios a las personas”.

Así es como Facebook decide los niveles de protección en el mundo

Gracias a los documentos también se ha hecho público la forma en que Facebook ha decidido clasificar a los países del mundo en niveles para priorizar su atención en la moderación de contenido, especialmente en periodos de elecciones en las diferentes naciones.

De esta manera, Brasil, India y Estados Unidos fueron colocados en el “nivel cero”, es decir, la máxima prioridad. Derivado de ello, la empresa estableció “salas de guerra” para monitorear la red de manera continua e incluso crearon paneles para analizar la actividad, así como alertar a los funcionarios locales de cualquier problema.

Publicidad

Alemania, Indonesia, Irán, Israel e Italia fueron colocados en el “nivel uno”, a partir del cual les darían recursos similares, pero les faltarían algunos para cumplir las reglas de la red social y para las alertas fuera del periodo de las elecciones. En “nivel dos” se agregaron a 22 países, los cuales prescindían de las “salas de guerra” o también llamadas “centros de operaciones mejorados”.

Por último al resto del mundo se le colocó en el “nivel tres”, donde Facebook anunció que sólo revisaría el material relacionado con las elecciones si los moderadores de contenido se lo solicitaran. De lo contrario, no intervendrían en el proceso.

En las naciones considerados de alto riesgo de violencia política o inestabilidad social, Facebook ofrece servicios diseñados para proteger el discurso público, como traducir el servicio y sus normas a los idiomas oficiales; la creación de clasificadores de inteligencia artificial para detectar discursos de odio e información errónea en esos idiomas; así como equipos para analizar el contenido y responder a engaños o incitación de la violencia.

Sin embargo, en países africanos como Etiopía no se han implementado ninguna de estas medidas aun cuando dicha nación se encuentra inmersa en una guerra civil en la que la red social ocupa un papel fundamental, pues a través de ella grupos armados difunden discursos de odio que incitan a la violencia contra las minorías étnicas.

Facebook sí ha sido criticada por asignar recursos en los países de forma diferenciada, debido a su importante papel en el discurso público. Desde hace varios años, activistas y legisladores de todo el mundo han criticado este enfoque desigual.

Según una declaración de Miranda Sissons, directora de política de derechos humanos de Facebook, a The Verge, la asignación de recursos reflejan las prácticas sugeridas por la ONU en sus Principios Rectores sobre Empresas y Derechos Humanos , los cuales apuntan que las compañías consideren el impacto de su labor en los derechos humanos y trabajen para mitigar cualquier problema en función de su escala, gravedad y si la empresa puede diseñar una solución para ellos.

Cabe resaltar que incluso en los Estados Unidos, donde Facebook invierte más en la moderación de contenido, los empleados no estuvieron preparados para controlar la avalancha de información errónea dentro de la red social que condujo al ataque al Capitolio en enero de este año, de acuerdo con una publicación del Washington Post .

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad