Para Facebook, la reducción en el rango que alcanzan las publicaciones engañosas ha sido una de las medidas que más ha promocionado en este sentido, pero también una de la que más problemas le ha generado, especialmente en temas de controversia pública, como elecciones o salud en torno a COVID-19.
En este sentido, los líderes de la red social han mencionado que sus sistemas de Inteligencia Artificial mejoran cada año en la detección de contenido inapropiado. Incluso en agosto pasado, Mark Zuckerberg anunció que el contenido político se reduciría en la interfaz principal para devolverle el tono alegre a la red social.
No obstante, es importante recordar que la moderación de contenido en la plataforma no sólo depende de los sistemas tecnológicos, sino también de personal humano y el año pasado el Wall Street Journal reveló que la empresa prescindió de parte de este equipo para la detección del contenido violento.
Según el diario, Facebook redujo el tiempo en que los revisores humanos se concentraban en las quejas de incitación al odio y realizó ajustes, los cuales incidieron en una reducción del número de quejas. Esto también dio la apariencia de que la IA había tenido éxito en su labor de hacer cumplir las reglas de la compañía.
Si bien este último caso no tuvo un propósito malicioso y genuinamente fue un error, Sahar Massachi, exmiembro del equipo de Integridad Cívica de Facebook, dijo que estos incidentes demuestran por qué es necesaria una mayor transparencia en las plataformas de redes sociales y sus algoritmos, algo que también demandó Frances Haugen, la informante que dio a conocer los Facebook Papers, el año pasado.