Las preocupaciones de Facebook en torno a la moderación del contenido en su plataforma continúan, pues un nuevo informe de The Wall Street Journal reveló que la empresa prescindió de equipo humano en la detección de contenido violento para utilizar Inteligencia Artificial, la cual eliminó este tipo de publicaciones de forma inconstante.
En el informe del periódico estadounidense se afirma que hace un par de años, Facebook redujo el tiempo en que los revisores humanos se concentraban en las quejas de incitación al odio y realizó ajustes, los cuales incidieron en una reducción del número de quejas. Esto también dio la apariencia de que la IA había tenido éxito en su labor de hacer cumplir las reglas de la compañía.
No obstante, un equipo de empleados descubrió en marzo que los sistemas automatizados apenas lograron eliminar entre el 3 y 5% de los discursos de odio dentro de la plataforma, y menos del 1% de todo el contenido que infringía sus reglas contra la violencia.