Además enfatizó que ha crecido el equipo que se encarga de moderar y revisar contenido en la plataforma, pues ahora se trata de un grupo de 40,000 personas.
Sin embargo, The Wall Street Journal alegó que Facebook conocía problemas graves como información falsa de COVID-19 y efectos emocionales negativos en los usuarios, pero retrasó la solución por temor a debilitar el compromiso con sus plataformas. El ejecutivo de Facebook, Nick Clegg, emitió una refutación durante el fin de semana, acusando al periódico de "caracterizaciones erróneas deliberadas de lo que estamos tratando de hacer".
"En el pasado, no abordamos los desafíos de seguridad y protección lo suficientemente temprano en el proceso de desarrollo de productos", dijo Facebook . “Pero hemos cambiado fundamentalmente ese enfoque. Hoy, incorporamos equipos que se centran específicamente en los problemas de seguridad y protección directamente en los equipos de desarrollo de productos, lo que nos permite abordar estos problemas durante nuestro proceso de desarrollo de productos, no después de él", indicó la compañía.
Las nuevas cifras de la empresa indican que la compañía ha cuadriplicado su personal enfocado en esta área, pues en 2017, empleó a 10,000 personas para este fin y prometió duplicar el número en un año.
Aunque la empresa afirma que el gasto ha sido de varios miles de dólares, no precisa los montos a lo que se ha destinado la inversión, pero señala que además del equipo de moderación, ha invertido y mejorado su inteligencia artificial.
“Nuestros sistemas de IA han mejorado para mantener a las personas más seguras en nuestra plataforma. Por ejemplo, eliminando de forma proactiva el contenido que infringe nuestras políticas sobre el discurso del odio. Ahora eliminamos 15 veces más contenido de este tipo en Facebook e Instagram que cuando empezamos a reportarlo en 2017”, precisó la empresa, misma que aprovechó para decir que gracias a estos filtros se han bloqueado 3,000 millones de cuentas falsas entre enero y junio de 2021.