Con el objetivo de mantener controlada la dispersión de contenido falso, o dañino, en la plataforma, la red social informó que ha endurecido los controles que tiene al interior de los grupos de Facebook para detectar este tipo de contenido, lo que en el último año le permitió remover un millón de grupos que no respetaron las políticas de la empresa.
“Nuestras Normas Comunitarias aplican tanto para grupos públicos como para privados, y nuestras herramientas proactivas de detección funcionan en ambos. Esto significa que aunque un problema no sea reportado por una persona, nuestra inteligencia artificial detecta contenido potencialmente violatorio y podemos removerlo”, publicó Tom Alison, vicepresidente de ingeniería de Facebook en un comunicado.