Publicidad
Publicidad

Facebook eliminó un millón de grupos en los últimos 12 meses

La red social dijo que ha endurecido los procesos para detectar contenido de odio, automatizado, falso o dañino en su plataforma.
jue 17 septiembre 2020 04:21 PM
facebook
Uno de los puntos que preocupa a Facebook es la diseminación de fake news de salud (Foto: Reuters)

Con el objetivo de mantener controlada la dispersión de contenido falso, o dañino, en la plataforma, la red social informó que ha endurecido los controles que tiene al interior de los grupos de Facebook para detectar este tipo de contenido, lo que en el último año le permitió remover un millón de grupos que no respetaron las políticas de la empresa.

“Nuestras Normas Comunitarias aplican tanto para grupos públicos como para privados, y nuestras herramientas proactivas de detección funcionan en ambos. Esto significa que aunque un problema no sea reportado por una persona, nuestra inteligencia artificial detecta contenido potencialmente violatorio y podemos removerlo”, publicó Tom Alison, vicepresidente de ingeniería de Facebook en un comunicado.

Publicidad

Una de las verticales sobre las que más se ha trabajado es en “limpiar” los grupos relacionados a información de salud de fake news. La organización Avaaz, citada por la agencia Reuters, comunicó que el contenido de salud engañoso sumó cerca de 3,800 millones de visitas en Facebook durante 2019, mismos que registraron un pico en medio de la pandemia por COVID-19.

Otros resultados del trabajo continuo por mantener seguros los grupos en la red social reflejaron que se removieron 1.5 millones de contenidos relacionados a discursos de odio organizado, además de 12 millones de contenidos que violaron las políticas de discursos de odio. Facebook informó que 87% de esta remoción se hizo de forma proactiva al usar herramientas de inteligencia artificial.

Publicidad

Más acciones

Hacia adelante Facebook informó que tomarán nuevas medidas para evitar que se violenten las normas comunitarias de la plataforma, como por ejemplo, habilitar administradores autorizados en grupos que ya han tenido antecedentes de no cumplir con las reglas.

“Los administradores activos pueden ayudar a mantener a la comunidad y promueven conversaciones más productivas. Por lo que ahora sugerimos roles administrativos a los miembros que puedan estar interesados. Tomamos en cuenta una serie de factores para estas sugerencias, incluyendo si las personas tienen un historial de violaciones a nuestras Normas Comunitarias”, dijo el documento de Facebook.

En caso de que un grupo se quede sin administrador, el grupo podrá ser archivado.

Por otro lado, en el caso de que haya una reincidencia, dicho administrador de grupo no podrá crear otro nuevo por cierto tiempo y en caso de que se continúen violentando las reglas comunitarias de los grupos, la red social dijo que está en posición de eliminar un grupo.

Publicidad

Otro de los focos de la red social que dirige Mark Zuckerberg es el tomar acciones frente a grupos que promueven la violencia, como grupos que representan un riesgo, sobre todo para la seguridad en Estados Unidos, como QAnon, un grupo paramilitar que promueve actos anarquistas en dicho país.

“E xtendimos nuestra política para lidiar con organizaciones y movimientos que han demostrado representar un riesgo a la seguridad pública, como QAnon, organizaciones paramilitares ubicadas en Estados Unidos y grupos anarquistas que apoyan actos violentos en las protestas”, citó Facebook.

Estos nuevos controles y una mayor vocalización de medidas de seguridad en sus redes y grupos ocurre a unos meses de que se den elecciones presidenciales en Estados Unidos, y tomando como precedente que en los comicios de 2018, se detectó actividad de diversos grupos que usaban Facebook para difundir información falsa, algunos provenientes de Rusia, y grupos pagados como Cambridge Analytica, que buscaban usar los datos de los usuarios con fines malintencionados relacionados al voto o para manipular la opinión pública en torno a las elecciones de dicho país.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad