Publicidad
Publicidad

¿Menos alcance en Facebook? Estas son las razones

A partir de este jueves, la plataforma cuenta con un apartado de consulta sobre qué contenidos reciben menos distribución en la red y por qué.
jue 23 septiembre 2021 11:26 AM
detalle de smartphone con la caratula de Facebook
La empresa informó medidas en la plataforma para que los ciudadanos Ucranianos se protejan.

En un esfuerzo por esclarecer las dudas de los usuarios sobre por qué sus publicaciones no tienen el alcance esperado, Facebook tiene a partir de este jueves un apartado dentro de su plataforma llamado “Normas de Distribución de Contenido” que sirve como guía para resolver esta duda.

Esta sección, que se encuentra dentro del Centro de Transparencia de la plataforma, es una guía en donde se detalla cuáles son los contenidos que la plataforma considera como problemáticos o de baja calidad dentro de la sección de Noticias.

"Estas nuevas guías responden a la retroalimentación directa de los usuarios, buscan incentivar a los creadores de contenido a generar publicaciones de alta calidad y con contenido preciso y, por último, buscan generar un ambiente más seguro para la comunidad", dijo en una mesa redonda con medios, Jason Hirsch, Head de políticas de legitimidad e integridad de Facebook.

Publicidad

Facebook y la cercanía con usuarios

Sobre la retroalimentación que han recibido de parte de los usuarios, sobre posteos que no quieren ver, se encuentran contenidos que tienen titulares que inciten al clic, publicaciones sensacionalistas relacionado con la salud y productos comerciales relacionados con ello, o contenidos que piden a los usuarios comentar o darle like son algunos de los post que no quieren los usuarios.

Además las páginas con una mala experiencia de usuario, como el exceso de anuncios en ellas, o aquellas que requieren muchos clics o piden información personal para ver el contenido son otras de las cuentas que se verán mermadas en términos de distribución.

Con el fin de tener publicaciones de calidad, la empresa recomienda a los creadores a generar mejor contenido, donde quede clara la autoría de un artículo noticioso, ya sea a través de tener el nombre del autor o que el sitio cuente con al menos el directorio de su equipo. Esta regla solo se sigue en territorios en donde ejercer periodismo es seguro, por ello, Facebook realizó una alianza con la organización de derechos humanos Freedom House para establecer cuáles son las regiones en donde no se debe exigir que los autores compartan su identidad.

En términos de crear un ambiente más seguro, Facebook reducirá la distribución de todos los posteos de páginas o personas que han violado en repetidas ocasiones las políticas de la plataforma y esto lo hará tanto con revisiones a manos de humanos, como usando Inteligencia Artificial. El modelo de IA entra primero a revisar el contenido que sea sospechosos y después de ver si puede violar las políticas de la empresa, entonces entra el elemento humano, quien confirma si existe o no una violación.

“Los cambios que realizamos, en particular los que se centran en limitar la difusión de contenido problemático, están basados en amplia retroalimentación de nuestra comunidad global y expertos externos. En los últimos años, hemos consultado a más de 100 stakeholders en una variedad de áreas de enfoque relevantes con el fin de brindar mayor transparencia a nuestros esfuerzos para reducir el contenido problemático”, expresa Anna Stepanov, directora de manejo de producto de Facebook en un comunicado de prensa.

Publicidad

Para Facebook, estas son las razones por las que un contenido publicado en la sección de Noticias tiene una reducción de su alcance:

Como respuesta a comentarios directos de las personas, al recibir retroalimentación directa de la gente que está recibiendo ese contenido.

Como incentivo a los creadores para que inviertan en contenido preciso y de alta calidad. En ese caso, la empresa cuenta que están trabajando en la creación de estos incentivos.

Para fomentar una comunidad más segura, sin importar la intención con la que se publicaron los contenidos, si estos son problemáticos para la comunidad, recibirán menor alcance.

Desde 2016, Facebook cuenta con un programa de verificación de datos para reducir o evitar que la información errónea o falsa se viralice, reduciendo la distribución de los contenidos que han sido señalados por un verificador independiente como problemático. En el último año, además, ha agregado elementos como añadir el “Lee Primero” cuando un usuario comparte una publicación sin antes abrirla.

Esta misma semana, luego de reportes realizados por The Wall Street Journal sobre que Facebook conocía que existía información falsa sobre COVID-19 y sobre efectos negativos ante sus usuarios (tanto en esta red como en Instagram), pero que no hizo nada al respecto para no reducir el compromiso de sus usuarios en la plataformas, la empresa dio a conocer que desde 2016 ha invertido 13,000 millones de dólares en equipos y tecnología enfocadas en seguridad y privacidad e incluso, que gracias a tecnología como Inteligencia Artificial ha logrado bloquear más de 3,000 millones de cuentas falsas tan solo de enero a junio de 2021.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad