Facebook y la cercanía con usuarios
Sobre la retroalimentación que han recibido de parte de los usuarios, sobre posteos que no quieren ver, se encuentran contenidos que tienen titulares que inciten al clic, publicaciones sensacionalistas relacionado con la salud y productos comerciales relacionados con ello, o contenidos que piden a los usuarios comentar o darle like son algunos de los post que no quieren los usuarios.
Además las páginas con una mala experiencia de usuario, como el exceso de anuncios en ellas, o aquellas que requieren muchos clics o piden información personal para ver el contenido son otras de las cuentas que se verán mermadas en términos de distribución.
Con el fin de tener publicaciones de calidad, la empresa recomienda a los creadores a generar mejor contenido, donde quede clara la autoría de un artículo noticioso, ya sea a través de tener el nombre del autor o que el sitio cuente con al menos el directorio de su equipo. Esta regla solo se sigue en territorios en donde ejercer periodismo es seguro, por ello, Facebook realizó una alianza con la organización de derechos humanos Freedom House para establecer cuáles son las regiones en donde no se debe exigir que los autores compartan su identidad.
En términos de crear un ambiente más seguro, Facebook reducirá la distribución de todos los posteos de páginas o personas que han violado en repetidas ocasiones las políticas de la plataforma y esto lo hará tanto con revisiones a manos de humanos, como usando Inteligencia Artificial. El modelo de IA entra primero a revisar el contenido que sea sospechosos y después de ver si puede violar las políticas de la empresa, entonces entra el elemento humano, quien confirma si existe o no una violación.
“Los cambios que realizamos, en particular los que se centran en limitar la difusión de contenido problemático, están basados en amplia retroalimentación de nuestra comunidad global y expertos externos. En los últimos años, hemos consultado a más de 100 stakeholders en una variedad de áreas de enfoque relevantes con el fin de brindar mayor transparencia a nuestros esfuerzos para reducir el contenido problemático”, expresa Anna Stepanov, directora de manejo de producto de Facebook en un comunicado de prensa.