Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Facebook expuso contenido inapropiado durante seis meses por error

El problema en realidad estuvo presente desde 2019, pero en ese entonces no representó un problema notable para la empresa, que lo solucionó el 11 de marzo.
vie 01 abril 2022 10:00 AM
Los esfuerzos de Facebook para moderar contenido son en vano
Aunque Facebook gasta miles de millones de dólares para mantener el contenido ofensivo fuera de su plataforma, sus propios empleados ya se habían dado cuenta de la insuficiencia de sus esfuerzos.

La moderación de contenido es un asunto que suele poner en aprietos a Facebook y en esta ocasión, un nuevo informe apunta que una “falla de clasificación masiva” expuso a millones de usuarios a publicaciones de noticias falsas o contenido violento durante los últimos seis meses.

De acuerdo con un informe realizado por un grupo de ingenieros de la red social y al cual tuvo acceso The Verge, este problema fue detectado por primera vez en octubre del año pasado, cuando comenzó a fluir una oleada de información errónea a través de la plataforma.

Cabe mencionar que en realidad la brecha se produjo desde 2019, pero en ese entonces no representó un impacto notable para la red social, por lo que pasó desapercibido para los desarrolladores hasta que comenzó a generar problemas.

Publicidad

Sin embargo, la red de verificadores de la empresa no suprimió las publicaciones, sino que continuó distribuyéndolas en el Feed de noticias, lo cual generó un aumento en las vistas de hasta el 30% a nivel mundial. Este problema disminuyó al cabo de unas semanas, pero se volvió a intensificar hasta que encontraron una solución el 11 de marzo.

Joe Osborne, vocero de Meta, confirmó el incidente por medio de un comunicado, donde detalló que se detectaron inconsistencia en la reducción de este contenido en cinco ocasiones distintas.

Durante el periodo de octubre a marzo, los sistemas de la red social no hicieron nada en contra de contenido prohibido, como posible desnudez, violencia, así como los medios estatales rusos que dejarían de recomendar, tras la invasión de Rusia a Ucrania. El informe detalla que este problema se designó con la etiqueta de nivel uno, la cual está reservada a crisis de alta prioridad.

“Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias”, mencionó Osborne, quien también destacó que este problema no tuvo un “impacto significativo a largo plazo en nuestras métricas”.

 

Para Facebook, la reducción en el rango que alcanzan las publicaciones engañosas ha sido una de las medidas que más ha promocionado en este sentido, pero también una de la que más problemas le ha generado, especialmente en temas de controversia pública, como elecciones o salud en torno a COVID-19.

En este sentido, los líderes de la red social han mencionado que sus sistemas de Inteligencia Artificial mejoran cada año en la detección de contenido inapropiado. Incluso en agosto pasado, Mark Zuckerberg anunció que el contenido político se reduciría en la interfaz principal para devolverle el tono alegre a la red social.

No obstante, es importante recordar que la moderación de contenido en la plataforma no sólo depende de los sistemas tecnológicos, sino también de personal humano y el año pasado el Wall Street Journal reveló que la empresa prescindió de parte de este equipo para la detección del contenido violento.

Según el diario, Facebook redujo el tiempo en que los revisores humanos se concentraban en las quejas de incitación al odio y realizó ajustes, los cuales incidieron en una reducción del número de quejas. Esto también dio la apariencia de que la IA había tenido éxito en su labor de hacer cumplir las reglas de la compañía.

Si bien este último caso no tuvo un propósito malicioso y genuinamente fue un error, Sahar Massachi, exmiembro del equipo de Integridad Cívica de Facebook, dijo que estos incidentes demuestran por qué es necesaria una mayor transparencia en las plataformas de redes sociales y sus algoritmos, algo que también demandó Frances Haugen, la informante que dio a conocer los Facebook Papers, el año pasado.

 
Publicidad
Publicidad