Publicidad
Revista Digital

Síguenos en nuestras redes sociales:

Publicidad

Facebook prescindió de humanos en algunas áreas y ahora sufre en la moderación

Un nuevo informe de The Wall Street Journal apunta a que la empresa redujo sus equipos humanos para preferir la IA, pero esta no ha logrado solventar los problemas de moderación de contenido.
lun 18 octubre 2021 09:10 AM
Facebook
Los sistemas automatizados apenas logran eliminar entre el 3 y 5% de contenidos de odio.

Las preocupaciones de Facebook en torno a la moderación del contenido en su plataforma continúan, pues un nuevo informe de The Wall Street Journal reveló que la empresa prescindió de equipo humano en la detección de contenido violento para utilizar Inteligencia Artificial, la cual eliminó este tipo de publicaciones de forma inconstante.

En el informe del periódico estadounidense se afirma que hace un par de años, Facebook redujo el tiempo en que los revisores humanos se concentraban en las quejas de incitación al odio y realizó ajustes, los cuales incidieron en una reducción del número de quejas. Esto también dio la apariencia de que la IA había tenido éxito en su labor de hacer cumplir las reglas de la compañía.

No obstante, un equipo de empleados descubrió en marzo que los sistemas automatizados apenas lograron eliminar entre el 3 y 5% de los discursos de odio dentro de la plataforma, y menos del 1% de todo el contenido que infringía sus reglas contra la violencia.

Publicidad

Cabe mencionar que si el contenido incumple con las reglas de la red social, pero el algoritmo no es lo suficientemente capaz para detectarlo y eliminarlo, su reacción es dejarlo en la red social, pero mostrarlo con menos frecuencia, mientras las cuentas que publicaron el material permanecen impunes.

“El problema es que no tenemos y posiblemente nunca tendremos un modelo que capture incluso la mayoría de los daños a la integridad, particularmente en áreas sensibles”, escribió un ingeniero senior de Facebook en una nota interna a mediados de 2019, la cual recuperó WSJ.

Después de que se diera a conocer la investigación, Guy Rosen, vicepresidente de integridad de Facebook, aseguró que la plataforma había reducido en un 50% la prevalencia del discurso de odio en los últimos tres años y que la narrativa de que la IA es inadecuada para combatir los discursos de odio es falsa.

“No queremos ver odio en nuestra plataforma, ni tampoco nuestros usuarios o anunciantes y somos transparentes sobre nuestro trabajo para eliminarlo. Lo que demuestran estos documentos es que nuestro trabajo de integridad es un viaje de varios años. Si bien nunca seremos perfectos, nuestros equipos trabajan para desarrollar sistemas, identificar problemas y crear soluciones”, escribió Rosen.

Publicidad

También mencionó que centrarse únicamente en la eliminación de contenido era “la forma incorrecta de ver cómo luchamos contra el discurso de odio”, pues ese es uno de los métodos de Facebook para combatirlo y siempre se debían asegurar de que algo cumplía con ciertos estándares para ser considerado como tal.

Sin embargo, los documentos de WSJ alegan que existe contenido que ni siquiera la IA es capaz de diferenciar y lo etiqueta de forma errónea. Ejemplo de ello son videos de tiroteos que se mostraron en la interfaz de los usuarios, pues la IA los había etiquetado como “juegos de Paintball”.

La empresa también resaltó que los documentos revisados por el diario estaban desactualizados y que ya han impulsado acciones en torno a este asunto. El mes pasado, Facebook dijo que sus sistemas de IA estaban mejorando para eliminar de forma proactiva el contenido que viola sus estándares de discurso de odio, además de que cuentan con un grupo de 40,000 personas para moderar contenido.

Incluso refirieron que sus sistemas artificiales ahora eliminan 15 veces más contenido de este tipo que en 2017, así como haber realizado una inversión de 13,000 millones de dólares en equipos y tecnología enfocados en seguridad y privacidad desde 2016 a la fecha.

Publicidad
Publicidad
Publicidad