Facebook, Google y YouTube niegan (otra vez) teorías de conspiración
La frase más común en Silicon Valley en este momento puede ser: trataremos de hacerlo mejor la próxima vez.
Cuando Facebook inadvertidamente promovió teorías de conspiración compartidas por los usuarios después de un reciente accidente de Amtrak , la compañía dijo que "iba a trabajar para arreglar el producto".
Cuando Google compartió una teoría de conspiración en sus resultados de búsqueda después de un tiroteo masivo el año pasado en Texas , la compañía dijo que "seguiría buscando formas de mejorar".
Lee: Masacre de Texas revive polémica entre Apple y el FBI .
Y cuando YouTube de Google difundió teorías de conspiración tras el devastador tiroteo en Las Vegas, el servicio de video decidió actualizar su algoritmo para evitar que volviera a suceder.
Lee: Youtube combate información falsa sobre ataque en Las Vegas .
Pero sucedió de nuevo.
Este miércoles, YouTube y Facebook fueron forzados a emitir otro mea culpa por promover teorías de conspiración sobre David Hogg, un estudiante que sobrevivió al tiroteo masivo en una escuela secundaria de Florida la semana pasada.
Lee: El atacante de Florida tuvo acceso a unas 10 armas de fuego, todas rifles .
El video de mayor tendencia en YouTube el miércoles temprano sugirió en letras mayúsculas que Hogg, quien se ha convertido en una voz líder para el control de armas desde el tiroteo, era en realidad un "actor".
YouTube eliminó el video más adelante, pero no antes de que fuera visto cientos de miles de veces. En un comunicado, YouTube dijo que su sistema "clasificó incorrectamente" el video porque contenía imágenes de una transmisión noticiosa de buena reputación.
"Este video nunca debería haber aparecido en Trending", dijo un portavoz de YouTube en un comunicado enviado a CNN, que concluyó con una frase conocida: "Estamos trabajando para mejorar nuestros sistemas en el futuro".
Recomendamos: #NeverAgain, el grito de los jóvenes que piden fin de los tiroteos en escuelas .
En Facebook, Hogg fue un tema de tendencia para los usuarios este miércoles. Pero varios de los principales resultados de su nombre mostraron teorías similares acerca de que Hogg es un actor pagado. (Hogg, por su parte, ha desestimado estas afirmaciones).
Mary deBree, la responsable de política de contenido de Facebook calificó los mensajes como "aborrecibles" en un comunicado y dijo que Facebook estaba eliminando el contenido.
Ciertamente las teorías de conspiración no son nuevas en la vida estadounidense. Pero el potencial de las plataformas tecnológicas para aumentar el alcance de estas teorías es una amenaza social exclusiva de la era moderna.
Lee: El autor del tiroteo en Florida oía demonios en su cabeza .
Este ciclo familiar de grandiosas promesas y expiación sobre este tema habla de una preocupación más profunda sobre si las compañías tecnológicas pueden, o desean, controlar adecuadamente sus propias plataformas masivas.
Tan solo en la última semana, se ha señalado a Google por hacer sugerencias ofensivas para los resultados de búsqueda sobre la cultura negra y la pobreza, y varias grandes empresas de tecnología han sido mencionadas en una acusación federal sobre intromisión en las elecciones rusas.
Para usar el lenguaje preferido de Silicon Valley, ahora es difícil escapar de la conclusión de que la difusión de desinformación y engaños es una característica, no un error, de las plataformas de redes sociales y sus modelos comerciales.
Lee: Unilever amenaza con retirar sus anuncios de Facebook y Google .
Facebook y Google crearon negocios increíblemente rentables al brindar contenido que no pagan ni administran a miles de millones de usuarios, con anuncios colocados en ese contenido. Las plataformas desarrollaron una focalización cada vez mejor para impulsar sus negocios publicitarios, pero no necesariamente una mejor moderación del contenido para animar el discurso del usuario.
Bajo la presión de reguladores y anunciantes en los últimos meses, las dos compañías finalmente se han comprometido a contratar miles de trabajadores adicionales para moderar sus plataformas. Mark Zuckerberg, CEO y cofundador de Facebook, dijo a los inversores en noviembre que la medida podría reducir los márgenes de ganancias de la compañía.
Pero incluso esto podría ser una gota en el cubo en comparación con lo que se necesita.
Facebook dijo que espera tener 20,000 personas trabajando en temas de seguridad a fines de este año. Con 2,100 millones de usuarios, eso equivale a tener un policía patrullando por cada 100,000 ciudadanos.
Lee: Mark Zuckerberg se concentrará en arreglar Facebook en 2018 .
"Las personas sobrestiman los recursos de Facebook y subestiman la cantidad de contenido que maneja Facebook", dijo en un correo electrónico Antonio García Martínez, ex gerente de producto de Facebook que ayudó a desarrollar su sistema de orientación de anuncios. "Facebook tiene que revisar literalmente miles de millones de publicaciones (fotos, mensajes de texto, registros de entrada, etc.) por día".
Como resultado, dice, Facebook "simplemente no puede revisar manualmente todas y cada una de las publicaciones". La compañía a menudo termina confiando en sus usuarios para marcar el contenido cuestionable. Martínez dice que esto puede crear un "retraso de tiempo" antes de llamar la atención del personal de Facebook.
Google se enfrenta a un problema similar. A pesar de aumentar la contratación, YouTube no cuenta con personas que seleccionen qué videos aparecen en sus listas de tendencias porque tiene tantas pestañas de tendencias actualizadas constantemente en todo el mundo.
Lee: YouTube ofrece más transparencia en EU sobre videos publicados por medios .
Al igual que con tantas cosas en la industria de la tecnología, la solución preferida es más tecnología, lo que permite a las empresas seguir operando a una escala masiva que las convierte en propuestas atractivas para inversores y anunciantes.
Tanto Facebook como Google están invirtiendo en soluciones de inteligencia artificial para limpiar sus plataformas. La IA puede permitir que las compañías controlen mejor sus plataformas sin tener que contratar a cientos de miles de trabajadores.
Pero si llega este tipo de panacea, será en un futuro lejano. Zuckerberg ha dicho que tomará "muchos años desarrollar completamente estos sistemas". Mientras tanto, nuevas teorías de conspiración esperan a convertirse en tendencia.