Una de las principales áreas en las que Facebook está invirtiendo es la IA, tanto en su negocio de publicidad, como en la vertical de Oculus.
"Las revoluciones industriales pasadas tenían que ver con la mecánica, la electrificación y la distribución. La computación nació para solucionar y automatizar cálculos y ha ido automatizando cosas que eran sencillas de hacer o procesos repetitivos. Pero ahora estamos en el punto en que con la IA estamos llevando esta capacidad a los lugares en que los humanos hacemos análisis y tomamos decisiones", puntualizó el CTO de Facebook.
La empresa liderada por Mark Zuckerberg instaló un laboratorio de investigación de IA casi al mismo tiempo que Google adquirió el laboratorio de investigación de inteligencia artificial DeepMind. Facebook AI Research, como se conoce al laboratorio, ahora se distribuye en varias oficinas de todo el mundo y desde 2014 se ha enfocado a desarrollar soluciones que se usan hoy al interior de la empresa, como sistemas de moderación de contenido.
“Queríamos impulsar esto en la frontera. Analizamos muchas áreas tecnológicas e hicimos una elección muy explícita para construir un laboratorio de investigación centrado exclusivamente en la IA, en lugar de un centro de investigación generalizado, porque sentimos que si pusiéramos toda nuestra energía allí, los resultados serían IA implementada en mejoras para el mundo y para la empresa”, indicó Shroepfer.
Y aunque admite que el uso de este tipo de herramientas también ha generado retos en la plataforma, confía en que el desarrollo de la IA traerá más beneficios que problemas.
"También hay una aplicación clara de la IA en la creación de contenido automatizado. Pero es un área que nos preocupaba por su potencial uso en la desinformación, por lo que optamos conscientemente por no invertir de forma decidida por esta tecnología", comparte el directivo de Facebook.
Su apuesta, por tanto, pasa por reforzar sus actuales tecnologías automáticas de moderación de contenido con una supervisión final a cargo de personas.
"Al final, son problemas humanos y como tales requieren un debate y un consenso social. Decidir lo que es un discurso de odio y lo que no, por ejemplo, requiere de ese ejercicio. Por ello, las herramientas automáticas nos ayudan a aumentar las capacidades humanas para detectar estos mensajes. Pero al final tiene que ser una persona la que tenga esa visión global".
Los cambios que realizó Facebook a las páginas principales de los usuarios en el cuarto trimestre de 2020 permitieron reducir el número de visualizaciones de contenidos relacionados con discursos de odio, contenido violento y gráfico, según afirmó la empresa este jueves. De acuerdo con las cifras compartidas en su informe del cumplimiento de sus normas comunitarias del cuarto trimestre de 2020, Facebook detecta en un 97% este contenido gracias a los nuevos algoritmos, subiendo de un 94% en el trimestre pasado e incrementándose desde un 24% en 2017.
Facebook presentó por primera vez su análisis de cuántos posteos relacionados con discursos de odio encontró en la red en el tercer trimestre de 2020, y en este segundo reporte sobre el tema halló que el número de contenidos cayó a solo "entre 7 y 8 visualizaciones de discurso de odio por cada 10,000 visualizaciones de contenido general", compartió Guy Rosen, VP de Integridad de Facebook, en un comunicado.