Publicidad
Publicidad

¿Están preparadas las tecnológicas para este nuevo desafío: las ‘deepfakes’?

Los videos que superponen los rostros de personas sobre movimientos y voz de otras, serán una nueva arma de desinfomación que las redes sociales deberán combatir.
mar 14 agosto 2018 06:26 AM
'Deepfakes'
Deepfakes. Twitter, YouTube y Reddit también son objetivos naturales.

NUEVA YORK (CNNMoney) - A principios de este año, Mark Zuckerberg insistió en la conferencia anual de desarrolladores de Facebook que su compañía “nunca estará desprevenida... de nuevo” ante los esfuerzos de intromisión y desinformación que realizaron los trolls rusos en su plataforma durante el periodo previo a las elecciones de 2016.

Sin embargo, el gigante de las redes sociales y sus competidores aún podrían estar mal preparados para su próximo gran desafío: videos falsos que parecen tan reales que uno pensaría que el expresidente estadounidense Barack Obama realmente llamó al presidente Trump “dipshit”.

Plataformas como Facebook, Twitter y YouTube han estado trabajando recientemente para lidiar con amenazas planteadas por la desinformación y la intromisión que no vieron venir, pero ahora enfrentan una forma emergente de desinformación que ya saben que está en el horizonte: los deepfakes: videos manipulados que eventualmente engañarán incluso a los ojos más perspicaces.

A medida que avanza la tecnología para crear avances en este tipo de videos, no pasará mucho tiempo antes de que sean usados para fomentar la discordia o incluso para afectar una elección, dicen los expertos.

Lee: Obama falso habla del futuro de las fake news

“La oportunidad para los mentirosos maliciosos crecerá a pasos agigantados”, dijo Bobby Chesney, profesor y subdecano de la Facultad de Derecho de la Universidad de Texas, quien ha estado investigando a fondo los deepfakes.

Publicidad

Twitter, YouTube y Reddit también son objetivos naturales para los deepfakes, y es de esperarse que las plataformas marginales y los sitios web porno estén inundados con ellos.

Sin embargo, cuando CNNMoney les preguntó qué estaban haciendo para prepararse para este problema en ciernes, ninguna de las principales plataformas de redes sociales quiso discutirlo a detalle.

Las empresas no nombraron a los investigadores con los que están trabajando, cuánto dinero destinarán a la detección ni siquiera mencionaron cuántas personas asignaron para resolverlo.

Ninguno de ellos ofreció mucho más que vagas explicaciones en la línea de la promesa de Facebook de “proteger a la comunidad del daño del mundo real”.

Eso no quiere decir que no estén trabajando en eso. Facebook, por ejemplo, dijo que está colaborando con académicos para ver cómo podría aplicarse su investigación a la plataforma.

Un investigador dijo a CNNMoney que Google se comunicó con él. Pero, mientras tanto, los desarrolladores continúan trabajando para perfeccionar su tecnología y hacer que los videos que producen sean más convincentes.

Recomendamos: Situaciones de crisis son caldo de cultivo para 'fake news'

La palabra deepfakes (que podría traducirse como “falsificaciones profundas”) se refiere al uso del aprendizaje profundo, un tipo de aprendizaje de las máquinas, que agrega el rostro y la voz de cualquiera a un video.

Ha sido encontrado principalmente en los rincones más oscuros del Internet, donde algunas personas lo han usado para insertar a exnovias y celebridades en pornografía.

Pero BuzzFeed dio una idea de un posible futuro en abril cuando creó un video que supuestamente mostraba a Obama burlándose de Trump, pero en realidad, el rostro de Obama fue superpuesto a imágenes del cineasta de Hollywood Jordan Peele, utilizando la tecnología deepfake.

Los deepfakes podrían representar una amenaza mayor que las noticias falsas y los memes editados con Photoshop que ensuciaron las elecciones presidenciales de 2016 debido a pueden ser difíciles de detectar y porque las personas están, por ahora, inclinadas a creer que el video es real.

Pero no se trata solamente de videos individuales que pueden propagar información errónea: también existe la posibilidad de que videos como estos convenzan a las personas de que simplemente no pueden confiar en nada que lean, escuchen o vean a menos que respalde las opiniones que ya tienen.

Los expertos dicen que los videos falsos que serán casi imposibles de identificar ya están a solo 12 meses de distancia.

Lee: Twitter endurece medidas contra las 'fake news'

Jonathon Morgan, CEO de New Knowledge, que ayuda a las empresas a luchar contra las campañas de desinformación y que ha hecho algunos análisis para CNN, ve granjas de trolls usando inteligencia artificial para crear y transmitir videos falsos adaptados a los prejuicios específicos de los usuarios de las redes sociales.

Eso es exactamente lo que hicieron los trolls respaldados por Rusia en la Internet Research Agency durante las últimas elecciones presidenciales, pero sin el golpe adicional de video falso.

Aviva Ovadya, tecnóloga en jefe del Center for Social Media Responsibility, dijo que las compañías de medios sociales “todavía están en las etapas iniciales del abordaje de la desinformación de la era de 2016” y que “es muy probable que no exista una infraestructura real” para combatir los deepfakes en el corto plazo.

Muchas plataformas ya aplican reglas sobre la desnudez que podrían aplicarse a cualquier porno falso que puedan encontrar.

Pero ninguna de ellas tiene directrices que rijan los deepfakes en general, dijo Sam Woolley del Digital Intelligence Lab at Institute for the Future. Esto va más allá de GIF tontos o de videos satíricos, hacia un contenido más problemático como, por ejemplo, un video falso de un político o empresario en una situación comprometedora, o imágenes falsas que supuestamente muestren a soldados cometiendo crímenes de guerra.

“Estos ejemplos tienen implicaciones potencialmente mayores para la sociedad y la democracia”, dijo Woolley.

Recomendamos: ¿Por qué las 'fake news' se propagan más rápido?

Las empresas como Facebook y Twitter a menudo argumentan que son plataformas, no editoriales, y señalan que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 de Estados Unidos los exime de la responsabilidad del contenido publicado por los usuarios.

El alboroto reciente sobre comentarios de odio, noticias falsas y desinformación que contaminan las plataformas tecnológicas ha llevado a las compañías a tomar más medidas, incluso si los presidentes ejecutivos que lideran el esfuerzo han sido inconsistentes, incluso francamente desconcertantes, al explicar sus ideas. Aun así, las compañías no han abordado específicamente los videos manipulados.

“No se trata de si toman medidas contra los deepfakes, o de si comienzan a moderar este contenido. Se trata de cuándo”, dijo Woolley. “En este momento, el movimiento es bastante pequeño”.

La infraestructura para combatir los videos falsificados podría provenir del Pentágono: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) está a la mitad de camino de un esfuerzo de cuatro años para desarrollar herramientas para identificar videos deepfake y otras imágenes adulteradas. Los expertos en el campo dijeron que usar algoritmos para analizar datos biométricos es una herramienta prometedora.

Lee: ¿Las 'noticias falsas' también afectan a los niños?

Satya Venneti de la Universidad Carnegie Mellon ha tenido cierto éxito al identificar falsificaciones al analizar los pulsos de personas en videos de ejemplo de deepfakes.

Las personas suelen exhibir un flujo de sangre similar en la frente, las mejillas y el cuello. Pero encontró “señales de frecuencia cardíaca muy variables" en los videos falsificados, algo que sucede cuando un video está cubierto de imágenes.

En algunos casos, ella vio ritmos cardíacos de 57 a 60 latidos por minuto en las mejillas y 108 en la frente. “No es esperable ver diferencias así de grandes”, dijo.

Siwei Lyu, director del Computer Vision and Machine Learning Lab at University at Albany SUNY, describió otro truco en un documento que coescribió en junio: buscar parpadeos regulares.

“Si un video dura 30 segundos y nunca se ve a la persona parpadear, eso es sospechoso”, dijo a CNNMoney.

Después de que su artículo fue publicado, Lyu dijo que los desarrolladores de deepfakes utilizaron su investigación para mejorar con éxito su propio trabajo para evitar su sistema de detección.

Ahora, su equipo está explorando otras formas de identificar falsificaciones, pero se negó a dar detalles porque no quiere revelar nada que pueda ayudar a las personas a crear falsificaciones más convincentes.

“Estamos a la vanguardia”, dijo, y agregó que Google ha expresado interés en colaborar con él.

Recomendamos: El negocio detrás de las noticias falsas

La plataforma de hospedaje de GIFs Gfycat utiliza un algoritmo para examinar los rostros cuadro por cuadro para garantizar que nada ha sido manipulado.

Aun así, el sitio de noticias de tecnología Motherboard encontró que algunos deepfakes eludían la detección de los algoritmos de Gfycat.

Gfycat dijo a CNNMoney que eliminar el contenido marcado por su algoritmo puede demorar algunos días.

Woolley y otros expertos dijeron que Facebook, Twitter y otras plataformas podrían comenzar a adelantarse al problema forjando una asociación amplia para abordarlo juntos.

Para ver un ejemplo de ello, la industria puede ver cómo se ha abordado la pornografía infantil a través de un sistema de etiquetado universal que es implementado en todas las plataformas para identificar y bloquear dicho material.

Blockchain y otros sistemas seguros de verificación pública también se han sido señalados como posibles herramientas para marcar los orígenes de videos y fotos.

Pero es importante que el tema de los deepfakes se aborde de manera amplia y en todas las industrias.

“Definitivamente, las plataformas son parte de la solución, pero no son solo las plataformas. Las plataformas solo controlan la distribución en algún dominio”, dijo Ovadya.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad