Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Nuestras Historias

Los 'deepfakes': el enemigo que EU debe vencer ante las elecciones de 2020

Los videos falsos constituyen la siguiente generación de desinformación, en la que la inteligencia artificial tiene un papel clave. Así buscan combatirlos.
vie 14 junio 2019 12:05 PM
Peligro.
Peligro. Los deepfakes todavía no lo han invadido todo, pero al gobierno estadounidense le preocupa que sus adversarios extranjeros los usen para intentar interferir en las elecciones de 2020.

(CNN)- Como las elecciones presidenciales de 2020 en Estados Unidos se acercan, a los líderes políticos, los candidatos presidenciales y al director de inteligencia del país les preocupa que se usen videos alterados para engañar a los electores.

Un profesor está desarrollando herramientas para detectar videos falsos de personalidades políticas importantes como Donald Trump, Theresa May y Justin Trudeau, así como de los candidatos a la presidencia. Esto podría servir para combatir la siguiente generación de la desinformación, en la que la inteligencia artificial probablemente jugará un papel cada vez más prominente en la creación de material engañoso.

Publicidad

Los deepfakes —combinación de deep learning (aprendizaje profundo) y fake (falso)— son archivos de video o de audio muy convincentes, pero falsos. Se hacen con tecnología de inteligencia artificial de vanguardia y relativamente accesible, cuya intención es mostrar a una persona real diciendo o haciendo algo que no hicieron o dijeron. Se han usado para avergonzar a celebridades y a políticos; estos videos son más fáciles y baratos de producir que nunca antes y cada vez son más realistas. El aparentemente interminable material de políticos en YouTube, incluidos los candidatos a la presidencia de Estados Unidos, es una mina de oro para quienes pretendan usar esta clase de IA para interferir en las elecciones.

Lee: Investigadores de Samsung crean videos de Einstein y Dalí con IA

Los deepfakes todavía no lo han invadido todo, pero al gobierno estadounidense le preocupa que sus adversarios extranjeros los usen para intentar interferir en las elecciones de 2020. En una evaluación de las amenazas mundiales que se llevó a cabo en enero, Dan Coats, director de Inteligencia Nacional de Estados Unidos, advirtió que los deepfakes y otros materiales falsos creados con tecnologías similares podrían ser parte de las tácticas de personas que tengan la intención de perturbar las elecciones. La Comisión de Inteligencia de la Cámara de Representantes celebrará el jueves 13 de junio su primera audiencia sobre las posibles amenazas de la tecnología de los deepfakes.

Cómo distinguir entre un video real y uno falseado

Con la esperanza de impedir que circule información engañosa relacionada con deepfakes, Hany Farid, profesor y experto en imaginología forense del Dartmouth College, está desarrollando software para detectar deepfakes políticos y tal vez comprobar la autenticidad de videos genuinos a los que se denuncie como deepfakes.

Publicidad

Con esta nueva cepa de videos falsificados, es más difícil que nunca confiar en que lo que vemos es real. Farid dijo a CNN que le preocupa que esta clase de videos les causen daño a los ciudadanos o a las democracias. "De repente, empezó a haber mucho en juego", dijo.

Farid y Shruti Agarwal, una estudiante de posgrado, están desarrollando algo a lo que llaman "parámetros biométricos sutiles", una forma de distinguir a una persona de su versión falseada.

Lee: México sigue siendo paraíso de bots

Los investigadores están tratando de lograrlo a través de herramientas automáticas que revisarán cientos de horas de videos de YouTube de personas reales como el presidente de Estados Unidos, Donald Trump, y el expresidente Barack Obama, en busca de relaciones entre movimientos de la cabeza, patrones del habla y expresiones faciales.

Farid explicó que, por ejemplo, cuando Obama da una mala noticia, frunce el ceño y suele inclinar la cabeza hacia abajo; tiende a levantarla cuando da buenas noticias.

Estas correlaciones se usan para crear un modelo de un individuo —como Obama— para que cuando se detecte un video nuevo, el modelo se pueda usar para determinar si el Obama que sale en él tiene los patrones de habla, los movimientos de cabeza y las expresiones faciales que corresponden a las del expresidente.

Publicidad

Farid señaló que en un deepfake, como este en el que el actor y comediante Jordan Peele pone palabras en la boca de Obama , la cabeza y los ojos del expresidente de Estados Unidos se mueven según lo que estaba diciendo en un video. Sin embargo, su boca se mueve según lo que Peele le hace decir.

"No es obvio para ti o para mí", dijo Farid. "Tal vez sea obvio para Michelle Obama".

Farid empezó a desarrollar el mismo sistema para los precandidatos demócratas a la presidencia, entre ellos Joe Biden, Elizabeth Warren y Bernie Sanders.

Para poner a prueba el sistema de detección, Farid usa deepfakes creados por los investigadores de la Universidad del Sur de California. Los investigadores crearon los modelos falsos de algunos de los candidatos principales a través del mapeo del rostro de los candidatos reales sobre la cara de los actores del programa Saturday Night Live (SNL). El resultado fueron videos bastante inquietantes de las expresiones faciales de Alec Baldwin en la cara de Trump; la representación que Kate McKinnon hace de Elizabeth Warren recibió el mismo tratamiento.

Lee: ¿Google, Facebook y Twitter incumplen promesa de frenar noticias falsas?

Farid le dijo a CNN Business que espera presentarle a la prensa su herramienta de detección en diciembre a través de un sitio web, en el que podrán verificar la autenticidad de un video.

"Si un reportero o tú ven un video, seguramente antes de informar al respecto deberías tener un mecanismo para verificarlo", dijo.

La lucha por mantenerse a la delantera

Farid se ha dedicado a la imaginología forense desde finales de la década de 1990, cuando las cámaras digitales estaban en pañales y la película era la reina. Desde hace mucho le preocupan los timos con fotos digitales, especialmente desde que las cámaras de los teléfonos celulares se volvieron comunes a mediados de la década de 2000.

Hasta hace poco, era relativamente raro encontrar un video truqueado porque era más difícil lograrlo, pero esto está cambiando rápidamente gracias al auge de una técnica de IA llamada red generativa antagónica (RGA). Las RGA pueden usar datos (como fotos de rostros humanos) para producir cosas nuevas, tales como imágenes impresionantemente reales de rostros humanos de piel sintética. Esta técnica también se usa para crear deepfakes.

Farid no explicó exactamente cómo funcionará este software porque sabe que cualquier información que revele podría usarse para desarrollar deepfakes aún mejores. Sin embargo, es probable que los productores de deepfakes que tengan la motivación suficiente encuentren la forma de darle la vuelta a lo que él está desarrollando.

Lee: Putin promulga leyes contras las noticias falsas y las ofensas al Estado

Siwei Lyu, director de visión computarizada y aprendizaje automático de la Universidad Estatal de Nueva York en Albany, dijo que su grupo de investigadores está ayudándole a Farid a generar y difundir deepfakes —entre ellos algunos de Obama— para su proyecto.

Lyu, quien asesoró a Farid cuando estaba terminando sus estudios de posgrado en Dartmouth, ha visto personalmente lo rápido que la gente que produce videos falsos puede mejorarlos para eliminar rasgos que revelan que no son reales. El año pasado, desarrolló una forma de detectar videos falsos a través de la detección de inconsistencias en la forma en la que la persona del video parpadeaba. Menos de un mes después, alguien generó un deepfake con parpadeos realistas, explicó.

Pese a que cree que el enfoque de Farid es único y podría servir para detectar deepfakes de celebridades, incluidos los políticos —de quienes hay muchísimo material en línea—, le preocupa que no pueda generalizarse para ayudar a un grupo más amplio.

Farid explicó que hasta abril, su herramienta tenía una precisión del 95% en la identificación de videos falsos de famosos a los que tiene en su base de datos. Puede confirmar la autenticidad de alrededor del 95% de los videos genuinos. Farid cree que puede lograr una precisión del 99% en los próximos seis meses, justo a tiempo para varios de los debates entre los precandidatos.

Lee: Las elecciones en India, una prueba de fuego para las redes sociales

Pese a todo el alboroto, hay quienes dicen que se está exagerando la amenaza de los deepfakes y destacan que los videos falsos todavía no lo invaden todo y no han causado el caos que se ha predicho.

Sin embargo, Farid señaló que en el actual paisaje de desinformación y las campañas extranjeras de desinformación en contra de Estados Unidos, aunado a la polarización del electorado, no es descabellado creer que se van a usar deepfakes.

Sam Gregory, director de programa de WITNESS, una organización no lucrativa que trabaja con defensores de los derechos humanos, dijo que es mejor ser proactivo que reactivo. "Está claro, al ver la respuesta a las amenazas previas de desinformación y engaños en todo el mundo, que necesitamos prepararnos mejor para esta amenaza en vez de tener las respuestas reactivas, centradas en Estados Unidos, que las plataformas tuvieron después de las elecciones de 2016. Aunque la amenaza sea menor de lo esperado (lo que sería muy bueno), es mejor prepararse que reaccionar", dijo.

Farid señaló que para crear los videos falsos para el programa SNL solo necesitaron un equipo de cuatro personas de la Universidad de Carolina del Norte, un estudiante de posgrado, dos de posdoctorado y un profesor. "Entonces ¿puede hacerlo un Estado-nación lo suficientemente motivado? Definitivamente. La tecnología está en el éter", dijo.

Donie O'Sullivan, de CNN Business, contribuyó con este reportaje.

¿Tienes poco tiempo?
Infórmate en menos de cinco minutos de lo más importante del día.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Hubo un error. Por favor intenta más tarde.

Publicidad
Publicidad