Publicidad
Publicidad

Esta persona no existe. ¿Por qué circulan imágenes falsas de personas en línea?

Retratos de personas y hasta gatos hechos creados con inteligencia artificial están confundiendo a usuarios en las redes sociales.
lun 04 marzo 2019 05:27 AM

RACHEL METZ

SAN FRANCISCO - La joven en la pantalla de la computadora es adorable, con mejillas rosadas ojos de color azul grisáceo, cabello rojizo infantil y labios que apenas esbozan una sonrisa.

Pero ella no existe en la vida real. Esta cara, titulada acertadamente t hispersondoesnotexist (esta persona no existe), fue generada en un sitio web por medio de una inteligencia artificial . Si recargas la página, será reemplazada por otra cara que es igual de atractiva, pero igual de irreal.

Lanzado a principios de este mes por el ingeniero de software Phillip Wang como un proyecto personal, el sitio hace uso de un sistema de IA recientemente publicado por investigadores del fabricante de chips de computadora Nvidia. Llamada StyleGAN, la IA es experta en crear algunas de las caras más realistas de personas inexistentes producidas por máquinas hasta ahora.

Thispersondoesnotexist es uno de varios sitios web que han aparecido en las últimas semanas utilizando StyleGAN para producir imágenes de personas, gatos, personajes de anime y casas vacacionales que se parecen cada vez más a la realidad y, en algunos casos, el espectador promedio no puede distinguirlos. Estos sitios muestran lo fácil que es para las personas crear imágenes falsas que parezcan verosímilmente reales, para bien o para mal.

Publicidad

El problema con las caras falsas

Wang, como muchos investigadores y entusiastas de la IA, está fascinado por el potencial de este tipo de IA. Tanto es así que creó un segundo sitio llamado thiscatdoesnotexist que genera falsos felinos. Pero también le preocupa el mal uso que podría tener.

Esto tiene sentido, ya que la táctica de IA que subyace en StyleGAN también se ha utilizado para crear los llamados deep fakes (falsificaciones profundas), que son archivos de audio y video persuasivos (pero falsos) que pretenden mostrar a una persona real haciendo o diciendo algo que no hicieron.

Esas preocupaciones resuenan en las voces prominentes en la industria. A principios de este mes, la empresa de investigación de IA sin fines de lucro OpenAI decidió no lanzar un sistema de IA que creó, dando por motivos los temores de que es tan bueno componiendo texto que podría ser mal utilizado.

Recomendamos: 'Fake news stories', el nuevo enemigo en Facebook

Pero a pesar de que las imágenes que aparecen en el sitio de Wang podrían usarse para, por ejemplo, ayudar a un estafador a crear personas realistas en línea, espera que esto ayude a la gente a estar más conscientes de las capacidades emergentes de AI.

"Creo que los que desconocen la tecnología son los más vulnerables", dijo. "Es una especie de phishing: si no lo sabes, puedes caer en la trampa".

El encanto de las personas falsas (y lo que las delata)

Muchas personas no están muy seguras de cómo sentirse acerca de un acceso tan fácil a caras falsas. Pero ellos están interesados en verlas.

Wang, anteriormente ingeniero de software en Uber, había estado estudiando inteligencia artificial por su cuenta durante seis meses cuando abrió su sitio web en febrero, poco después de que Nvidia pusiera a StyleGAN a disposición del público.

Él escribió sobre el sitio en un grupo de inteligencia artificial en Facebook el 11 de febrero. En las semanas posteriores, alrededor de 8 millones de personas lo han visitado.

"Creo que para mucha gente allá afuera, miran esto y dicen: '¡Wow, Matrix! ¿Esto es una simulación? ¿La gente está realmente en la computadora?'", dijo Wang.

Lee: La inteligencia artificial, la única herramienta para estar seguros

El generador crea una nueva cara cada dos segundos, dijo Wang, que verás cuando actualices la página.

"Se puede pensar que la IA está imaginando una nueva cara cada dos segundos en el servidor y mostrándole eso al mundo", dijo.

¿Qué son los videos deepfakes y por qué son una amenaza mediática?

Las caras que los visitantes ven varían infinitamente, con una multitud de colores de ojos, formas de caras y tonos de piel. Algunos usan lápiz labial o sombra de ojos; un puñado utiliza lentes deportivos. Ocasionalmente aparece un chico con vello facial; uno incluso parecía sudoroso.

Tienen todo tipo de expresiones faciales. Algunos sonríen, otros hacen pucheros o se ven serios. Las caras más jóvenes parecen ser niños pequeños, pero ninguna parece ser más vieja que la de mediana edad.

Tan realistas como parecen ser estos rostros, todavía hay muchos detalles que revelan que no son personas reales. Por ejemplo, los dientes a menudo se ven un poco extraños y tienen una gran necesidad de aparatos ortopédicos, y los accesorios como los aretes podrían aparecer sólo en una oreja. Con frecuencia, una persona parecerá tener una afección cutánea de otro mundo o cicatrices faciales graves. La ropa puede verse borrosa, tener remolinos de colores, o simplemente ser un poco, bueno, raro.

Cómo se hacen las caras

Para generar tales imágenes, StyleGAN utiliza un método de aprendizaje automático conocido como GAN, o red de confrontación generativa. Los GAN consisten en dos redes neuronales, que son algoritmos modelados en las neuronas en un cerebro, que se enfrentan entre sí para producir imágenes de apariencia real de todo, desde rostros humanos hasta pinturas impresionistas. Una de las redes neuronales genera imágenes (de, por ejemplo, el rostro de una mujer), mientras que la otra intenta determinar si esa imagen es falsa o real.

Aunque el campo de la IA abarca décadas, las GAN solo existen desde 2014, cuando la táctica fue inventada por el investigador científico de Google, Ian Goodfellow. Éstas se han vuelto prominentes rápidamente entre muchos investigadores como un gran avance en el campo.}

Recomendamos: Falso Obama muestra los riesgos de la inteligencia artificial

StyleGAN es particularmente bueno en la identificación de diferentes características dentro de las imágenes, como el cabello, los ojos y la forma de la cara, lo que permite que las personas que lo usan tengan más control sobre las caras que presenta. También puede dar como resultado imágenes más atractivas.

Las falsificaciones producidas por GAN pueden ser divertidas, si sabes lo que estás viendo, y potencialmente una gran empresa. Una empresa llamada Tangent, por ejemplo, dice que está utilizando GAN para modificar las caras de los modelos de la vida real, por lo que los minoristas en línea pueden adaptar (de manera realista) imágenes de catálogo a medida para los compradores en diferentes países en lugar de usar diferentes modelos o Photoshop. Una compañía de videojuegos podría usar GAN para ayudar a crear nuevos personajes, o iterar sobre los existentes.

Esto no es un Airbnb

Christopher Schmidt, un ingeniero de software de Google, fue una de las millones de personas que vieron el sitio de Wang poco después de su lanzamiento.

Él se dio cuenta de que los investigadores de Nvidia también habían entrenado a StyleGAN para crear imágenes realistas de habitaciones y tuvo la idea de crear su propio sitio, thisrentaldoesnotexist (estelugarderentanoexiste), para combinar las imágenes de habitaciones ersatz creadas por la IA con texto generado por la IA. El generador de texto que utilizó fue entrenado en una gran cantidad de listados de Airbnb.

Nvidia se negó a comentar para esta historia. Un portavoz dijo que esto se debe a que la investigación StyleGAN de la compañía se encuentra actualmente en proceso de revisión por pares.

La inteligencia artificial de Schmidt presentó versiones de las listas de alquiler que se veían y sonaban extrañas y confusas por lo que los resultados generados por la IA de Schmidt son mucho menos creíbles que las caras en el sitio de Wang. (Uno incluía una imagen de una mesa de comedor de estilo Dalí; otro incorporaba la línea, "A minutos del área de Woods, y hay un jardín o verano, un resplandor relajante de todos los productos eléctricos".)

Sin embargo, Schmidt también espera sitios como el suyo harán que la gente cuestione lo que ven en línea.

"Tal vez todos deberíamos pensar un par de segundos más antes de asumir que algo es real", dijo

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad