Además, hay notables diferencias regionales. Norteamérica es el epítome de las deepfakes, con un incremento de 1740%; en Asia y el Pacífico, 1,530%; en Europa, 780% (incluyendo Reino Unido); en Medio Este y África, 450%; y en América Latina, 410%, en México esta herramienta ha crecido 700%.
Aunque un estudio de Jumio reveló que 52% de las personas que encuestaron cree que podrían detectar un video deepfake, la realidad es que las amenazas siguen creciendo y pueden traer consecuencias mucho más graves, como el fraude impulsado por la IA.
"Los deepfakes preparan el camino para el robo de identidad, estafas y campañas de desinformación a una escala sin precedentes", comenta Pavel Goldman-Kalaydin, responsable de IA/ML en Sumsub. Por ello, esta tecnología se está convirtiendo en foco de regulaciones para los gobiernos y las tecnológicas buscan implementar herramientas para prevenirla.
Marcas de agua: un remedio ‘casero’ para los deepfakes
“La marca de agua es una alternativa para informar que una imágen fue hecha con IA”, explicó Juan Carlos Gutiérrez, director Gerente de Tecnología y Arquitectura de Soluciones para América Latina y el Caribe en AWS.
Gutiérrez explicó que en Bedrock, la nueva plataforma de IA generativa de Amazon, estas marcas de agua se pueden implementar de dos maneras: física sobre la imagen - como si fuera un logo- y a través de los metadatos. Una puede funcionar para que la vean las personas y otra para las plataformas.
Aunque en el caso de la marca física estas se pueden quitar a través de programas o habilidades simples de edición, Gutiérrez explicó que aunque sí es posible, ya se convierte en una violación a la propiedad intelectual.
En cuanto a los metadatos, estos pueden ser utilizados para que las plataformas lo escaneen y ya no puedan replicar el contenido sin autorización. Por ejemplo, si un cliente creó una imagen con IA sobre su producto para ser vendido en Facebook Marketplace, ya no se podría replicar esa imagen en otro espacio como Amazon, por ejemplo.
Sin embargo, aunque estas son tecnologías que ya está desarrollando AWS, requiere de la colaboración de las plataformas para que esto sea posible.
Algo similar como lo que ocurre con StopNCII, una herramienta para detener la difusión de imágenes y videos íntimos sin consentimiento. La herramienta funciona generando un hash o huella digital en los contenidos, que se coloca al usar un algoritmo para asignar un marcador específico o hash único a una imagen o video y todas las copias duplicadas de la imagen o video tienen exactamente el mismo marcador específico o hash, por lo que no se pueden replicar en todas las plataformas de Meta.
“Estos no son metadatos que se pueden borrar”, afirmó Gutiérrez, pues de acuerdo con él, todo el contenido generado en Titan, la herramienta para crear imágenes de IA generativa en Amazon, están en su propia infraestructura de datos que imposibilita que alguien pueda borrarlos. Sin embargo, esto solo posible en su plataforma.