“Si encontramos este tipo de contenidos, es vital no compartir o creer antes de verificar el origen o propósito de las afirmaciones de los videos. Además, y en el caso de identificar un contenido engañoso, debemos denunciar la publicación ante la red social que estemos usando”, recomienda Camilo Gutiérrez Amaya, investigador de ESET Latinoamérica.
El segundo plano también ofrece pistas. Los generadores de IA todavía tienen dificultades para recrear fondos o detalles complejos de forma estable. Por ejemplo, en algunos clips virales, como la famosa supuesta anaconda gigante del Amazonas, el oleaje del río no se sincroniza con la imagen grabada desde un helicóptero. Y si aún hay dudas, se puede pausar cuadro por cuadro, para detectar objetos que aparecen y desaparecen sin coherencia.
Otra señal de alerta es el audio, aunque las voces sintéticas mejoran cada día, todavía presentan un tono monótono o cambian sutilmente de volumen y eco, sobre todo cuando se mezclan con grabaciones reales del ambiente.
Para quienes quieren ir más allá de la observación, existen herramientas útiles para verificar la autenticidad de un video.
Herramientas para detectar videos hechos con IA
Los ejemplos de vídeos que han logrado viralizarse abundan, desde deepfakes de celebridades como Tom Cruise en TikTok, hasta fenómenos naturales exagerados o criaturas imposibles.
También circulan clips de ciudades futuristas generadas con IA que muestran autos flotando o calles que desaparecen al fondo. Incluso en política, se han viralizado videos de líderes como Barack Obama, Vladimir Putin o Volodímir Zelenski diciendo frases que nunca pronunciaron, fabricadas con IA para manipular la opinión pública.
Por ello, es importante usar herramientas para saber si un video es real o hecho con IA. Una recomendación es hacer una búsqueda inversa de imágenes, ya sea tomando capturas de pantalla y buscarlas en Google Images o TinEye para encontrar versiones originales o rastrear la fuente.
O bien descargando el video y analizándolo directamente en SythID otra herramienta de Google que verifica si el contenido fue manipulado con IA.
Otra manera de saber el origen del video es a través de los metadatos. Algunos archivos conservan información que revela si fueron generados o editados por software de IA, el único detalle es que debes tener el archivo en tu poder.
Ahora bien, también hay plataformas como Deepware Scanner o plugins de verificación de deepfakes que analizan fotogramas en busca de patrones sintéticos.
Si bien no hay cifras exactas sobre el “número” de videos hechos con IA en 2025, los datos de mercado reflejan una adopción explosiva, con crecimiento anual de entre 20% a 35% y una fuerte presencia en plataformas sociales, según datos de Zebra AI, una empresa que se encarga de generar este tipo de contenidos.
Otro consejo que da Mánjarrez es que antes de compartir un escándalo político o una escena “demasiado increíble para ser real”, vale la pena preguntarse: ¿quién lo publica?, ¿existe en medios confiables?, ¿puedo comprobar su origen?
En la era de la IA generativa, aprender a dudar es la mejor defensa contra la desinformación. Porque no todo lo que ves es real, pero la capacidad para cuestionar sigue siendo insustituible.