Publicidad
Revista Digital
Publicidad

'Deepfakes' y desconfianza en línea, ¿cómo reconstruir la confianza en entornos digitales?

Tecnologías como los 'deepfakes', la clonación de voz y las identidades sintéticas permiten crear engaños más creíbles, más baratos y mucho más escalables.
mié 29 abril 2026 06:01 AM
'Deepfakes' y desconfianza en línea, ¿cómo reconstruir la confianza en entornos digitales?
La verificación de humanidad puede convertirse en la pieza que falta en la arquitectura digital: una base que permita a personas, empresas y gobiernos interactuar con mayor seguridad en la era de la IA, considera Martín Mazza. (Foto: iStock)

Las comunidades digitales han cambiado de forma radical en pocos años. Herramientas que hasta hace poco parecían sacadas de la ciencia ficción —videos falsificados, clonación de voz o face swaps en tiempo real— hoy están al alcance de cualquiera con un teléfono y conexión a internet.

La Inteligencia Artificial (IA) ha democratizado capacidades que antes requerían equipos especializados y presupuestos de producción profesional. Pero también ha cambiado algo más profundo: nuestra capacidad de confiar en lo que vemos en línea.

Publicidad

Ese cambio ya se siente con fuerza en México. El fraude en espacios digitales se ha disparado en los últimos años: solo en 2024 los casos de fraude cibernético crecieron 40% en el país, con respecto a los seis años anteriores, mientras que las pérdidas asociadas a este tipo de delitos ascienden a 20,000 millones de pesos, de acuerdo con un estudio de The CIU .

El fraude digital ya no es un fenómeno aislado: se ha convertido en parte del “ruido de fondo” cotidiano de internet. Tecnologías como los deepfakes, la clonación de voz y las identidades sintéticas permiten crear engaños más creíbles, más baratos y mucho más escalables.

Las consecuencias van mucho más allá del dinero perdido. Por ejemplo, empleados engañados para autorizar transferencias fraudulentas, consumidores que confían en recomendaciones falsas generadas con IA, personas mayores que reciben llamadas con voces clonadas de familiares o instituciones, cada uno de estos casos erosiona un poco más la confianza que sostiene la vida digital.

Al mismo tiempo, las personas comienzan a percibir esta incertidumbre. Un estudio reciente llevado a cabo en la World App a más de 12,000 personas muestra que 73% de los usuarios en México se ha preguntado si la persona con la que interactúa en línea es realmente humana o si se trata de un bot o una inteligencia artificial. Y el 85% considera muy importante saber si hay una persona real del otro lado de la pantalla.

La desconfianza no es irracional. El ecosistema digital cambió más rápido que los mecanismos de seguridad diseñados para protegerlo.

Por qué las defensas tradicionales no son suficientes

Durante años, la respuesta ha sido reforzar herramientas de detección, moderación de contenido y procesos de verificación de identidad como los sistemas de Know Your Customer (KYC). Pero estas estrategias enfrentan límites cada vez más evidentes. Además, el KYC incrementa el riesgo de que contenido que identifica a los usuarios —como selfies o imágenes de documentos— pueda filtrarse o ser robado, acelerando la capacidad de la IA para suplantar a personas reales.

Publicidad

La IA ha convertido la detección en una carrera permanente: cada avance en la identificación de contenido falso suele ser rápidamente superado por nuevas técnicas de generación. Moderar plataformas a gran escala es costoso y polémico. Y endurecer los procesos de verificación de identidad añade fricción para los usuarios sin resolver el problema central: distinguir lo que es falso en tiempo real.

Además, la propia estructura de internet está cambiando. Hoy el 51% del tráfico total en la red ya está automatizado, y los llamados bad bots representan 37% del tráfico global, según el Bad Bot Report 2025 . En otras palabras, cada vez interactuamos más con sistemas automatizados y menos con personas. Lo que transforma por completo el riesgo en entornos digitales.

Prueba de humanidad

Si detectar lo falso está fallando, el enfoque más inteligente es probar lo real. La llamada “prueba de humanidad” (Proof of Human) parte de una idea sencilla pero poderosa: verificar que detrás de una interacción digital hay una persona real, sin necesidad de almacenar datos biométricos o información personal. Como su nombre indica, verifica humanidad, no identidad.

Sus aplicaciones son amplias, así que las empresas pueden liderar en la protección del consumidor. Los bancos podrían utilizar verificaciones de humanidad al abrir cuentas o autorizar transacciones de alto riesgo. Las plataformas digitales podrían reducir redes de bots y suplantación de identidad. Los servicios de atención a clientes podrían distinguir entre usuarios reales y sistemas automatizados utilizados para fraude.

Integrar la verificación de humanidad en los sistemas digitales demuestra transparencia y también fortalece la confianza al mostrar que la tecnología puede utilizarse para proteger y empoderar a las personas.

Publicidad

Costos asociados a la confianza digital

El argumento financiero es igualmente sólido. Prevenir es más barato que reembolsar y mucho menos dañino para la confianza del consumidor. El fraude digital no solo afecta a las víctimas directas, funciona como un impuesto invisible sobre toda la economía digital. Las empresas pagan el costo en verificación adicional, contracargos, soporte y reputación. Las instituciones invierten más en seguridad, y los usuarios enfrentan bloqueos de cuentas, trámites interminables y desconfianza permanente.

A escala global, el costo del cibercrimen alcanzó 9.22 billones de dólares en 2024, y podría superar 13.8 billones para 2028, según estimaciones de Statista . Al mismo tiempo, organizaciones de todo el mundo pierden alrededor de 5% de sus ingresos anuales debido al fraude, de acuerdo con la Association of Certified Fraud Examiners .

El momento correcto

Cuando las personas dudan de la autenticidad de lo que ven en línea, se debilita el comercio digital, se ralentiza la adopción tecnológica y se genera resistencia hacia herramientas de IA que, bien utilizadas, podrían aportar enormes beneficios económicos y sociales.

Por eso, el debate sobre deepfakes y fraude digital no es solo un asunto de seguridad tecnológica. Es una conversación sobre la infraestructura de confianza que sostendrá la economía digital de los próximos años.

La verificación de humanidad puede convertirse en la pieza que falta en esa arquitectura digital: una base que permita a personas, empresas y gobiernos interactuar con mayor seguridad en la era de la IA.

Los consumidores ya exigen mayores garantías de que las personas y los servicios con los que interactúan son auténticos. El desafío de los próximos años no será simplemente detectar lo falso. Será demostrar lo real.

_____

Nota del editor: Martín Mazza es gerente regional de Latinoamérica en Tools for Humanity. Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad