Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Empresas, clave en la lucha contra los 'deepfake'

El desarrollo de la IA ha hecho que cada vez los 'deepfakes' sean más convincentes y que, con ello, su poder para manipular y falsificar información sea mayor.
mar 07 mayo 2024 06:05 AM
Deepfake es una nueva forma de estafa
Los 'deepfakes' son videos o imágenes generados por Inteligencia Artificial (IA) donde se utilizan algoritmos avanzados de machine learning para simular el rostro o la voz de una persona, es decir, robar su identidad, señala Ricardo Robledo.

En un mundo donde la manipulación digital es cada vez más sofisticada, los deepfake representan una de las amenazas más desafiantes para el ecosistema digital. Los deepfakes son videos o imágenes generados por Inteligencia Artificial (IA) donde se utilizan algoritmos avanzados de machine learning para simular el rostro o la voz de una persona, es decir, robar su identidad.

Publicidad

Esta tecnología plantea graves preocupaciones en diversas esferas; para los medios de comunicación la principal preocupación es la desinformación; pero para las empresas los costos son múltiples y pueden ser reputacionales, financieros y hasta legales.

El ejemplo más grande lo vimos en febrero pasado, cuando una empresa en Hong Kong sufrió pérdidas financieras por 438 millones de pesos, debido a que estafadores lograron suplantar la identidad del CFO y así convencer a un empleado de realizar dicha transacción.

El desarrollo de la IA ha hecho que cada vez los deepfakes sean más convincentes y que, con ello, su poder para manipular y falsificar información sea mayor, lo que los convierte en una herramienta peligrosa para el ecosistema digital.

Actualmente, muchas empresas, especialmente en el ámbito financiero, están implementando métodos más avanzados de autenticación, como la biometría facial o dactilar, para proteger las transacciones y los datos sensibles de los usuarios. Estas medidas no solo responden a la necesidad de seguridad, sino también a las regulaciones que exigen garantizar la autenticidad de las operaciones.

Estos sistemas biométricos funcionan como firmas digitales que verifican la identidad de una persona en el entorno digital y autorizan sus transacciones, como lo haría una firma autógrafa en un papel.

Sin embargo, ante el avance de los deepfake surge una pregunta importante: ¿son realmente efectivos estos métodos de autenticación frente a esas amenazas?

La farsa del

deepfake

La realidad es que el reto en materia de seguridad que plantean los deepfake es significativo, pero no imposible. Aquí un ejemplo: cuando se utiliza la biometría facial, se recopilan datos detallados del rostro de una persona, que luego son encriptados y comparados con una referencia para confirmar su identidad.

Si alguien intenta suplantar a otra persona con un deepfake, el sistema detecta la falsificación durante el proceso de autenticación biométrica y evita transacciones fraudulentas. Este principio se aplica también a otras formas de firmas digitales, como la voz o la biometría dactilar, donde se comparan todas las minucias con una fuente de referencia.

Aunque la tecnología ha avanzado considerablemente, todavía existen limitaciones en la capacidad de los deepfakes para replicar con precisión el rostro humano o la voz. Sin embargo, el potencial de riesgo continuará sofisticándose y es crucial que las empresas sigan desarrollando y mejorando sus sistemas de detección de fraudes para hacer frente a esta creciente amenaza.

Es importante que los tomadores de decisiones de las compañías sepan que los deepfakes no se limitan a la simple imitación de una apariencia facial o vocal. Los algoritmos detrás de estos contenidos falsos pueden manipular de manera sorprendente el movimiento, la expresión y los matices emocionales, lo que dificulta aún más su detección.

No obstante, se están desarrollando soluciones más avanzadas que van más allá de la captura de minucias biométricas. Estas soluciones incorporan procesos de prueba de vida que evalúan la autenticidad y la coherencia de la fuente del video o la voz. Por ejemplo, se analizan los parámetros fisiológicos, la profundidad del video o las reacciones en tiempo real para verificar que esa persona es real y que es quien dice ser.

Por otro lado, en el ámbito de la biometría facial, se están explorando técnicas como la detección de parpadeo o el seguimiento ocular para identificar posibles señales de manipulación. También, se están desarrollando algoritmos de aprendizaje automático avanzados que pueden detectar anomalías en la textura o la estructura facial, incluso en casos de deepfake altamente sofisticados.

Publicidad

Human power

Sin embargo, no debemos subestimar el componente humano en esta lucha. La concientización y la capacitación del personal son fundamentales para reconocer las señales de un posible intento de suplantación. Las organizaciones deben implementar programas de educación continua que informen sobre las tácticas utilizadas por los delincuentes y promuevan prácticas seguras en el manejo de la información y la autenticación de usuarios.

Además, la colaboración entre diferentes sectores, incluidos los expertos en seguridad, investigadores académicos y líderes empresariales, es esencial para desarrollar y compartir mejores prácticas, herramientas y tecnologías, porque en la lucha contra los deepfakes todos tenemos un rol clave y es momento de que las empresas asuman el suyo e implementen controles de seguridad que las beneficien a ellas, pero también a toda la sociedad.

_____

Nota del editor: Ricardo Robledo es CEO y fundador de Tu Identidad. Síguelo en LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad


Publicidad