El miedo no está en la tecnología en sí misma, sino en las posibles consecuencias de su uso indiscriminado, ya que, por un lado, la IA tiene el potencial de optimizar procesos, prever problemas antes de que ocurran y hasta revolucionar la forma en que interactuamos con las máquinas. Pero, por otro, su aplicación inadecuada o irresponsable puede abrir la puerta a amenazas inesperadas.
Gobiernos, empresas y organismos han comenzado a reconocer que, si bien la IA tiene un enorme potencial, su desarrollo y adopción deben ser acompañados de un compromiso ético y estándares internacionales que regulen su uso.
¿A qué nos enfrentamos?
Uno de los principales desafíos que se deben abordar es evitar el envenenamiento de datos, una práctica que implica la manipulación intencionada de información que alimentan los modelos de IA. Al alterar los conjuntos de información utilizados para entrenar algoritmos, se pueden generar resultados distorsionados, sesgados o, incluso, mortales en ámbitos de salud, por ejemplo.
Otro de los peligros es el aumento de ataques de phishing y engaños de ingeniería social mejorados con IA, pues ésta ha permitido a los atacantes crear fraudes mucho más sofisticados. Antiguamente, los correos electrónicos de phishing solían ser fáciles de identificar por errores gramaticales, dominios sospechosos y otros elementos.
Hoy, los modelos de lenguaje basados en IA pueden generar emails y mensajes que son prácticamente indistinguibles de los que enviaría una fuente legítima. Ello ha dado lugar a un aumento de 140% en los fraudes en América Latina con respecto a 2023, según Kaspersky .
Pero la evolución de los ataques cibernéticos no se limita a los engaños. La IA ha llevado los ataques a un nivel completamente nuevo con el surgimiento de malware. A medida que los ciberdelincuentes se familiarizan con herramientas de IA generativa, ahora tienen la capacidad de crear software malicioso avanzado sin necesidad de contar con conocimientos técnicos profundos. Esto ha ampliado la superficie de ataque, ya que ahora personas sin experiencia en programación pueden ejecutar un ciberataque.
Los sistemas tradicionales de seguridad, diseñados para detectar amenazas conocidas, ahora luchan por identificar y neutralizar nuevas formas de ataque que evolucionan rápidamente.
En paralelo, la llegada de los deepfakes ha causado un gran revuelo. Y es que con la IA se pueden crear contenidos falsos en videos, audios o imágenes desinformando y generando preocupaciones significativas en ámbitos como la política, el entretenimiento y la seguridad pública. Incluso, en elecciones recientes en países como Estados Unidos y México, las deepfakes se utilizaron para desacreditar a figuras políticas, propagar rumores o manipular la opinión pública.
De acuerdo con el estudio New defenses, new threats de Capgemini, el 97% de las organizaciones ha experimentado brechas de seguridad relacionadas con la IA generativa en el último año. Además, más del 40% de ellas reportaron pérdidas económicas derivadas de los ataques de deepfakes, lo que refleja la magnitud del problema y el costo de no actuar con suficiente previsión.
Asimismo, la violación de privacidad en los modelos de IA es algo a destacar, ya que, al necesitar grandes volúmenes de datos, tiene el potencial de poner en riesgo información personal sensible. Los datos recopilados a través de interacciones en línea, dispositivos móviles y plataformas de redes sociales pueden ser utilizados para crear perfiles detallados de individuos. Por ello, los sistemas de IA deben garantizar que los datos sean gestionados con el mayor cuidado posible y respetando la privacidad de los individuos.
Y, en definitiva, uno de los problemas más complejos cuya solución sí está en nuestras manos como usuarios es el uso apropiado de la IA. Ingresar datos personales o sensibles en sistemas de IA sin precaución puede romper barreras de confidencialidad y confianza, afectando tanto a individuos como a organizaciones.