Publicidad
Publicidad

Ciberseguridad frente al avance de la IA, ¿estamos listos para actuar?

La apropiada ejecución de la IA ha sido motivo de preocupación no solo para expertos en tecnología y ciberseguridad, también para gobiernos y legisladores de todo el mundo.
vie 10 enero 2025 06:01 AM
La ciberseguridad en la era de la Inteligencia Artificial
Gobiernos, empresas y organismos han comenzado a reconocer que, si bien la IA tiene un enorme potencial, su desarrollo y adopción deben ser acompañados de un compromiso ético y estándares internacionales que regulen su uso, apunta Manuel Moreno.

Desde el lanzamiento de ChatGPT en 2022, la Inteligencia Artificial (IA) ha transformado el mundo y, en menos de dos años, se ha convertido en una herramienta clave para la sociedad; tanto que, hoy en día, hasta los automóviles de lujo de una marca francesa han incorporado esa tecnología. Sin embargo, mientras su uso crece, también lo hacen las inquietudes sobre los riesgos que pueden surgir de su implementación.

La apropiada ejecución de la IA ha sido motivo de preocupación no solo para expertos en tecnología y ciberseguridad, también para gobiernos y legisladores de todo el mundo.

Publicidad

El miedo no está en la tecnología en sí misma, sino en las posibles consecuencias de su uso indiscriminado, ya que, por un lado, la IA tiene el potencial de optimizar procesos, prever problemas antes de que ocurran y hasta revolucionar la forma en que interactuamos con las máquinas. Pero, por otro, su aplicación inadecuada o irresponsable puede abrir la puerta a amenazas inesperadas.

Gobiernos, empresas y organismos han comenzado a reconocer que, si bien la IA tiene un enorme potencial, su desarrollo y adopción deben ser acompañados de un compromiso ético y estándares internacionales que regulen su uso.

¿A qué nos enfrentamos?

Uno de los principales desafíos que se deben abordar es evitar el envenenamiento de datos, una práctica que implica la manipulación intencionada de información que alimentan los modelos de IA. Al alterar los conjuntos de información utilizados para entrenar algoritmos, se pueden generar resultados distorsionados, sesgados o, incluso, mortales en ámbitos de salud, por ejemplo.

Otro de los peligros es el aumento de ataques de phishing y engaños de ingeniería social mejorados con IA, pues ésta ha permitido a los atacantes crear fraudes mucho más sofisticados. Antiguamente, los correos electrónicos de phishing solían ser fáciles de identificar por errores gramaticales, dominios sospechosos y otros elementos.

Hoy, los modelos de lenguaje basados en IA pueden generar emails y mensajes que son prácticamente indistinguibles de los que enviaría una fuente legítima. Ello ha dado lugar a un aumento de 140% en los fraudes en América Latina con respecto a 2023, según Kaspersky .

Pero la evolución de los ataques cibernéticos no se limita a los engaños. La IA ha llevado los ataques a un nivel completamente nuevo con el surgimiento de malware. A medida que los ciberdelincuentes se familiarizan con herramientas de IA generativa, ahora tienen la capacidad de crear software malicioso avanzado sin necesidad de contar con conocimientos técnicos profundos. Esto ha ampliado la superficie de ataque, ya que ahora personas sin experiencia en programación pueden ejecutar un ciberataque.

Los sistemas tradicionales de seguridad, diseñados para detectar amenazas conocidas, ahora luchan por identificar y neutralizar nuevas formas de ataque que evolucionan rápidamente.

En paralelo, la llegada de los deepfakes ha causado un gran revuelo. Y es que con la IA se pueden crear contenidos falsos en videos, audios o imágenes desinformando y generando preocupaciones significativas en ámbitos como la política, el entretenimiento y la seguridad pública. Incluso, en elecciones recientes en países como Estados Unidos y México, las deepfakes se utilizaron para desacreditar a figuras políticas, propagar rumores o manipular la opinión pública.

De acuerdo con el estudio New defenses, new threats de Capgemini, el 97% de las organizaciones ha experimentado brechas de seguridad relacionadas con la IA generativa en el último año. Además, más del 40% de ellas reportaron pérdidas económicas derivadas de los ataques de deepfakes, lo que refleja la magnitud del problema y el costo de no actuar con suficiente previsión.

Asimismo, la violación de privacidad en los modelos de IA es algo a destacar, ya que, al necesitar grandes volúmenes de datos, tiene el potencial de poner en riesgo información personal sensible. Los datos recopilados a través de interacciones en línea, dispositivos móviles y plataformas de redes sociales pueden ser utilizados para crear perfiles detallados de individuos. Por ello, los sistemas de IA deben garantizar que los datos sean gestionados con el mayor cuidado posible y respetando la privacidad de los individuos.

Y, en definitiva, uno de los problemas más complejos cuya solución sí está en nuestras manos como usuarios es el uso apropiado de la IA. Ingresar datos personales o sensibles en sistemas de IA sin precaución puede romper barreras de confidencialidad y confianza, afectando tanto a individuos como a organizaciones.

Publicidad

Cómo mitigar los riesgos

La solución no radica en detener el avance de la IA, sino en adoptar un enfoque integral y equilibrado. En primer lugar, las organizaciones deben capacitar a sus colaboradores en temas de ciberseguridad, especialmente en la identificación de amenazas generadas por IA.

Además, deben integrar la seguridad desde el diseño en los sistemas de IA, utilizando tecnologías que permitan detectar y prevenir ataques antes de que se materialicen. La actualización constante de los sistemas y un monitoreo continuo son, igualmente, cruciales para mantener los sistemas protegidos.

Es indiscutible que el futuro de la IA está lleno de promesas, pero también de desafíos. Es responsabilidad de todos; desde los gobiernos, legisladores y organizaciones nacionales e internacionales, hasta los usuarios finales, con el fin de evitar que los riesgos asociados con la IA empañen su enorme potencial.

Si tomamos las precauciones adecuadas hoy, podemos protegernos de los daños del mañana.
____

Nota del editor: Manuel Alexandro Moreno Liy es Chief Information Security Officer (CISO) en IQSEC. Síguelo en LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.

Consulta más información sobre este y otros temas en el canal Opinión

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad