El desarrollo de la IA generativa ha sido considerada tan revolucionaria como la de la interfaz gráfica de usuario, el microprocesador, en su momento el Internet y recientemente la nube.
Concretamente en los negocios, vemos que la adopción de IA ha experimentado un crecimiento exponencial. Según McKinsey, la IA podría generar hasta 13 billones de dólares en valor económico global para el 2030. Además, la automatización de procesos mediante IA ha permitido a las empresas reducir los costos operativos, mejorar la eficiencia y agilizar los flujos de trabajo, lo que se traduce en una mayor competitividad. O como en la industria manufacturera, donde la IA se utiliza para optimizar la cadena de suministro y predecir fallos en la maquinaria, y en el sector financiero, donde se emplea para detectar fraudes y mejorar la gestión de riesgos.
Debido a la gran cantidad de datos que se necesitan analizar y procesar, el uso del Machine Learning (ML) como un mecanismo de ciberseguridad comenzó a gestarse desde inicios de este siglo a la par del Big Data. Por ejemplo, hoy, gracias al ML, la IA ayuda a detectar actividad inusual en cuentas de usuarios o cargos fuera de lo normal en tarjetas de crédito.
La IA ha permitido a las áreas de TI identificar amenazas con mayor velocidad y efectividad, y resulta muy efectiva en la detección de ataques de seguridad tales como ransomware; sin embargo, es innegable que esta tecnología también tiene el potencial para ser utilizada por ciberdelincuentes.
De acuerdo con una encuesta levantada por BlackBerry en 2023 a especialistas en TI en América del Norte, Australia y Reino Unido, más de la mitad de los encuestadosestimó que en menos de un año se verán casos en los que ciberdelincuentes empleen ChatGPT para generar un código que explote alguna vulnerabilidad. Aunado a lo anterior, con la digitalización y el auge del IoT –la premisa de que cualquier artículo puede ser una computadora capaz de generar, procesar y reportar información– la carga por garantizar la seguridad de cada dispositivo se ha vuelto más grande.
En una entrevista para ABC News, Sam Altman, CEO de OpenAI, sostuvo que una de sus principales preocupaciones era el uso de modelos de este tipo para la desinformación masiva y ciberataques. Por su parte, diversos especialistas en el sector han notado que otro de los puntos de interés y precaución debe ser la privacidad de datos de los usuarios. Tema de interés si recordamos que, en marzo de 2023, OpenAI suspendió las operaciones de ChatGPT por una falla que permitía ver el historial de actividad de algunos usuarios.
Al final de la cadena operativa, tanto del lado de la ciberseguridad como el de la ciberdelincuencia, están las personas. Garantizar el uso ético y transparente de las herramientas de IA es absolutamente indispensable y, como en todo, ello solo será posible mediante un consenso entre las voces expertas que dé pie a un marco regulatorio con conocimiento de causa.