Es innegable el papel que la IA ha tenido en los últimos años como herramienta de ciberdefensa. A medida que los ciberataques se hacen más sofisticados, la necesidad de soluciones igualmente avanzadas se ha vuelto imperativa y es aquí donde la IA despliega su potencial, al utilizar herramientas como Machine Learning para analizar datos y patrones que identifican comportamientos anómalos y amenazas potenciales en tiempo real.
De acuerdo con Gartner, durante el 2022, al menos 40% de las empresas habrían implementado IA para mejorar su capacidad de detección y respuesta a ciberincidentes, mientras que, en este mismo año, Darktrace informó que su sistema de ciberdefensa basado en IA había detectado y neutralizado más de 150,000 ataques en tiempo real.
Por si esto fuera poco, Accenture reveló que 68% de las organizaciones que habían implementado IA en su estrategia de ciberseguridad en 2022, experimentaron una disminución significativa en el tiempo promedio de detección de amenazas.
Independientemente de la detección, la ciberseguridad también trata de previsión. La IA ha demostrado su capacidad de anticipar y adaptarse a las tácticas cambiantes de los ciberdelincuentes, pues en lo que va de este 2023, diversas empresas de ciberseguridad la han implementado con técnicas de pronóstico para identificar posibles puntos de entrada para ciberataques, lo que ha permitido que las organizaciones tomen medidas preventivas antes de que los ataques se consoliden.
Estos resultados muestran la eficiencia de la IA en la ciberseguridad, para la detección y la mitigación de riesgos; sin embargo, en medio de esos logros, surgen preocupaciones legítimas sobre su implementación y consecuencias potenciales, y una de ellas es el debate que gira en torno a la ética en la toma de decisiones críticas en ciberseguridad.
Si bien la IA puede tomar decisiones en tiempo real, basadas en análisis exhaustivos, aún se duda sobre si estas decisiones deberían ser totalmente autónomas o supervisadas humanamente.