Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Microsoft alerta por el uso de ChatGPT para hacer ciberataques más sofisticados

La compañía detectó a diferentes grupos que hacen uso de estas herramientas para mejorar las campañas de phishing, ingeniería social o clonación de voz.
mié 14 febrero 2024 10:15 AM
Microsoft alerta por el uso de ChatGPT para hacer ciberataques más sofisticados

Otro sector que también está evolucionando gracias a la Inteligencia Artificial generativa es el de los ciberdelincuentes, pues según Microsoft y OpenAI, los piratas informáticos están utilizando ChatGPT para hacer más sofisticados los ataques desde diferentes vertientes.

En una investigación que estas compañías realizaron se detectaron grupos respaldados por Rusia, Corea del Norte, Irán y China, que utilizan este tipo de herramientas para investigar a sus objetivos en mayor profundidad, mejorar los mensajes que les van a enviar y desarrollar técnicas de ingeniería social.

Según el documento, los grupos maliciosos cada vez han profundizado más su uso de las tecnologías de IA con el objetivo de “comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar eludir”.

Publicidad

Hasta ahora, las compañías no han detectado ningún “ataque significativo” que se haya generado a partir de grandes modelos de lenguaje, pero sí a grupos que están utilizando con fines maliciosos y es por ello que han cerrado las cuentas asociados a ellos.

“Creemos que es importante publicar esta investigación para exponer los movimientos incrementales en las etapas iniciales que observamos que intentan realizar actores de amenazas conocidos y compartir información sobre cómo los estamos bloqueando y contrarrestando con la comunidad de protectores”, señala Microsoft.

La sofisticación de los ataques no es el único problema, afirman las empresas, sino también la rapidez en que estos se desarrollan. La clonación de voz , por ejemplo, es un tema que desde el año pasado ha generado preocupación por sus implicaciones en la seguridad de las personas o incluso en otros ramos, como la música.

Sin embargo, ahora el hecho que más genera tensión para estas compañías es que las tecnologías actuales ya cuentan con la capacidad de clonar la voz de una persona en tan sólo tres segundos y hacerla más creíble en un caso de phishing y estafa telefónica.

Publicidad

Microsoft tiene en la mira a estos ciberdelincuentes que usan IA

El documento también resalta a ciertos grupos de personas que están utilizando esta tecnología, como Strontium, ligado a la inteligencia militar rusa, que usa grandes modelos de lenguaje para “comprender los protocolos de comunicación por satélite, tecnologías de imágenes de radar y parámetros técnicos específicos”.

Según Microsoft, estos ciberdelincuentes han estado activos durante momentos como la guerra entre Rusia y Ucrania e incluso estuvieron involucrados en un intento de ataque a la campaña presidencial de Hillary Clinton, en 2016.

Por otra parte, un grupo norcoreano, conocido como Thallium es otro caso que ha buscado vulnerabilidades para atacar organizaciones y han usado IA para programar y redactar contenidos en las campañas de phishing, al igual que el grupo iraní Curium.

El director de análisis de detección de Microsoft, Homa Hayatyfar, resaltó en la investigación que ahora “la IA puede ayudar a aportar más sofisticación a los ataques y dar más recursos”, sin embargo, la compañía también tiene sus propios sistemas de IA para proteger, detectar y responder.

Asimismo, destacó la creación de Security Copilot, un asistente para quienes trabajan en el campo de la ciberseguridad cuya finalidad es ayudarles a identificar posibles brechas y comprendan de mejor manera las señales y datos que se generan por medio de herramientas de IA diariamente.

Publicidad
¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Publicidad