Google dijo tener un alto nivel de confianza en que se usó IA para ayudar a descubrir y convertir la vulnerabilidad en un arma, pero se negó a revelar más información, como el software afectado, el modelo de lenguaje que se utilizó o el nombre del grupo de ciberdelincuentes.
La empresa también destacó que sus investigadores no creen que la vulnerabilidad se haya descubierto, gracias a la tecnología de Anthropic, Mythos, o ni siquiera con algún modelo de Gemini, desarrollado por la propia Google.
A inicios de abril, Anthropic dio a conocer Mythos, un modelo con habilidades avanzadas para identificar vulnerabilidades en términos de ciberseguridad. Dentro de sus capacidades destaca la identificación de brechas desconocidas y generar formas de explotarlas, lo que abre la posibilidad de que actores maliciosos lo utilicen para desarrollar ciberataques, acceder a sistemas sensibles o comprometer infraestructura crítica.
De acuerdo con el reporte técnico de Anthropic, el modelo logró identificar fallas desconocidas en distintos sistemas durante pruebas internas. Entre los hallazgos aparecen vulnerabilidades en software ampliamente utilizado, incluidos navegadores y componentes del sistema operativo.
El modelo no se creó como una herramienta exclusiva de ciberseguridad, Anthropic lo entrenó para tareas generales como programación, análisis de código y resolución de problemas complejos. Sin embargo, estas capacidades le permiten revisar grandes volúmenes de código, encontrar errores y proponer formas de explotarlos. En entornos controlados, Mythos incluso construyó pruebas de ataque funcionales a partir de fallas detectadas.