Mythos Preview no es otro asistente conversacional. Anthropic lo presentó como un modelo general todavía no abierto al público, pero extraordinariamente capaz en ciberseguridad: dice que ya encontró miles de vulnerabilidades graves, incluidas fallas de “día cero” (errores que nadie había descubierto todavía) en todos los grandes sistemas operativos y navegadores, además de un error de 27 años en OpenBSD. También asegura que logró producir “exploits”, es decir, métodos concretos para aprovechar una falla, y que incluso personal sin formación formal en seguridad pudo pedirle una “ejecución remota de código”, o sea, tomar control de una máquina a distancia.
Mythos, la primera IA que pecó de potencia
La controversia nace porque más del 99% de esas fallas sigue sin parchearse y, por tanto, no puede auditarse públicamente; por eso, en prensa y en foros técnicos, una parte del debate gira entre dos hipótesis: prudencia real o marketing de alto voltaje.
Lo decisivo es que Mythos puede ser el primer caso visible de una nueva categoría: modelos de frontera, es decir, los más avanzados de su generación, que quizá no se publiquen masivamente porque su costo social potencial supera su valor comercial inmediato. Anthropic dice sin rodeos que “Mythos Preview es solo el comienzo”, y su mensaje de fondo es claro: si una Inteligencia Artificial (IA) puede industrializar el hallazgo de vulnerabilidades, la pregunta ya no es solo quién tiene el mejor producto, sino quién controla una capacidad estratégica. No es casualidad que reguladores británicos ya estén evaluando sus implicaciones para infraestructura crítica y que la propia Anthropic admita conversaciones con funcionarios del gobierno de Estados Unidos.
Pero ahí aparece la fuerza contraria: la competencia. OpenAI lanzó en febrero un esquema de “acceso confiable para ciberseguridad” para su modelo más capaz en esa área, con verificación de identidad, acceso empresarial y programas por invitación. Traducido: el sector ya está construyendo carriles rápidos para usuarios “de confianza”, no frenando la carrera. Y esa carrera es carísima: Reuters reportó que Alphabet, Amazon, Meta y Microsoft podrían invertir en conjunto unos 650,000 millones de dólares en infraestructura de inteligencia artificial en 2026. Cuando hay tanto capital, tanto prestigio y tanto miedo a quedarse atrás, la tentación de liberar modelos cada vez más poderosos no desaparece; se vuelve estructural.
En el corto plazo, el acceso más avanzado probablemente quedará en manos de grandes proveedores de nube, bancos sistémicos, empresas de infraestructura crítica, laboratorios líderes y equipos verificados de defensa digital. Eso ya está ocurriendo: Project Glasswing reúne a Amazon Web Services, Apple, Cisco, Google, JPMorganChase, Microsoft, NVIDIA y la Linux Foundation, entre otros; además, Anthropic extendió acceso a más de 40 organizaciones adicionales, comprometió hasta 100 millones de dólares en créditos y habilitó uso mediante su interfaz de programación de aplicaciones y plataformas empresariales de Amazon, Google y Microsoft. Quedarán relativamente fuera el público general, la academia independiente, las startups pequeñas y, en la práctica, cualquier actor sin credenciales, músculo financiero o alineación geopolítica suficiente. La nueva brecha no será solo técnica: será también política y contractual.
En los próximos 12 meses, el escenario utópico es potente: modelos así podrían revisar código a una escala inhumana, encontrar errores antes que los delincuentes, abaratar la defensa y fortalecer el software de código abierto que sostiene buena parte de internet. El escenario distópico también es potente: una concentración extrema de poder en pocas empresas y gobiernos, una internet de dos velocidades donde unos pocos se defienden con IA de frontera y el resto queda expuesto, y una rápida difusión de capacidades ofensivas mediante modelos abiertos o réplicas más baratas.
OpenAI ya reconoce que pronto habrá muchos modelos cibernéticos potentes, incluso de pesos abiertos; Anthropic, por su parte, insiste en que esto apenas empieza. Por eso Mythos importa tanto: quizá no sea recordado como el primer modelo “demasiado peligroso”, sino como la primera admisión pública de que la IA más poderosa dejará de parecer una aplicación y empezará a parecerse a infraestructura estratégica.
_____
Nota del editor: Juan Carlos Chávez es Profesor de Creatividad y Etología Económica en el sistema UP/IPADE y autor de los libros Sistema 3: La Mente Creativa (2025), Homo Creativus (2024), Biointeligencia Estratégica (2023), Inteligencia Creativa (2022), Multi-Ser en busca de sentido (2021), Psico-Marketing (2020) y Creatividad: el arma más poderosa del Mundo (2019). Es director de www.G-8D.com Agencia de Comunicación Creativa y consultor de empresas nacionales y transnacionales. Encuentra sus libros en Amazon y síguelo en Facebook , Instagram , YouTube y LinkedIn . Las opiniones publicadas en esta columna corresponden exclusivamente al autor.
Consulta más información sobre este y otros temas en el canal Opinión