Publicidad
Revista Digital
Publicidad

Google advierte que la IA ya hackea el doble factor de autenticación

Por primera vez, Google detecta el uso de IA para identificar y atacar brechas desconocidas de seguridad y sus expertos alertan que esta tecnología ya elude el 2FA.
lun 11 mayo 2026 10:30 AM
El doble factor de autenticación ya no es suficiente: Google advierte que la IA ya puede hackearlo
Google dijo tener un alto nivel de confianza en que se usó IA para ayudar a descubrir y convertir una vulnerabilidad de día cero en un arma. (Foto: Fernando Guarneros)

Investigadores del grupo de Inteligencia de Amenazas de Google afirmaron encontrar indicios de que ciberdelincuentes utilizaron herramientas de inteligencia artificial para descubrir y explotar una vulnerabilidad en sus defensas, algo que abre el debate por el potencial malicioso de este tipo de tecnología.

De acuerdo con el reporte que la empresa publicó este lunes, existen indicios para afirmar que la IA pudo explotar una vulnerabilidad de día cero, es decir, fallos desconocidos para el desarrollador, una condición que deja a los defensores sin tiempos para corregirlos antes de que puedan ser aprovechados.

Publicidad

Google dijo tener un alto nivel de confianza en que se usó IA para ayudar a descubrir y convertir la vulnerabilidad en un arma, pero se negó a revelar más información, como el software afectado, el modelo de lenguaje que se utilizó o el nombre del grupo de ciberdelincuentes.

La empresa también destacó que sus investigadores no creen que la vulnerabilidad se haya descubierto, gracias a la tecnología de Anthropic, Mythos, o ni siquiera con algún modelo de Gemini, desarrollado por la propia Google.

A inicios de abril, Anthropic dio a conocer Mythos, un modelo con habilidades avanzadas para identificar vulnerabilidades en términos de ciberseguridad. Dentro de sus capacidades destaca la identificación de brechas desconocidas y generar formas de explotarlas, lo que abre la posibilidad de que actores maliciosos lo utilicen para desarrollar ciberataques, acceder a sistemas sensibles o comprometer infraestructura crítica.

De acuerdo con el reporte técnico de Anthropic, el modelo logró identificar fallas desconocidas en distintos sistemas durante pruebas internas. Entre los hallazgos aparecen vulnerabilidades en software ampliamente utilizado, incluidos navegadores y componentes del sistema operativo.

El modelo no se creó como una herramienta exclusiva de ciberseguridad, Anthropic lo entrenó para tareas generales como programación, análisis de código y resolución de problemas complejos. Sin embargo, estas capacidades le permiten revisar grandes volúmenes de código, encontrar errores y proponer formas de explotarlos. En entornos controlados, Mythos incluso construyó pruebas de ataque funcionales a partir de fallas detectadas.

Publicidad

Aunque informó sobre su nuevo software, Anthropic no liberó el modelo porque suponía un riesgo para la seguridad nacional e incluso desde entonces, la Casa Blanca tomó medidas para abordar el posible uso malintencionado de esas herramientas.

De hecho, tras la publicación del informe, el Departamento del Tesoro y la Reserva Federal de Estados Unidos (Fed) convocaron a los principales líderes de Wall Street a una reunión urgente debido a la preocupación de que el modelo represente una nueva era de mayor riesgo cibernético global.

Por su parte, Google señaló que tras sus hallazgos, esta clase de amenazas donde la IA juega un papel fundamental ya son una realidad y en este caso específico, la tecnología colaboró para eludir la autenticación de dos pasos, la cual busca proteger las contraseñas de los usuarios.

A pesar de ello, el gigante tecnológico informó al desarrollador de la herramienta que fue blanco del ataque y solucionó el problema antes de que los ciberdelincuentes pudieran utilizarla en contra de los usuarios.

Publicidad

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad