"Una versión de Claude Code incluyó parte de nuestro código fuente interno. No se vieron involucrados ni expuestos datos sensibles de clientes ni credenciales", declaró un portavoz de Anthropic.
La compañía aclaró que se trató de un "error humano" y no de una "brecha de seguridad".
El fichero integrado por error remitía a un archivo comprimido que contenía cerca de 2,000 ítems y 500,000 líneas de código, que fueron descargados rápidamente y se duplicaron en GitHub, una plataforma para desarrolladores.
El código revelado tiene que ver con la arquitectura interna de la herramienta, pero no contiene los datos confidenciales de Claude, el modelo de IA subyacente desarrollado por Anthropic.
El código fuente de Claude Code ya era parcialmente conocido, puesto que la herramienta había sido objeto de ingeniería inversa por desarrolladores independientes, lo que limita el alcance del incidente.
No es la primera vez que Anthropic se enfrenta a este tipo de contratiempo: en febrero de 2025, una versión anterior de Claude Code ya había expuesto accidentalmente su código fuente.
Jueza suspende las sanciones del gobierno de Trump contra la empresa de IA Anthropic
Una jueza federal estadounidense suspendió las sanciones de la administración Trump contra Anthropic, al considerar que probablemente se violó la ley al castigar a la empresa de inteligencia artificial por sus reservas respecto a cómo el Pentágono usaría su tecnología.
La jueza de California Rita Lin acordó una medida cautelar a Anthropic, la creadora del chatbot Claude, y suspendió una directriz presidencial del 27 de febrero que ordenó a las agencias federales cesar el uso de la tecnología de esa compañía.
La decisión, vista por la AFP, también suspendió la orden del secretario de Defensa, Pete Hegseth, de clasificar a Anthropic como un "riesgo para la cadena de suministros" del Pentágono.
Las decisiones de la administración Trump, que suscitaron una amplia oleada de apoyo del sector tecnológico hacia Anthropic, estarán suspendidas durante siete días.