El conflicto surgió después de que el Pentágono clasificara a Anthropic como un proveedor de riesgo, una etiqueta que limita o impide que contratistas del gobierno utilicen su tecnología en proyectos vinculados con defensa.
La medida se tomó tras un desacuerdo sobre el uso militar de Claude, el modelo de IA desarrollado por la empresa, que el gobierno buscaba emplear con menos restricciones operativas.
Anthropic sostiene que se negó a eliminar ciertas salvaguardas en sus sistemas, especialmente aquellas que impiden que la IA se utilice para armas autónomas letales o para vigilancia doméstica masiva. Según la empresa, estas limitaciones forman parte de sus principios de seguridad y ética en el desarrollo de IA.
En la demanda, Anthropic argumenta que la decisión del gobierno es “ilegal” y viola derechos como la libertad de expresión y el debido proceso.
El enfrentamiento ocurre en un momento de creciente competencia entre compañías de inteligencia artificial por contratos gubernamentales. Otras firmas del sector, como OpenAI o Google, mantienen acuerdos con agencias federales, mientras el debate sobre hasta dónde deben llegar las aplicaciones militares de la IA sigue intensificándose en Silicon Valley y Washington.
Con información de AFP.