En menos de una semana, un desacuerdo sobre límites éticos en inteligencia artificial escaló desde una reunión privada en el Pentágono hasta una orden presidencial que expulsó a una startup de los contratos federales. Mientras Anthropic rechazaba permitir el uso militar sin restricciones de sus modelos, el presidente Donald Trump instruyó a todas las agencias a cesar “inmediatamente” su tecnología. Ese mismo día, OpenAI anunció un acuerdo con el Departamento de Defensa bajo “salvaguardias técnicas”.
Anthropic rechaza el uso militar de su IA, Trump la veta y OpenAI consolida su relación con Defensa
La secuencia no quedó confinada a Washington: provocó cartas abiertas, pronunciamientos de trabajadores y posicionamientos públicos de líderes tecnológicos en California.
Del ultimátum legal al veto presidencial
El 24 de febrero, el Departamento de Defensa dio a Anthropic plazo hasta las 17:00 h del viernes para aceptar el uso militar incondicional de su inteligencia artificial. La exigencia siguió a una reunión entre su director ejecutivo, Dario Amodei, y el secretario de Defensa, Pete Hegseth.
En el centro del conflicto estaba la negativa de la empresa a permitir que los modelos de Claude se utilizaran para vigilancia masiva de ciudadanos estadounidenses y en sistemas de armas totalmente autónomos. Tras el encuentro, el Pentágono advirtió que, de no aceptar, podría emitir una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa, normativa de la Guerra Fría que faculta al gobierno a obligar a la industria privada a priorizar necesidades de seguridad nacional. También planteó la posibilidad de designar a la compañía como riesgo para la cadena de suministro.
Dos días después, Amodei respondió: “Estas amenazas no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud”, afirmó. Aunque reconoció que los modelos de Anthropic ya han sido desplegados por el Pentágono y agencias de inteligencia para defender al país, reiteró que la firma traza una línea ética respecto a vigilancia doméstica masiva y armas letales sin control humano.
El 27 de febrero, Trump ordenó a todas las agencias federales dejar de usar “inmediatamente” la tecnología de Anthropic. Estableció un periodo de eliminación gradual de seis meses para dependencias como el Departamento de Defensa y aseguró que no volverían a hacer negocios con la empresa. Hegseth calificó la postura de la startup como “arrogancia y traición”, mientras Anthropic anunció que impugnará en tribunales cualquier designación como riesgo para la cadena de suministro.
OpenAI anuncia acuerdo con “salvaguardias”
En paralelo al veto, Sam Altman comunicó que OpenAI alcanzó un acuerdo para que sus modelos operen en la red clasificada del Pentágono bajo condiciones técnicas específicas.
El directivo señaló que dos principios centrales de su compañía son la prohibición de la vigilancia masiva a nivel nacional y la responsabilidad humana en el uso de la fuerza, incluidos sistemas de armas autónomas. Añadió que implementarán garantías técnicas para asegurar que los modelos se comporten conforme a esos criterios y que ingenieros de la empresa trabajarán con el Departamento de Defensa en despliegues “únicamente en redes en la nube”.
Altman también pidió que esas mismas condiciones se ofrezcan a todas las empresas de inteligencia artificial y expresó su deseo de que la situación evolucione hacia “acuerdos razonables”, lejos de acciones jurídicas y gubernamentales.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
— Sam Altman (@sama) February 28, 2026
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
La reacción desde Silicon Valley
Con la administración Trump endureciendo su postura contra Anthropic, el conflicto abrió una brecha entre Washington y directivos de grandes empresas tecnológicas estadounidenses, incluidas OpenAI, Google, Amazon y Microsoft.
A pesar de su competencia directa, empleados de compañías con sede en Silicon Valley manifestaron respaldo público a la startup fundada por Dario Amodei. El apoyo incluyó un memorando interno del propio Sam Altman, citado por The New York Times, en el que expresó: “Desde hace tiempo creemos que la inteligencia artificial no debe utilizarse para vigilancia masiva ni para armas letales autónomas”. En el mismo mensaje añadió: “Esto ya no es solo un asunto entre Anthropic y el Departamento de Guerra; es un asunto para toda la industria y es importante dejar clara nuestra postura”.
Más de 100 empleados de Google firmaron una petición en la que pidieron a la empresa “negarse a cumplir” con ciertas exigencias del Pentágono en el uso militar de inteligencia artificial. De forma similar, trabajadores de Amazon y Microsoft solicitaron a sus directivos “mantener la línea” frente a las presiones del Departamento de Defensa.
Los organizadores de la campaña No Tech For Apartheid publicaron en Medium una carta titulada “Organizaciones y sindicatos que representan a 700,000 empleados exigen: Amazon, Google y Microsoft deben rechazar las demandas del Pentágono”. En el documento señalaron: “Hoy alzamos la voz porque el Pentágono está exigiendo que Anthropic abandone dos salvaguardas de seguridad fundamentales para Claude, que es el único modelo de inteligencia artificial de frontera actualmente desplegado en operaciones clasificadas del Departamento de Guerra”.
El mismo texto describió la presión gubernamental en estos términos: “Esta intimidación es un ultimátum: las empresas de IA pueden aceptar los términos del Pentágono, ser designadas como ‘riesgo para la cadena de suministro’ o verse obligadas a proporcionar la tecnología bajo la Ley de Producción de Defensa”.
Otra carta, titulada “No seremos divididos”, firmada por trabajadores de OpenAI y Google , acusó al Departamento de Defensa de intentar fracturar al sector: “Están tratando de dividir a cada empresa con el temor de que la otra ceda”.
Las declaraciones, peticiones y cartas abiertas surgieron en paralelo al ultimátum legal, al veto presidencial y al anuncio del acuerdo de OpenAI con salvaguardias, configurando una respuesta pública de empleados y líderes tecnológicos frente a las condiciones planteadas desde Washington.
Un trasfondo de diferencias sobre seguridad
El enfrentamiento ocurre en un contexto marcado por la trayectoria de Dario Amodei. En 2021 dejó OpenAI junto con otros investigadores senior para fundar Anthropic, argumentando diferencias sobre la prioridad que debía otorgarse a la seguridad, alineación e interpretabilidad de modelos cada vez más potentes.
Bajo el enfoque de “IA constitucional”, la nueva empresa buscó entrenar sistemas conforme a principios explícitos. Esa visión reapareció en el conflicto con el Pentágono, donde la discusión giró en torno a vigilancia doméstica y control humano en armas autónomas.
Entre ultimátums legales, vetos presidenciales, acuerdos condicionados y cartas firmadas por miles de trabajadores, los hechos de los últimos días delinearon un escenario en el que el gobierno federal mostró las herramientas legales que puede activar frente a proveedores tecnológicos, mientras parte del ecosistema de inteligencia artificial respondió con posicionamientos públicos y llamados a una postura común frente a futuras exigencias.