Anthropic detalló que los modelos Claude Gov se crearon con base en la retroalimentación directa de sus clientes gubernamentales para abordar las necesidades operativas “del mundo real”.
“El resultado es un conjunto de modelos Claude que comprenden las necesidades únicas de seguridad nacional de nuestros clientes, a la vez que mantiene el compromiso inquebrantable de Anthropic con la seguridad y el desarrollo responsable de la IA”, aseguró.
Los clientes de seguridad nacional de EU de la firma pueden optar por utilizar sus sistemas de IA en aplicaciones como planificación estratégica, apoyo operativo, análisis de inteligencia y evaluación de amenazas.
Aunque Claude Gov mantiene las políticas estándar de uso de Anthropic que prohíben facilitar armas o sistemas dañinos, se permiten excepciones definidas para ciertas entidades gubernamentales, excluyendo usos como la desinformación y los ciberataques.
La introducción de Claude Gov refleja una tendencia creciente en la integración de la IA en operaciones de seguridad nacional, planteando preguntas sobre el equilibrio entre innovación tecnológica y consideraciones éticas.
Varias empresas de IA están buscando asociaciones con agencias gubernamentales. OpenAI, por ejemplo, ha introducido ChatGPT Gov, y empresas como Scale AI están ampliando sus compromisos gubernamentales.
Anthropic, respaldada por inversiones de Amazon y Google, busca posicionarse como un actor clave en este mercado competitivo, ofreciendo soluciones de IA adaptadas a las necesidades específicas de la seguridad nacional.