En 2025, Anthropic abrazó públicamente una mayor presencia de defensa al anunciar un acuerdo con el Departamento de Defensa de Estados Unidos por valor de 200 millones de dólares. Imagen utilizada con fines representativos. | Crédito de la foto: Reuters
Anthropic ha pasado el último año tratando de mantenerse en una posición incómoda: lo suficientemente cerca del aparato de seguridad nacional de Estados Unidos como para ser tratada como un proveedor fronterizo, pero lo suficientemente lejos como para no ser quemada. En una demostración de este yoga reputacional, se reveló que la operación estadounidense para secuestrar al presidente venezolano Nicolás Maduro el 3 de enero utilizó el modelo de IA de Anthropic, Claude.
Más recientemente, Anthropic chocó con el Pentágono por salvaguardias para prevenir ataques a armas totalmente autónomas y la vigilancia interna de Estados Unidos. Aunque Anthropic afirma que estos límites no son negociables, el Pentágono sostiene que la IA comercial debe estar disponible para “todos los fines legales”. Incluso más recientemente, el Pentágono ha considerado designar a Anthropic como un “riesgo para la cadena de suministro”, una etiqueta que podría presionar a los contratistas para que certifiquen que no están utilizando Claude.
¿Por qué Anrópica se encontró en esta situación?
En 2025, la empresa adoptó públicamente una mayor huella de defensa al anunciar una Acuerdo con el Departamento de Defensa de Estados Unidos por valor de 200 millones de dólares.. Era una señal de que Anthropic quería ser el laboratorio que dijera “sí” a la seguridad nacional, mientras operaba dentro de límites y, en el proceso, mantenía una reputación pública como una empresa que forma parte de la maquinaria militar. Anthropic también ha intentado presentarse como una empresa de productividad empresarial, no solo como un laboratorio con un chatbot. Su asociación con Infosys, por ejemplo, combinará sus modelos con una empresa que ya vende servicios de cumplimiento y gobernanza a industrias fuertemente reguladas.
Dos ambiciones
La razón de su conexión es que una empresa que puede afirmar que opera de forma segura en contextos gubernamentales con expectativas de seguridad estrictas también puede venderse a bancos, fabricantes y empresas de telecomunicaciones. Es decir, a los gobiernos, Anthropic les dice: “Ayudaremos a los estados democráticos a mantener una ventaja tecnológica, pero no aceptaremos implementaciones como la focalización autónoma o la vigilancia interna expansiva”. Como resultado, llega incluso a decir a las empresas: “Podemos poner en funcionamiento la IA de vanguardia en entornos con estrictos requisitos de cumplimiento”.
Desafortunadamente, Estas dos ambiciones han chocado desde entonces.. Anthropic parece creer que ceder a la focalización autónoma y la vigilancia interna destruiría la línea que ha estado tratando de trazar con otros laboratorios y actores fronterizos que también están cortejando a clientes de defensa.
El Pentágono, sin embargo, parece estar señalando que los escrúpulos morales de sus proveedores son irrelevantes, especialmente cuando los proveedores están dentro de la cadena de suministro de defensa.
La capa de automatización empresarial, es decir, los sistemas de codificación y agentes que permiten incorporar a Claude directamente a los flujos de trabajo, en lugar de mantenerlo como un chatbot que las empresas utilizan ad hoc, sigue siendo una de las áreas clave de enfoque de Anthropic. Y la compañía también ha tratado de presentar las características de seguridad de sus modelos como una ventaja porque su lógica parece ser que los reguladores y las empresas preferirán estos modelos incluso cuando los competidores desarrollen alternativas más poderosas. Pero esto también significa que si Anthropic cede a la demanda del Pentágono, podría perder su diferenciación característica, mientras que si se niega, el Pentágono podría convertirlo en un ejemplo.
El hecho es que, si bien Anthropic puede intentar controlar cómo se utiliza a Claude, su control se debilitará cuando Claude abandone el edificio. Anthropic podría decir “no puedes usar Claude para x” en los términos de servicio o entrenar el modelo para rechazar ciertas solicitudes, pero incluso entonces, los grandes clientes rara vez usan un modelo de IA como un chatbot independiente. En lugar de ello, acceden a él a través de plataformas en la nube, lo integran en herramientas de software, como las de análisis y automatización de datos, y lo adaptan para misiones específicas. En otras palabras, los clientes pueden eludir los términos de servicio y la cuestión de la complicidad de Anthropic aún permanece.
En este sentido, las recientes decisiones de Antropica probablemente sean coherentes. Apostó a que un mercado nervioso por la IA (por ejemplo, gobiernos preocupados por los adversarios o empresas preocupadas por la responsabilidad) pagará una prima por un desarrollador que pueda implementar y restringir. Y la disputa con el Pentágono es la primera gran demostración de cuánto le costará a Anrópica hacer ambas cosas al mismo tiempo.
Publicado – 22 de febrero de 2026 01:53 am IST
















