El director ejecutivo de Anthropic, Dario Amodei, dijo que la compañía “no tiene otra opción” que impugnar ante los tribunales la designación formal por parte del Pentágono de la compañía de inteligencia artificial como un riesgo para la seguridad nacional de Estados Unidos.
El CEO, escribiendo en un blog el jueves, insistió, sin embargo, en que el alcance práctico de la decisión es más limitado de lo sugerido inicialmente, lo que indica que la designación no tendría un efecto catastrófico en la empresa.
Amodei dijo que el Departamento de Guerra, el nombre preferido de la administración Trump para el Departamento de Defensa, confirmó en una carta que Anthropic y sus productos, incluido su ampliamente utilizado modelo Claude AI, se consideraban un riesgo para la cadena de suministro.
Es la primera vez que una empresa estadounidense recibe públicamente una designación de este tipo, una etiqueta normalmente reservada para organizaciones de países extranjeros adversarios, como la empresa de tecnología china Huawei.
“Esto claramente se aplica sólo al uso de Claude por parte de clientes como parte directa de contratos con el Departamento de Guerra, y no a todo uso de Claude por parte de clientes que tienen dichos contratos”, escribió.
La designación requerirá que los contratistas y proveedores de defensa certifiquen que no utilizan modelos Anthropic en su trabajo con el Pentágono.
Pero Amodei argumentó que según el estatuto pertinente, la intención es “proteger al gobierno en lugar de castigar a un proveedor” y exige que el Pentágono utilice “los medios menos restrictivos necesarios”.
Microsoft, uno de los socios más importantes de Anthropic, estuvo de acuerdo con esa lectura y concluyó que los productos de Anthropic pueden permanecer disponibles para sus clientes, excepto el Departamento de Guerra.
Google y Amazon Web Services (AWS), los otros grandes gigantes de la nube que Claude de Anthropic asigna con frecuencia a clientes comerciales, también dijeron que respaldan los productos de la compañía excepto para el uso militar de EE. UU.
La disputa estalló después de que Anthropic enfureciera al jefe del Pentágono, Pete Hegseth, al insistir en que su tecnología no debería usarse para vigilancia masiva o sistemas de armas totalmente autónomos.
Washington respondió diciendo que el Pentágono opera dentro de la ley y que los proveedores contratados no pueden dictar términos sobre cómo se utilizan sus productos.
Amodei también utilizó la declaración para disculparse por un memorando interno de la empresa que se filtró a la prensa esta semana, en el que decía a los empleados que las acciones contra la empresa tenían motivaciones políticas.
“Las verdaderas razones por las que no le agradamos a ‘la administración Trump’ es que no donamos a Trump (mientras que OpenAI/Greg donaron mucho)”, dijo Amodei, refiriéndose a Greg Brockman, presidente de OpenAI, fabricante de ChatGPT, que donó 25 millones de dólares a Trump.
Amodei calificó el memorando como una “evaluación obsoleta de la situación actual”, escrita bajo coacción, un día en que su empresa estaba bajo extrema presión por parte del gobierno.
OpenAI inicialmente intervino para reemplazar a Anthropic en su contrato con el ejército de EE. UU., pero la medida fracasó cuando los altos empleados de OpenAI expresaron su malestar con el acuerdo.
El director ejecutivo de OpenAI, Sam Altman, dijo más tarde que el acuerdo era “descuidado” y que estaba trabajando para revisarlo.
El enfrentamiento con el Pentágono tuvo un lado positivo para Anthropic, que fue fundada en 2021 por ex empleados de OpenAI y se centra en la seguridad de la IA.
El conflicto ayudó a impulsar la aplicación Claude a la cima de las clasificaciones de descargas de teléfonos inteligentes de Apple y Google.
Anthropic también explicó a la AFP que el número de usuarios de pago de su modelo Claude se ha duplicado desde principios de año y que su aplicación se descarga actualmente más de un millón de veces al día.
Publicado – 7 de marzo de 2026, 10:24 a. m. IST
















