Cuando la administración Trump designó a Anthropic como un “riesgo para la cadena de suministro” y ordenó a todas las agencias federales que dejaran de utilizar Claude, la agencia no se limitó a cancelar el contrato de 200 millones de dólares. Podría desencadenar una cadena de acontecimientos que debilite a la empresa de inteligencia artificial más innovadora de Estados Unidos. Al mismo tiempo que Estados Unidos más lo quiere
Ahora que Anthropic ha presentado dos demandas contra el Departamento de Defensa, lo que suceda a continuación puede ser más importante de lo que cualquiera de las partes deja entrever.
¿Qué pasó realmente?
Supongamos que la Antropología se niega a entregar el Pentágono. Acceso ilimitado a ClaudeEs un modelo de IA de vanguardia, el único que se ejecuta en una red militar secreta. Quieren garantías de vigilancia masiva cero. Y no existen armas automáticas sin un ser humano al tanto. para tomar una decisión final sobre la vida o la muerte El mensaje del Ministerio de Guerra fue “Elimine esas restricciones o perderá todo”, y el presidente Trump ordenó a todas las agencias federales que dejaran de usar Anthropic y designó a la empresa como “Riesgos en la cadena de suministro”.
Pero hay más en esta historia que demandas y egos heridos.
La verdadera amenaza no es la promesa.
La ley federal ya prohíbe la vigilancia masiva de ciudadanos estadounidenses. La política del Departamento de Guerra ya limita las armas automáticas. Anthropic ya está invocando el poder de veto contractual sobre actividades ilegales. Empresas privadas que afirman tener autoridad sobre cómo opera el ejército estadounidense. Eso no es aceptable. Nadie eligió a Dario Amodei y no permitiremos que Lockheed dicte la doctrina de objetivos. La idea de que las empresas de software deban tener poder de veto sobre las decisiones sobre operaciones militares no tiene precedentes.
claudio Supera a ChatGPT en prácticamente todos los estándares organizacionales importantes, desde el razonamiento legal hasta el modelado financiero. a la seguridad cibernética y la modernización de los sistemas heredados, pero la designación de “riesgo de la cadena de suministro” por parte del Departamento de Guerra amenazó con poner fin al impulso comercial de Anthropic antes de que pudiera capitalizar plenamente su liderazgo tecnológico.
En juego geopolítico
Anthropic firmó sus nombres. Contrato por valor de 200 millones de dólares Con el Pentágono en julio de 2025, eso fue hace ocho meses. Ahora ya está hecho y OpenAI está llenando ese vacío. Decir que esto sucedió rápidamente es quedarse corto.
Anthropic y OpenAI también han acusado públicamente a los laboratorios chinos de perfeccionar sus modelos. Esas versiones robadas de código abierto, incluido Deepseek, ahora están disponibles para el EPL, Irán y todos los malos actores del mundo cercado. Queremos vivir en un mundo donde las empresas estadounidenses limiten su propio ejército. ¿Mientras los oponentes practican versiones pirateadas de la misma tecnología sin restricciones?
La verdadera amenaza existencial no es la pérdida de un contrato de 200 millones de dólares, sino más bien el efecto dominó a través de AWS, Google, Palantir, Accenture, Deloitte y todo el ecosistema de contratistas de defensa que se adentra en la base de clientes comerciales de Anthropic en Estados Unidos.
El mundo empresarial ha demostrado que hará lo que sea necesario para mantener contenta a la actual administración. Es posible que se exija a todas las empresas que actualmente hacen negocios con el gobierno federal que certifiquen la divulgación cero de productos de Anthropic. AWS, Google Cloud y Azure brindan servicios al gobierno, y Anthropic dice que algunas de las empresas más grandes de EE. UU. utilizan Claude y muchas son contratistas de defensa. Si eso sucede, es posible que Anthropic ya no pueda operar en los Estados Unidos.
¿Puede la antropología ganar en los tribunales?
Mi opinión es que, desde el punto de vista jurídico, la designación no se mantiene. Existen limitaciones a 10 USC § 3252 Debido proceso y objeciones a la Primera Enmienda. Y los precedentes de Luokung y Xiaomi son inherentemente contradictorios con las afirmaciones del gobierno de que la antropología es peligrosa. pero ellos permiten Seis meses para terminarlo..
Todo esto suma y hay un libro de jugadas para que Anthropic venza estos dos sets. Tienen miles de millones. Esto significa que pueden brindarle a su equipo legal lo mejor que el dinero puede comprar. Tienen las municiones y la voluntad para luchar contra esta administración durante el mayor tiempo posible.
Qué debe hacer la antropología ahora
Ganar en los tribunales es necesario pero no suficiente. Para sobrevivir, Anthropic necesita avanzar en varios frentes a la vez:
- Acelerar el dominio del comercio interno con empresas que no están sujetas a contratos gubernamentales
- Crear una estrategia de alianza gubernamental — Identificar qué socios internacionales se beneficiarán de Claude y construir esa base de clientes de inmediato.
- Litigar vigorosamente y sin fin. – La demora es el enemigo.
- Profundizar la dependencia de los ecosistemas. Liderando una coalición regulatoria para una IA responsable e impulsada por valores. Cuanto mayor sea la buena voluntad y la confianza del público en la industria, más fuerte será Anthropic en el largo plazo.
La cuestión principal no es realmente la demanda ni el dinero prometido. Es una cuestión de quién determina los límites de la defensa nacional. Ya sea un funcionario electo que rinde cuentas ante los votantes o ejecutivos tecnológicos que rinden cuentas ante sus juntas directivas, Vinod Khosla lo dejó claro: admira los principios de la antropología. Pero no estoy de acuerdo con ese principio.
Las opiniones expresadas en las reseñas de Fortune.com son únicamente las del autor. y no reflejan necesariamente las opiniones y creencias de suerte.











