La relación entre uno de los fabricantes de modelos de IA más rentables y poderosos de Silicon Valley, Anthropic, y el gobierno de EE. UU. llegó a un punto de ruptura el viernes 27 de febrero de 2026.
El presidente Donald J. Trump y la Casa Blanca publicado en las redes sociales ordenar a todas las agencias federales que dejen de usar inmediatamente la tecnología de Anthropic, fabricante de la poderosa familia Claude de modelos de inteligencia artificial, después de meses de renegociar un contrato de menos de dos años. Siguiendo el ejemplo del Presidente, El Secretario de Guerra, Pete Hegseth, dijo que estaba ordenando al Departamento de Guerra que designara un “riesgo de la cadena de suministro para la seguridad nacional”, una lista negra tradicionalmente reservada para adversarios extranjeros como Huawei o Kaspersky Lab.
La medida pone fin efectivamente al contrato militar de 200 millones de dólares de Anthropic y establece un plazo estricto de seis meses para que el Departamento de Guerra purgue a Claude de sus sistemas.
Pero el negocio de Anthropic ha estado en auge últimamente, con Sólo su servicio Claude Code se dispara hasta alcanzar una división ARR de más de 2.500 millones de dólares. menos de un año después de su lanzamiento, y acaba de anunciar un Serie G de 30.000 millones de dólares a una valoración de 380.000 millones de dólares a principios de este mes y, más o menos solo estimuló grandes caídas de acciones en el sector SaaS lanzamiento de complementos y habilidades para funciones específicas de la empresa y de la industria vertical, incluidos recursos humanos, diseño, ingeniería, operaciones, análisis financiero, banca de inversión, investigación de acciones, capital privado y gestión patrimonial.
Irónicamente, las empresas de SaaS en industrias y sectores como Salesforce, Spotify, Novo Nordisk, Thompson Reuters y otros están reportando algunos de los mayores beneficios de productividad y rendimiento gracias a los modelos de puntuación de referencia Claude AI altamente capaces y efectivos de Anthropic. No es exagerado decir que Anthropic se encuentra entre los laboratorios de IA más exitosos de EE. UU. y del mundo.
Entonces, ¿por qué ahora se considera un “riesgo de la cadena de suministro para la seguridad nacional”?
¿Por qué el Pentágono designa a Anthropic como un “riesgo para la cadena de suministro de seguridad nacional”, y por qué ahora?
La ruptura surge de una disputa fundamental sobre “todo uso lícito”. El Pentágono exigió acceso irrestricto a Claude para cualquier misión considerada legal, mientras El director general de Anthropic, Dario Amodei, se negó a ceder en dos “líneas rojas” específicas: el uso de sus modelos para la vigilancia masiva de ciudadanos estadounidenses y armamento letal totalmente autónomo.
Hegseth calificó la negativa de “arrogancia y traición”, mientras que Amodei sostuvo que tales protecciones son esenciales para evitar “una escalada involuntaria o el fracaso de la misión”.
Las consecuencias son inmediatas; El Departamento de Guerra ordenó a todos los contratistas y socios que dejaran de realizar actividades comerciales con Anthropic de inmediato, aunque el propio Pentágono tiene una ventana de 180 días para hacer la transición a proveedores “más patrióticos”.
El vacío dejado por Anthropic ya lo están llenando sus principales rivales. El CEO de OpenAI, Sam Altman, acaba de anunciar un acuerdo con el Pentágono esto incluye dos “principios de seguridad” que parecen similares, aunque aún no está claro si son el mismo tipo de lenguaje contractual. Más temprano ese mismo día, OpenAI anunció un impresionante ronda de inversión de 110 mil millones de dólares liderado por Amazon, Nvidia y SoftBank.
Según se informa, xAI de Elon Musk también firmó un acuerdo para permitir que su modelo Grok se use en sistemas altamente sensibles, habiendo aceptado el estándar de “uso completamente legal” que Anthropic rechazó, pero que se dice que tiene están mal calificados entre los trabajadores gubernamentales y militares Ya estoy usando.
Sobre eso, Anthropic expresó su intención de impugnar la designación en los tribunales y alentó a sus clientes comerciales a continuar utilizando sus productos y servicios, con excepción del trabajo militar.
Qué significa esto para las empresas: el imperativo de la interoperabilidad
Para los responsables técnicos de la toma de decisiones empresariales, la “Prohibición Antropógena” es un toque de atención que trasciende las políticas específicas de la administración Trump. Ya sea que esté de acuerdo con la postura ética de Anthropic (como yo) o con la posición del Pentágono, la conclusión central es la misma: la interoperabilidad de los modelos es más importante que nunca.
Si todo el flujo de trabajo de su agencia o su pila de atención al cliente está codificado en la API de un único proveedor, no será lo suficientemente ágil o flexible para satisfacer las demandas de un mercado donde algunos clientes potenciales, como el ejército o el gobierno de EE. UU., quieren que use o evite plantillas específicas como condiciones de sus contratos con ellos.
El curso de acción más prudente en este momento no es necesariamente presionar el botón “eliminar” en Claude, que sigue siendo el mejor modelo de su clase para codificación y razonamiento matizado, sino asegurarse de tener una “espera activa”.
Esto significa utilizar capas de orquestación y formatos de avisos estandarizados que le permitan cambiar entre Claude, GPT-4o y Gemini 1.5 Pro sin una degradación importante del rendimiento. Si no puede cambiar de proveedor en un plazo de 24 horas, su cadena de suministro será frágil.
Diversifique su entrega de IA
Mientras los gigantes norteamericanos luchan por el favor del Pentágono, el mercado se está fragmentando de una manera que ofrece coberturas sorprendentes.
Google Gemini vio cómo sus acciones se disparaban tras la noticia, y la nueva inyección masiva de efectivo de OpenAI de Amazon (anteriormente un fuerte aliado de Anthropic) indica una consolidación de poder.
Sin embargo, no descuidemos las alternativas “abiertas” e internacionales. empresas norteamericanas como Airbnb ya ha causado sensación al adoptar modelos chinos de código abierto y de bajo coste como Qwen de Alibaba para ciertas funciones de servicio al cliente, citando costo y flexibilidad.
Si bien los modelos chinos conllevan su propio conjunto de riesgos geopolíticos potencialmente mayores, para algunas empresas sirven como una cobertura viable contra la actual volatilidad del mercado interno estadounidense.
De manera más realista, para la mayoría, el paso al alojamiento interno a través de productos caseros como la serie GPT-OSS de OpenAI, Granite de IBM, Llama de Meta, modelos Trinity de Arcee, Olmo de AI2, modelos LFM2 más pequeños de Liquid AI u otros pesos pesados de código abierto de alto rendimiento es la póliza de seguro definitiva. Herramientas de evaluación comparativa de terceros, como Análisis artificiales y banco de presión puede ayudar a las empresas a decidir qué modelos cumplen con sus criterios de costo y rendimiento para las tareas y cargas de trabajo que se implementan.
Al ejecutar modelos localmente o en una nube privada y ajustarlos según sus datos de propiedad exclusiva, aísla a su empresa de las guerras de “Términos de servicio” y las listas negras federales.
Incluso si un modelo secundario es ligeramente inferior en términos de rendimiento de referencia, tenerlo listo para escalar evita un apagón total si su proveedor principal se ve repentinamente “bajo asedio” por represalias gubernamentales. Es simplemente un buen negocio: necesita diversificar su oferta.
La nueva diligencia debida
Como líder empresarial, su lista de verificación de diligencia debida acaba de ampliarse gracias a una lucha volátil entre el gobierno federal y el sector privado.
La conclusión es clara: si planea hacer negocios con agencias federales, debe poder certificarles que sus productos no se fabrican según ningún modelo de proveedor prohibido, por muy repentina que pueda ocurrir esa designación.
En última instancia, esta es una lección de redundancia estratégica. La era de la IA debería girar en torno a la democratización de la inteligencia, pero actualmente parece una batalla clásica sobre adquisiciones de defensa y poder ejecutivo.
Proteja su respaldo y sus diversos proveedores, cree para la portabilidad y no permita que sus “agentes” se conviertan en daños colaterales en la guerra entre el gobierno y cualquier empresa específica.
Ya sea que esté motivado por el apoyo ideológico a Antropica o por una protección a sangre fría, el camino a seguir es el mismo: diversificar, desacoplar y estar preparado para entrar y salir rápidamente.
La interoperabilidad de modelos acaba de convertirse en el nuevo “must-have” de la empresa.













