Un alto funcionario del Pentágono dijo que la disputa de Anthropic con el gobierno sobre el uso de su tecnología de inteligencia artificial en armas totalmente autónomas se produjo tras un debate sobre cómo se podría utilizar la IA en El próximo programa de defensa antimisiles Golden Dome del presidente estadounidense Donald Trump, cuyo objetivo es colocar armas estadounidenses en el espacio.
El subsecretario de Defensa de Estados Unidos, Emil Michael, director de tecnología del Pentágono, dijo que ha llegado a considerar las restricciones éticas de la compañía de inteligencia artificial sobre el uso de su chatbot Claude como un obstáculo irrazonable mientras el ejército estadounidense busca dar mayor autonomía a enjambres de drones armados, vehículos submarinos y otras máquinas para competir con rivales como China que podrían hacer lo mismo.
“Necesito un socio confiable y estable que me dé algo, que trabaje conmigo de forma autónoma, porque algún día esto será real y estamos empezando a ver versiones anteriores de esto”, dijo Michael en un podcast transmitido el viernes. “Necesito a alguien que no se vuelva loco en el medio”.
Los comentarios se produjeron después de que el Pentágono designara formalmente a Antropica, con sede en San Francisco, como un riesgo para la cadena de suministro, deteniendo su trabajo de defensa utilizando una regla diseñada para evitar que adversarios extranjeros dañen los sistemas de seguridad nacional.
Anthropic ha prometido demandar por la designación, que afecta sus asociaciones comerciales con otros contratistas militares.
Trump también ordenó a las agencias federales que dejaran de usar Claude de inmediato, aunque el presidente republicano le dio al Pentágono seis meses para eliminar gradualmente un producto que está profundamente arraigado en sistemas militares sensibles, incluidos los utilizados en la guerra de Irán.
Anthropic dijo que sólo buscaba restringir el uso de su tecnología a dos usos de alto perfil: vigilancia masiva de estadounidenses o armas totalmente autónomas.
Michael, un ex ejecutivo de Uber, reveló su versión de las conversaciones de meses con el director ejecutivo de Anthropic, Dario Amodei, en una larga conversación con los capitalistas de riesgo de Silicon Valley Jason Calacanis, David Friedberg y Chamath Palihapitiya, copresentadores del podcast “All-In”.
Un cuarto coanfitrión, el ex ejecutivo de PayPal David Sacks, es ahora el zar de la IA de Trump y no estuvo presente en el episodio, pero ha sido un crítico vocal de Anthropic, incluso por la contratación de ex funcionarios de la administración Biden poco después de que Trump regresara a la Casa Blanca el año pasado.
Cuando las negociaciones llegaron a un punto muerto la semana pasada, Michael atacó a Amodei en las redes sociales, diciendo que “tiene un complejo de Dios” y “no quiere nada más que tratar de controlar personalmente” a los militares. Sin embargo, en el podcast posicionó la disputa como parte de un cambio militar más amplio hacia el uso de la IA.
Michael dijo que el ejército está desarrollando procedimientos para permitir diferentes niveles de autonomía en la guerra dependiendo del riesgo planteado.
“Esto es parte del debate que tuve con Anthropic, que es que necesitamos IA para cosas como la Cúpula Dorada”, dijo Michael, compartiendo un escenario hipotético en el que Estados Unidos tendría sólo 90 segundos para responder a un misil hipersónico chino.
Un operador humano de antimisiles “puede que no sea capaz de discriminar con sus propios ojos lo que está persiguiendo”, pero un contraataque autónomo sería de bajo riesgo “porque está en el espacio y sólo estás tratando de golpear algo que intenta atraparte”.
En otro escenario, dijo, “¿quién podría objetar si tienes una base militar, tienes un grupo de soldados durmiendo, tienes un láser que puede derribar drones de forma autónoma?”
En respuesta a los comentarios del podcast, Anthropic señaló una declaración anterior de Amodei que decía: “Anthropic entiende que el Departamento de Guerra, no las empresas privadas, toma las decisiones militares. Nunca planteamos objeciones a operaciones militares específicas ni intentamos limitar el uso de nuestra tecnología de manera ad hoc”.
Michael, subsecretario de Defensa para investigación e ingeniería, asumió el cargo en mayo pasado y dijo que se hizo cargo de la “cartera de IA” del ejército en agosto. Fue entonces cuando dijo que comenzó a examinar los contratos de Anthropic, algunos de los cuales se remontaban a la administración demócrata del presidente estadounidense Joe Biden. Michael dijo que cuestionó a Anthropic sobre los términos de uso que consideraba demasiado restrictivos.
“Necesito que los términos de servicio sean racionales en relación con nuestra misión establecida”, dijo. “Así que comenzamos estas negociaciones. Tomaron tres meses y tuve que darles escenarios, como este ejemplo del misil hipersónico chino. Dijeron: ‘Está bien, haremos una excepción con eso’. Bueno, ¿qué tal este enjambre de drones? “Hagamos una excepción con esto”. Y pensé, las excepciones no funcionan. No puedo predecir en los próximos 20 años cuáles serán todas las cosas para las que podremos usar la IA”.
Fue entonces cuando el Pentágono comenzó a insistir en que Anthropic y otras empresas de inteligencia artificial permitieran “todo uso legal” de su tecnología, dijo Michael.
Anthropic se resistió a este cambio, argumentando que los principales sistemas de inteligencia artificial actuales “simplemente no son lo suficientemente confiables para impulsar armas totalmente autónomas”.
Sus competidores (Google, OpenAI y xAI de Elon Musk) aceptaron los términos del Pentágono, aunque algunos aún tienen que preparar su infraestructura para trabajos militares sensibles, dijo Michael. El otro punto de discordia de Anthropic fue no permitir ninguna vigilancia masiva de los estadounidenses.
“No querían que recopiláramos información pública masiva sobre las personas que usaban su sistema de inteligencia artificial”, dijo Michael, describiendo las negociaciones como “interminables”.
Anthropic cuestionó partes de la versión de Michael de las negociaciones y enfatizó que las protecciones que buscaba eran limitadas y no se basaban en los usos existentes de Claude. La siguiente etapa de la disputa probablemente tendrá lugar en los tribunales.
Publicado – 7 de marzo de 2026 10:01 a. m. IST













