Las últimas dos semanas han estado definidas por un choque entre el director ejecutivo de Anthropic, Dario Amodei, y el secretario de Defensa, Pete Hegseth, mientras los dos pelean por el uso militar de la IA.

Anthropic se niega a permitir que sus modelos de IA se utilicen para la vigilancia masiva de estadounidenses o para armas totalmente autónomas que realicen ataques sin intervención humana. Al mismo tiempo, el Secretario Hegseth argumentó que el Departamento de Defensa no debería estar limitado por las reglas de un proveedor, argumentando que se debería permitir cualquier “uso legal” de la tecnología.

El jueves, Amodei señaló públicamente que Anthropic no se echa atrás, a pesar de las amenazas de que su empresa podría ser designada como un riesgo para la cadena de suministro. Pero con el ciclo de noticias avanzando rápidamente, vale la pena revisar exactamente lo que está en juego en la lucha.

En esencia, esta lucha gira en torno a quién controla los potentes sistemas de IA: las empresas que los construyen o el gobierno que pretende implementarlos.

¿Qué le preocupa a Antrópica?

Como dijimos anteriormente, Anthropic no quiere que sus modelos de IA se utilicen para la vigilancia masiva de estadounidenses o para armas autónomas, sin humanos en el circuito para tomar decisiones sobre objetivos y disparos. Los contratistas de defensa tradicionales normalmente tienen poco que decir sobre cómo se utilizarán sus productos, pero Anthropic ha argumentado desde sus inicios que la tecnología de IA plantea riesgos únicos y, por lo tanto, requiere salvaguardias únicas. Desde la perspectiva de la empresa, la cuestión es cómo mantener estas salvaguardas cuando la tecnología está siendo utilizada por el ejército.

El ejército estadounidense ya depende de sistemas altamente automatizados, algunos de los cuales son letales. Históricamente, la decisión de utilizar fuerza letal se ha dejado en manos de los humanos, pero existen pocas restricciones legales sobre el uso militar de armas autónomas. El Departamento de Defensa no prohíbe categóricamente los sistemas de armas totalmente autónomos. Según un Directiva del Departamento de Defensa de 2023Los sistemas de inteligencia artificial pueden seleccionar y atacar objetivos sin intervención humana, siempre que cumplan ciertos estándares y sean revisados ​​por altos funcionarios de defensa.

Esto es exactamente lo que pone nerviosa a Anrópica. La tecnología militar es secreta por naturaleza, por lo que si el ejército estadounidense estuviera tomando medidas para automatizar la toma de decisiones letales, es posible que no lo supiéramos hasta que estuviera operativa. Y si se utilizaran los modelos de Anthropic, se podría considerar “uso legal”.

Evento tecnológico

Boston, Massachusetts
|
9 de junio de 2026

La posición de Anthropic no es que tales usos deban excluirse permanentemente. Es sólo que sus modelos aún no son lo suficientemente capaces para soportarlos de manera segura. Imagine un sistema autónomo que identifica erróneamente un objetivo, intensifica un conflicto sin autorización humana o toma una decisión letal en una fracción de segundo que nadie puede revertir. Si pones una IA menos capaz a cargo de las armas, tendrás una máquina muy rápida y segura que no sabe tomar decisiones de alto riesgo.

La IA también tiene el poder de abrumar la vigilancia legal de los ciudadanos estadounidenses en un grado preocupante. Según las leyes estadounidenses actuales, ahora es posible vigilar a los ciudadanos estadounidenses, ya sea mediante la recopilación de mensajes de texto, correos electrónicos y otras comunicaciones. La IA cambia la ecuación al permitir la detección automatizada de patrones a gran escala, la resolución de entidades en conjuntos de datos, la puntuación de riesgos predictiva y el análisis de comportamiento continuo.

¿Qué quiere el Pentágono?

El argumento del Pentágono es que debería poder desplegar la tecnología de Anthropic para cualquier uso legal que considere necesario, en lugar de estar limitado por las políticas internas de Anthropic en cosas como armas autónomas o vigilancia.

Más específicamente, el Secretario Hegseth argumentó que el Departamento de Defensa no debería estar limitado por las reglas de un proveedor y que participaría en el “uso legal” de la tecnología.

Sean Parnell, el principal portavoz del Pentágono, dijo en un Publicación del jueves X que el departamento no tiene interés en realizar vigilancia nacional masiva o desplegar armas autónomas.

“Esto es lo que estamos pidiendo: permitir que el Pentágono utilice el modelo antrópico para todos los fines legales”, dijo Parnell. “Esta es una solicitud simple y de sentido común que evitará que Anthropic comprometa operaciones militares críticas y potencialmente ponga en riesgo a nuestros combatientes. No permitiremos que NINGUNA compañía dicte los términos de cómo tomamos decisiones operativas”.

Agregó que Anthropic tiene hasta las 5:01 pm ET del viernes para decidir. “De lo contrario, pondremos fin a nuestra asociación con Anthropic y los consideraremos un riesgo para la cadena de suministro de DOW”, dijo.

A pesar de la posición del Departamento de Defensa de que simplemente no cree que deba estar limitado por las políticas de utilización de una corporación, las preocupaciones del Secretario Hegseth sobre Anthropic a veces parecen ligadas a agravios culturales. En un discurso en las oficinas de SpaceX y xAI en eneroHegseth criticó la “IA despertada” en un discurso que algunos vieron como un adelanto de su rivalidad con Anthropic.

“La IA del Departamento de Guerra no se despertará”, dijo Hegseth. “Estamos construyendo armas y sistemas listos para la guerra, no chatbots para una sala de profesores de la Ivy League”.

¿Y ahora?

El Pentágono amenazó con declarar a Anthropic un “riesgo para la cadena de suministro”, lo que efectivamente incluye a Anthropic en la lista negra para no hacer negocios con el gobierno, o invocar la Ley de Producción de Defensa (DPA) para obligar a la empresa a adaptar su modelo a las necesidades militares. Hegseth le dio a Anthropic hasta las 5:01 pm del viernes para responder. Pero a medida que se acerca la fecha límite, nadie sabe si el Pentágono cumplirá su amenaza.

Esta no es una pelea de la que cualquiera de las partes pueda abandonar fácilmente. Sachin Seth, capitalista de riesgo de Trousdale Ventures que se centra en tecnología de defensa, dice que una etiqueta de riesgo de la cadena de suministro para Anthropic podría significar “apagar las luces” para la empresa.

Sin embargo, dijo, si Anthropic es eliminado del Departamento de Defensa, podría ser un problema de seguridad nacional.

“[The Department] Tendríamos que esperar de seis a 12 meses para que OpenAI o xAI se pongan al día”, dijo Seth a TechCrunch. “Eso deja una ventana de hasta un año en la que podrían estar trabajando no con el mejor modelo, sino con el segundo o tercer mejor”.

xAI se está preparando para clasificarse y reemplazar a Anthropic, y es justo decir que cierto propietario La retórica de Elon Musk sobre la cuestión de que la empresa no tendría ningún problema en darle al Departamento de Defensa el control total sobre su tecnología. Reciente informes indican que OpenAI puede seguir las mismas líneas rojas que Antropica.

Fuente