La decisión, reportado por primera vez por El diario de Wall Street el juevescitando una fuente familiar, impedirá que los contratistas de defensa trabajen con el gobierno si utilizan Claude, el programa de inteligencia artificial de Anthropic, en sus productos. Si bien la designación se aplica típicamente a empresas extranjeras con vínculos con gobiernos adversarios, esta es la primera vez que una empresa estadounidense recibe públicamente esta etiqueta.
En el centro del conflicto está la negativa de Anthropic a permitir que el Pentágono utilice a Claude para dos propósitos: armas letales autónomas sin supervisión humana y vigilancia masiva. El Pentágono argumentó que las demandas de Anthropic de controlar el uso del gobierno pondrían demasiado poder en manos de una empresa privada, mientras que Anthropic no estaba seguro de si el gobierno respetaría sus líneas rojas. Sin embargo, las negociaciones se volvieron feas cuando el Pentágono amenazó cada vez más con utilizar la designación de riesgo de la cadena de suministro si Antropica se negaba a cumplir con sus demandas. Luego de que Anthropic anunciara el pasado jueves que no cumpliríael Pentágono cumplió esa amenaza. (El Pentágono no ha hecho comentarios oficialmente. Anthropic no respondió de inmediato a una solicitud de comentarios).
No está claro hasta qué punto el Pentágono intentará hacer cumplir esta designación. El viernes, cuando anunció su intención de etiquetar a Anthropic como un riesgoEl secretario de Defensa, Pete Hegseth, declaró que a cualquier empresa que realizara “cualquier actividad comercial” con Anthropic, incluso fuera de su trabajo para el Pentágono, se le cancelarían sus contratos de defensa. En ese momento, Anthropic respondió que una aplicación tan amplia de la ley sería ilegal.
Actualización, 5 de marzo: Se agregó una declaración del director ejecutivo de Anthropic, Dario Amodei.
















