Dario Amodei dijo el jueves que Anthropic planea impugnar la decisión del Departamento de Defensa de etiquetar a la empresa de IA como riesgo de la cadena de suministro en el tribunal, una designación que calificó de “legalmente errónea”.

La declaración se produjo pocas horas después de que el Departamento designara oficialmente a Anthropic como un riesgo para la cadena de suministro luego de una disputa de semanas sobre cuánto control debería tener el ejército sobre los sistemas de inteligencia artificial. Una designación de riesgo en la cadena de suministro podría impedir que una empresa trabaje con el Pentágono y sus contratistas. Amodei trazó una línea firme de que la IA de Anthropic no debería usarse para la vigilancia masiva de estadounidenses o para armas totalmente autónomas, pero el Pentágono creía que debería tener acceso ilimitado para “todos los fines legales”.

En su declaración, Amodei dijo que la gran mayoría de los clientes de Anthropic no se ven afectados por la designación de riesgo de la cadena de suministro.

“En lo que respecta a nuestros clientes, esto claramente solo se aplica al uso que hacen de Claude como parte directa contratos con el Departamento de Guerra, no todo el uso de Claude por parte de clientes que tienen dichos contratos”, dijo.

Como un adelanto de lo que probablemente argumentará Anthropic ante el tribunal, Amodei dijo que la carta del Departamento que etiqueta a la empresa como un riesgo para la cadena de suministro tiene un alcance limitado.

“Existe para proteger al gobierno y no para castigar a un proveedor; de hecho, la ley exige que el Secretario de Guerra utilice el medios menos restrictivos necesarios “Para cumplir con el objetivo de proteger la cadena de suministro”, dijo Amodei. “Incluso para los contratistas del Departamento de Guerra, la designación de riesgo de la cadena de suministro no limita (y no puede) limitar el uso de Claude o las relaciones comerciales con Anthropic si estas no están relacionadas con sus contratos específicos del Departamento de Guerra”.

Amodei reiteró que Anthropic ha estado teniendo conversaciones productivas con el Departamento en los últimos días, conversaciones que algunos sospechan que se descarrilaron cuando un nota interna se lo envió al equipo filtrado. En él, Amdodei caracterizó las negociaciones de su rival OpenAI con el Departamento de Defensa como “teatro de seguridad”.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

OpenAI firmó un acuerdo para trabajar con el Departamento de Defensa en lugar de Anthropic, una medida que provocó una reacción violenta entre los empleados de OpenAI.

Amodei se disculpó por la filtración en su declaración del jueves, alegando que la compañía no compartió intencionalmente el memorando ni dio instrucciones a nadie para que lo hiciera. “No nos conviene agravar la situación”, afirmó.

Amodei dijo que el memorando fue escrito “unas horas” después de una serie de anuncios, incluida una publicación presidencial de Truth Social que decía que Anthropic sería eliminado de los sistemas federales, la designación de riesgo de la cadena de suministro del Secretario de Defensa Hegseth y, finalmente, el anuncio del acuerdo del Pentágono con OpenAI. Se disculpó por el tono, calificándolo de “un día difícil para la empresa” y dijo que el memorando no reflejaba sus “puntos de vista cuidadosos o considerados”. Escrito hace seis días, añadió, ahora es una “evaluación obsoleta”.

Terminó diciendo que la principal prioridad de Anthropic es garantizar que los soldados estadounidenses y los expertos en seguridad nacional mantengan el acceso a herramientas importantes en medio de las principales operaciones de combate en curso. Anthropic actualmente apoya algunas operaciones estadounidenses en Irán, y Amodei dijo que la compañía continuará proporcionando sus modelos al Departamento de Defensa a un “costo nominal” durante “el tiempo que sea necesario para realizar esa transición”.

Anthropic podría impugnar la decisión en un tribunal federal, probablemente en Washington, pero la ley detrás de la decisión hace que sea más difícil de impugnar porque limita las formas habituales en que las empresas pueden impugnar las decisiones de contratación pública y otorga al Pentágono una amplia discreción en cuestiones de seguridad nacional.

O, como lo expresó Dean Ball, un ex asesor de inteligencia artificial de la Casa Blanca de la era Trump que se ha pronunciado en contra del manejo de Anthropica por parte de Hegseth: “Los tribunales son bastante reacios a interrogar al gobierno sobre qué es y qué no es una cuestión de seguridad nacional… Hay un listón muy alto que tienes que superar para hacer eso. Pero no es imposible”.

Fuente