Menos de 24 horas antes de la fecha límite de un ultimátum emitido por el Pentágono, Anthropic rechazó las demandas del Departamento de Defensa de acceso ilimitado a su IA.

y el culminación de un dramático intercambio de declaraciones públicas, publicaciones en redes sociales y negociaciones detrás de escena, que se reducen al deseo del Secretario de Defensa, Pete Hegseth, de renegociar todos los contratos actuales de laboratorios de IA con el ejército. Pero Anthropic hasta ahora se ha negado a dar marcha atrás en sus dos líneas rojas actuales: no hay vigilancia masiva de los estadounidenses y no hay armas letales autónomas (o armas con licencia para matar objetivos sin supervisión humana). OpenAI y xAI tenían según cabe suponer ya ha aceptado los nuevos términos, mientras que la negativa de Anthropic llevó a que el CEO Dario Amodei fuera convocado a la Casa Blanca esta semana para una reunión con el propio Hegseth, en la que el Secretario según cabe suponer emitió un ultimátum al CEO para que se retirara antes del final del día hábil del viernes o de lo contrario.

en un declaración El jueves, Amodei escribió: “Creo profundamente en la importancia existencial de utilizar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos. Por lo tanto, Anthropic ha trabajado de manera proactiva para implementar nuestros modelos en todo el Departamento de Guerra y la comunidad de inteligencia”.

Añadió que la compañía “nunca ha planteado objeciones a operaciones militares específicas ni ha intentado limitar el uso de nuestra tecnología de manera ad hoc”, pero que en un “conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”, mencionando específicamente la vigilancia interna masiva y las armas totalmente autónomas. (Amodei mencionó que “las armas parcialmente autónomas… son vitales para la defensa de la democracia” y que las armas completamente autónomas podrían eventualmente “ser críticas para nuestra defensa nacional”, pero que “hoy en día, los sistemas fronterizos de inteligencia artificial simplemente no son lo suficientemente confiables para alimentar armas completamente autónomas”).

El Pentágono ya había según cabe suponer pidió a los principales contratistas de defensa que evaluaran su dependencia de Claude de Anthropic, lo que podría verse como el primer paso para designar a la compañía como un “riesgo de la cadena de suministro”, una amenaza pública que el Pentágono había hecho recientemente (y una clasificación normalmente reservada para amenazas a la seguridad nacional). El Pentágono también fue según cabe suponer considerando invocar la Ley de Producción de Defensa para que Anthropic cumpla.

Amodei escribió en su declaración que las “amenazas del Pentágono no cambian nuestra posición: no podemos, en conciencia, acceder a su solicitud”. También escribió que “si el Departamento decide cerrar Anthropic, trabajaremos para permitir una transición fluida a otro proveedor, evitando cualquier interrupción de la planificación militar en curso, operaciones u otras misiones críticas. Nuestros modelos estarán disponibles en los términos expansivos que hemos propuesto durante el tiempo que sea necesario”.

Fuente