Anthropic presentó dos declaraciones juradas en un tribunal federal de California el viernes por la tarde, rechazando la afirmación del Pentágono de que la empresa de inteligencia artificial representa un “riesgo inaceptable para la seguridad nacional” y argumentando que el caso del gobierno se basa en malentendidos técnicos y acusaciones que en realidad nunca se plantearon durante los meses de negociaciones que precedieron a la disputa.

Las declaraciones fueron presentadas junto con la respuesta de Anthropic en su demanda contra el Departamento de Defensa y se presentan antes de una audiencia el próximo martes 24 de marzo ante la jueza Rita Lin en San Francisco.

La disputa se remonta a finales de febrero, cuando el presidente Trump y el secretario de Defensa, Pete Hegseth, declararon públicamente que cortarían los lazos con Anthropic después de que la compañía se negara a permitir el uso militar sin restricciones de su tecnología de inteligencia artificial.

Las dos personas que presentaron las declaraciones son Sarah Heck, jefa de políticas de Anthropic, y Thiyagu Ramasamy, jefe del sector público de la empresa.

Heck es una exfuncionaria del Consejo de Seguridad Nacional que trabajó en la Casa Blanca durante la administración Obama antes de pasar a Stripe y luego a Anthropic, donde dirige las relaciones gubernamentales y el trabajo político de la empresa. Estuvo presente personalmente en la reunión del 24 de febrero en la que el director ejecutivo Dario Amodei se sentó con el secretario de Defensa Hegseth y el subsecretario del Pentágono, Emil Michael.

en eso declaraciónHeck denuncia lo que ella describe como una falsedad central en los registros gubernamentales: que Antropica requería algún tipo de documento de aprobación para las operaciones militares. Esa afirmación, afirma, simplemente no es cierta. “En ningún momento durante las negociaciones de Anthropic con el Departamento, ni yo ni ningún otro empleado de Anthropic declaramos que la empresa quería este tipo de puesto”, escribió.

También afirma que la preocupación del Pentágono sobre la posibilidad de que Anthropic deshabilite o altere su tecnología a mitad de operación nunca se planteó durante las negociaciones. En cambio, dice, apareció por primera vez en documentos judiciales del gobierno, lo que no le dio a Anthropic la oportunidad de responder.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

Otro detalle de la declaración de Heck que seguramente llamará la atención es que el 4 de marzo (el día después de que el Pentágono finalizara formalmente su designación de riesgo para la cadena de suministro contra Anthropic) el subsecretario Michael envió un correo electrónico a Amodei para decirle que las dos partes estaban “muy cercanas” en las dos cuestiones que la administración ahora cita como evidencia de que Anthropic es una amenaza a la seguridad nacional: sus posiciones sobre las armas autónomas y la vigilancia masiva de los estadounidenses.

Vale la pena leer el correo electrónico, que Heck adjunta como exposición de su declaración, junto con lo que Michael dijo públicamente en los días siguientes. El 5 de marzo, Amodei publicó un comunicado diciendo que la empresa estaba teniendo “conversaciones productivas” con el Pentágono. Al día siguiente, Michael publicado en X que “no existe ninguna negociación activa entre el Departamento de Guerra y Anthropica”. Una semana después, le dijo a CNBC que “no había posibilidad” de más negociaciones.

El argumento de Heck parece ser: si la posición de Anthropic sobre estos dos temas es lo que lo convierte en una amenaza para la seguridad nacional, ¿por qué el propio funcionario del Pentágono dijo que las dos partes estaban casi alineadas exactamente en estos temas poco después de que se finalizara la designación? (No llega a decir que el gobierno utilizó la designación como moneda de cambio, pero el cronograma que establece deja la pregunta abierta).

Ramasamy aporta un tipo diferente de experiencia al caso. Antes de unirse a Anthropic en 2025, pasó seis años en Amazon Web Services gestionando implementaciones de IA para clientes gubernamentales, incluidos entornos clasificados. En Anthropic, se le atribuye la creación del equipo que llevó sus modelos Claude a entornos de seguridad y defensa nacional, incluido el Contrato de 200 millones de dólares con el Pentágono anunciado el verano pasado.

De el declaración retoma la afirmación del gobierno de que Anthropic podría teóricamente interferir con las operaciones militares al desactivar la tecnología o alterar su comportamiento, lo que Ramasamy dice que no es técnicamente posible. Según él, dado que Claude está desplegado dentro de un sistema de “espacio de aire” protegido por el gobierno operado por un contratista externo, Anthropic no tiene acceso a él; No hay un interruptor de apagado remoto, ni una puerta trasera, ni ningún mecanismo para enviar actualizaciones no autorizadas. Cualquier tipo de “veto operativo” es una ficción, sugiere, explicando que un cambio en el modelo requeriría la aprobación explícita del Pentágono y su implementación.

Anthropic, dice, ni siquiera puede ver lo que los usuarios del gobierno están escribiendo en el sistema, y ​​mucho menos extraer esos datos.

Ramasamy también cuestiona la afirmación del gobierno de que la contratación de extranjeros por parte de Anthropic convierte a la empresa en un riesgo para la seguridad. Señala que los empleados de Anthropic se han sometido a una verificación de autorización de seguridad del gobierno de EE. UU. (el mismo proceso de verificación de antecedentes requerido para acceder a información clasificada) y agrega en su declaración que “hasta donde yo sé”, Anthropic es la única empresa de inteligencia artificial donde personal autorizado realmente ha construido los modelos de inteligencia artificial diseñados para trabajar en entornos clasificados.

La demanda de Anthropic argumenta que la designación de riesgo de la cadena de suministro, la primera aplicada a una empresa estadounidense, equivale a una represalia del gobierno por las opiniones expresadas públicamente por la empresa sobre la seguridad de la IA, en violación de la Primera Enmienda.

El gobierno, en un documento de 40 páginas a principios de esta semana, rechazó completamente este marcodiciendo que la negativa de Anthropic a permitir todos los usos militares legales de su tecnología fue una decisión comercial, no un discurso protegido, y que la designación era un llamamiento directo a la seguridad nacional y no un castigo por las opiniones de la empresa.

Fuente