La administración Trump argumentó en un expediente judicial el martes que no violó los derechos de la Primera Enmienda de Anthropic al designar al desarrollador de IA como un riesgo para la cadena de suministro y predijo que el proceso de la empresa contra el gobierno fracasará.
“La Primera Enmienda no es una licencia para imponer unilateralmente términos contractuales al gobierno, y Anthropic no cita nada para respaldar una conclusión tan radical”, escribieron los abogados del Departamento de Justicia de Estados Unidos.
La respuesta se presentó en un tribunal federal de San Francisco, uno de los dos lugares donde Anthropic se encuentra impugnando la decisión del Pentágono de sancionar la empresa con una etiqueta que podría prohibir a las empresas contratos de defensa debido a preocupaciones sobre posibles vulnerabilidades de seguridad. Anthropic sostiene que la administración Trump se extralimitó en su autoridad al imponer la etiqueta y bloquear el uso de las tecnologías de la empresa dentro del departamento. Si se mantiene la designación, Anthropic podría perder hasta miles de millones de dólares en ingresos esperados este año.
Anthropic quiere reanudar sus actividades como de costumbre hasta que se resuelva el litigio. Rita Lin, la jueza que supervisa el caso de San Francisco, ha programado una audiencia para el próximo martes para decidir si honra la solicitud de Anthropic.
Los abogados del Departamento de Justicia, que escribieron para el Departamento de Defensa y otras agencias en la presentación del martes, describieron las preocupaciones de Anthropic sobre una posible pérdida de negocios como “legalmente insuficientes para constituir un daño irreparable” y pidieron a Lin que le negara a la compañía un retraso.
Los abogados también escribieron que la administración Trump estaba motivada a actuar debido a “preocupaciones sobre la posible conducta futura de Anthropic si mantenía el acceso” a los sistemas tecnológicos del gobierno. “Nadie tuvo la intención de restringir la actividad expresiva de Anthropic”, escribieron.
El gobierno argumenta que el esfuerzo de Anthropic por limitar cómo el Pentágono puede usar su tecnología de inteligencia artificial llevó al secretario de Defensa, Pete Hegseth, a determinar “razonablemente” que “el personal de Anthropic puede sabotear, introducir maliciosamente funciones no deseadas o subvertir de otro modo el diseño, la integridad o el funcionamiento de un sistema de seguridad nacional”.
El Departamento de Defensa y Anthropic han estado peleando por posibles restricciones a los modelos Claude AI de la compañía. Antropica cree que sus modelos no deberían usarse para facilitar una vigilancia amplia de los estadounidenses y actualmente no son lo suficientemente confiables para impulsar armas totalmente autónomas.
Varios expertos legales dijeron anteriormente a WIRED que Anthropic tiene un fuerte argumento de que la medida de la cadena de suministro equivale a una represalia ilegal. Pero los tribunales a menudo favorecen los argumentos de seguridad nacional del gobierno, y los funcionarios del Pentágono han descrito a Anthropic como un contratista deshonesto y cuyas tecnologías no son confiables.
“En particular, al DoW le preocupaba que permitir a Antropica el acceso continuo a la infraestructura técnica y operativa de combate del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW”, afirma el documento del martes. “Los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar desactivar su tecnología o alterar preventivamente el comportamiento de su modelo antes o durante las operaciones de combate en curso si Anthropic -a su discreción- siente que se están cruzando sus ‘líneas rojas’ corporativas”.
El Departamento de Defensa y otras agencias federales están trabajando para reemplazar las herramientas de inteligencia artificial de Anthropic con productos de compañías tecnológicas competidoras en los próximos meses. Uno de los principales usos militares de Claude es a través de Software de análisis de datos Palantirdijeron a WIRED personas familiarizadas con el asunto.
En la presentación del martes, los abogados argumentaron que el Pentágono “no puede simplemente accionar un interruptor en un momento en que Anthropic es actualmente el único modelo de IA autorizado para su uso” en los “sistemas clasificados del departamento y se están llevando a cabo operaciones de combate de alta intensidad”. El departamento está trabajando para implementar sistemas de inteligencia artificial de Google, OpenAI y xAI como alternativas.
Diversas empresas y grupos, entre ellos investigadores de IAMicrosoft, un sindicato de empleados federales y ex líderes militares presentaron demandas en apoyo de Anthropic. Ninguno fue presentado en apoyo al gobierno.
Antropica tiene hasta el viernes para presentar una contrarrespuesta a los argumentos del gobierno.
















