Anthropic presentó dos demandas contra el Departamento de Defensa el lunes, alegando que la decisión del gobierno de etiquetar a la empresa de inteligencia artificial como “riesgo de la cadena de suministro” era ilegal y violaba sus derechos de la Primera Enmienda. Los dos lados están atrapados en uno. rivalidad acalorada que dura meses sobre el intento de la compañía de implementar salvaguardias contra el posible uso militar de sus modelos de IA para vigilancia doméstica masiva o armas letales totalmente autónomas.
Las demandas, que Anthropic presentó en el Tribunal del Distrito Norte de California y en el Tribunal de Apelaciones de los Estados Unidos para el Circuito de D.C., se producen después de que el Pentágono emitiera formalmente la designación de riesgo de la cadena de suministro el jueves pasado, la primera vez que se utiliza la herramienta de la lista negra contra una empresa estadounidense. La empresa de IA se comprometió anteriormente a impugnar la designación y su exigencia de que cualquier empresa que haga negocios con el gobierno corte todos los vínculos con Anthropic, una grave amenaza para su modelo de negocio.
La demanda de Anthropic alega que la administración Trump está castigando a la empresa por su negativa a cumplir con las demandas ideológicas del gobierno, en violación de su discurso protegido y en un intento de castigar a la empresa por incumplimiento.
“Estas acciones no tienen precedentes y son ilegales. La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido”, dijo Anthropic en su demanda en California.
El modelo de IA de Anthropic, llamado Claude, se integró profundamente en el Departamento de Defensa el año pasado. Hasta hace poco, Claude era también el único modo de IA aprobado para su uso en sistemas clasificados. El Departamento de Defensa lo habrá utilizado ampliamente en sus operaciones militares, incluso para decidir hacia dónde dirigir los ataques con misiles en su guerra contra Irán.
Antropica enfatizó en su presentación que todavía estaba comprometida a proporcionar IA con fines de seguridad nacional. La compañía también declaró en su presentación en California que anteriormente había colaborado con el Departamento de Defensa para modificar sus sistemas para casos de uso únicos. La empresa también quiere continuar las negociaciones con el gobierno, según un comunicado.
“Buscar una revisión judicial no cambia nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios”, dijo un portavoz de Anthropic en una declaración a The Guardian. “Continuaremos buscando todas las vías para lograr una resolución, incluido el diálogo con el gobierno”.
La compañía AI alegó en la demanda que la administración Trump y las acciones punitivas del Pentágono están “dañando irreparablemente a Anthropic”, una acusación que contradice un poco al director ejecutivo Dario Amodei. diciendo a CBS News la semana pasada que “el impacto de esta designación es bastante pequeño” y que la empresa “estará bien”.
“Los demandados buscan destruir el valor económico creado por una de las empresas privadas de más rápido crecimiento del mundo, que es líder en el desarrollo responsable de una tecnología emergente de vital importancia para nuestra nación”, alegó Anthropic en su demanda.
El Departamento de Defensa no respondió de inmediato a una solicitud de comentarios.

















