Antropica presentó una solicitud demanda federal contra el Departamento de Defensa de EE. UU. y otras agencias federales el lunes, desafiando la designación de la compañía de IA como “riesgo de la cadena de suministro.”
El Pentágono sancionó formalmente a Anthropic la semana pasada, poniendo fin a un desacuerdo de varias semanas sobre los límites del uso de su tecnología de inteligencia artificial generativa para aplicaciones militares como armas autónomas.
“No creemos que esta acción sea legalmente válida y no vemos más remedio que impugnarla ante los tribunales”, escribió el director ejecutivo de Anthropic, Dario Amodei, en una publicación de blog el jueves.
EL pleitoque fue presentada ante un tribunal federal de California, solicitó que un juez revocara la designación y bloqueara a las agencias federales para que no la hicieran cumplir. “La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido”, dijo Anthropic en el documento. “Antropica recurre al Poder Judicial como último recurso para hacer valer sus derechos y frenar la campaña de represalias ilegales del Ejecutivo”.
La startup de IA, que desarrolla un conjunto de modelos de IA llamado Claude, enfrenta la posibilidad de perder cientos de millones de dólares en ingresos anuales del Pentágono y el resto del gobierno de Estados Unidos. También puedes perder tu negocio. empresas de software que incorporan Claude en los servicios que venden a agencias federales. Varios clientes de Anthropic ya han según cabe suponer el dijo Están buscando alternativas debido a la designación de riesgo del Departamento de Defensa.
Amodei escribió que la “gran mayoría” de los clientes de Anthropic no tendrán que realizar cambios. La designación del gobierno de Estados Unidos “claramente sólo se aplica al uso de Claude por parte de los clientes como parte directa de contratos con” el ejército, dijo. No se espera que el uso general de tecnologías antropogénicas por parte de contratistas militares se vea afectado.
El Departamento de Defensa, también conocido como Departamento de Guerra, y la Casa Blanca no respondieron de inmediato a las solicitudes de comentarios sobre la demanda de Anthropic.
Los abogados con experiencia en contratación gubernamental dicen que Anthropic enfrenta una batalla legal cuesta arriba. las reglas que autoriza Que el Departamento de Defensa califique a una empresa de tecnología como un riesgo para la cadena de suministro no permite muchos recursos. “Es 100% prerrogativa del gobierno establecer los parámetros de un contrato”, dice Brett Johnson, socio del bufete de abogados Snell & Wilmer. El Pentágono, dice, también tiene derecho a expresar que un producto preocupante, si es utilizado por cualquiera de sus proveedores, “perjudica la capacidad del gobierno para cumplir su misión”.
La mejor oportunidad de éxito de Anthropic en los tribunales podría ser demostrar que fue elegida, dice Johnson. Poco después de que el secretario de Defensa, Pete Hegseth, anunciara que designaba a Anthropic como un riesgo para la cadena de suministro, su rival OpenAI anunció que había ganado un nuevo contrato con el Pentágono. Esto podría ser clave para el argumento legal de Anthropic si la empresa pudiera demostrar que buscaba condiciones similares a las del desarrollador de ChatGPT.
OpenAI dijo tu acuerdo incluía medios contractuales y técnicos para garantizar que su tecnología no se utilizara para vigilancia nacional masiva o para dirigir sistemas de armas autónomos. Agregó que se opone a la acción contra Anrópica y sabe por qué su rival no pudo llegar al mismo acuerdo con el gobierno.
Prioridad militar
Hegseth ha priorizado la adopción militar de tecnologías de inteligencia artificial, con carteles vistos recientemente en el Pentágono mostrándolo señalando y diciendo: “Quiero que uses IA”. La disputa con Anthropic comenzó en enero después de que Hegseth ordenara a varios proveedores de inteligencia artificial que aceptaran que el departamento era libre de utilizar sus tecnologías para cualquier propósito legal.
Anthropic, que es la única empresa que actualmente ofrece herramientas de análisis y chatbot de IA para los casos de uso más sensibles del ejército, empujado hacia atrás. Afirma que sus tecnologías aún no son lo suficientemente capaces para ser utilizadas en la vigilancia interna masiva de estadounidenses o en armas totalmente autónomas. Hegseth el dijo Antropica quiere poder de veto sobre las sentencias que debería dejarse en manos del Departamento de Defensa.

















