microsoft ha apoyado con todo su peso el desafío legal de Anthropic contra el Pentágono, presentando una petición judicial en apoyo del esfuerzo de la compañía de IA para anular una designación agresiva que efectivamente le impide trabajar con el gobierno.

en un amigo corto presentado ante un tribunal federal en san francisco Esta semana, Microsoft, que integra las herramientas de inteligencia artificial de Anthropic en los sistemas que proporciona al ejército estadounidenseArgumentó que era necesaria una orden de restricción temporal para evitar perturbaciones graves a los proveedores cuyos productos dependen de la tecnología de inteligencia artificial de la empresa. Google, Amazon, Apple y OpenAI también firmaron un documento de apoyo a Anthropic.

En una declaración a The Guardian, microsoft dijo: “El Departamento de Guerra necesita acceso confiable a la mejor tecnología del país. Y todos quieren asegurarse de que la IA no se utilice para vigilancia interna masiva o para iniciar guerras sin control humano. El gobierno, todo el sector tecnológico y el público estadounidense necesitan un camino para lograr todos estos objetivos juntos”.

Microsoft es uno de los socios tecnológicos más arraigados del Pentágono y tiene participación en la era militar de Joe Biden. Capacidad conjunta de combate en la nube de 9 mil millones de dólares contrato con Amazon, Google y Oracle, así como acuerdos separados de software y servicios empresariales por valor de varios miles de millones de dólares más. Los contratos gubernamentales de Microsoft abarcan agencias civiles, de defensa y de inteligencia, y bajo la administración Trump en septiembre, Microsoft atacó otro acuerdo multimillonario para ayudar a marcar el comienzo de los servicios en la nube y el avance de la IA en el gobierno federal.

La solicitud se produce después de que Anthropic presentara dos demandas el lunes, una en un tribunal federal de California y la otra en el Tribunal de Apelaciones del Circuito de D.C., impugnando la decisión del Pentágono de etiquetarlo como un riesgo para la cadena de suministro, una designación que nunca antes se había aplicado a una empresa estadounidense.

La disputa surge de la ruptura de las negociaciones contractuales el mes pasado sobre un acuerdo de 200 millones de dólares para desplegar la IA de Anthropic en sistemas militares clasificados mientras Estados Unidos se preparaba para la guerra contra Irán.

Las negociaciones colapsaron después de que Anthropic insistiera en que su tecnología no debería usarse para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas autónomas letales, lo que llevó a Pete Hegseth, el secretario de Defensa, a calificar a la empresa de riesgo para la cadena de suministro. La semana pasada, el Pentágono notificó formalmente a Anthropic la decisión y la compañía dice que sus contratos gubernamentales ya comenzaron a cancelarse. El jueves, el director de tecnología del Pentágono, Emil Michael, dijo a CNBC “no hay posibilidad” la agencia renegocia con Anthropic tras la designación.

En su denuncia, Anthropic explicó los límites y las dudas detrás de su propia tecnología. “Anthropic actualmente no tiene confianza, por ejemplo, en que Claude funcione de manera confiable o segura si se usa para apoyar una guerra autónoma letal”. el archivo leído. “Por lo tanto, estas restricciones de uso se basan en la comprensión única de Anthropic de los riesgos y limitaciones de Claude”.

La compañía también dijo que sus derechos de la Primera Enmienda estaban bajo ataque, argumentando que el Pentágono utilizó la designación de riesgo de la cadena de suministro (normalmente reservada para empresas con vínculos con adversarios extranjeros como China) como castigo ideológico por su postura pública sobre la seguridad de la IA.

Mientras tanto, una investigación en curso del Pentágono sobre el ataque militar Tomahawk a una escuela primaria de Shajarah Tayyebeh que supuestamente mató al menos a 175 personas, según funcionarios iraníes, habría encontrado en su examen preliminar que Washington era responsable de los asesinatos. No está claro si se utilizó IA en los ataques, que parecen haber sido causados ​​por un error de orientación basado en datos obsoletos de la Agencia de Inteligencia de Defensa de Estados Unidos, dijeron personas familiarizadas con la investigación. el New York Times.

El jueves, los demócratas de la Cámara de Representantes enviaron una carta al Pentágono, planteando preocupaciones sobre el “patrón más amplio de daños civiles causados ​​por los ataques estadounidenses e israelíes a Irán” y presionando para obtener más información sobre el papel de la inteligencia artificial en los ataques.

“Si se utiliza inteligencia artificial, ¿estará sujeta a revisión humana y en qué momento?” escribieron los legisladores. “¿Se utilizó inteligencia artificial, incluido el uso del sistema inteligente Maven, para identificar la escuela Shajarah Tayyebeh como objetivo? Si es así, ¿un humano ha verificado la precisión de este objetivo?”

Fuente