Desbloquee el boletín White House Watch de forma gratuita

Microsoft apoyó la demanda de Anthropic contra el Pentágono, advirtiendo que las medidas “drásticas” y “sin precedentes” contra la startup de IA tendrían “amplias ramificaciones negativas” para la industria tecnológica estadounidense.

El gigante del software en uno archivar el martes solicitó una orden de restricción temporal que bloquee la aplicación de la decisión del Departamento de Defensa de clasificar a Anthropic como un riesgo para la cadena de suministro mientras el tribunal considera la impugnación legal de la startup.

microsoft es la primera gran empresa de tecnología que toma partido en la disputa de Anthropic con el Pentágono sobre los términos que rigen el uso militar de sus modelos de IA.

El conflicto ha dividido a Silicon Valley, que hasta hace poco evitó cuidadosamente desafiar abiertamente a la administración Trump desde el regreso del presidente al cargo.

El gigante del software argumentó que una orden de restricción daría tiempo para un acuerdo negociado y una “discusión razonada” sobre el uso de la IA en operaciones militares y de inteligencia.

Negociaciones entre antrópico y el Pentágono colapsó a finales del mes pasado después de que la nueva empresa de 380.000 millones de dólares rechazara un contrato para el despliegue militar de su tecnología. El presidente ejecutivo, Dario Amodei, insistió en las “líneas rojas” que prohíben su uso para armas letales autónomas y vigilancia masiva de ciudadanos estadounidenses.

Desde entonces, el secretario de Defensa, Pete Hegseth, decidió eliminar a Anthropic de la cadena de suministro del Pentágono, una medida normalmente reservada para empresas de China o Rusia.

La administración también ha exigido que todas las agencias federales dejen de utilizar el chatbot Claude como parte de una campaña contra lo que llama IA “despertada”.

Microsoft dijo que su “posición es que la IA debería centrarse en casos de uso legales y adecuadamente protegidos”.

La IA, dijo, “no debería utilizarse para llevar a cabo una vigilancia interna masiva o poner al país en una posición en la que las máquinas autónomas puedan iniciar una guerra de forma independiente”.

La compañía con sede en Seattle, que tiene importantes contratos militares, añadió que el rápido recorte de Anthropic podría “dañar a los combatientes estadounidenses en un momento crítico”.

Claude es actualmente la única herramienta de IA utilizada en entornos militares sensibles, aunque OpenAI firmó recientemente un acuerdo con el Pentágono.

Microsoft no es acusado en el caso y ha presentado un escrito amicus curiae ante los tribunales de California y el Distrito de Columbia.

El lunes, un grupo de más de 30 investigadores de Google y OpenAI, incluido el científico jefe de DeepMind, Jeff Dean, dieron su apoyo personal a Anthropic en una carta similar.

La Casa Blanca y el Pentágono no respondieron de inmediato a solicitudes de comentarios.

A pesar de poseer el 27% de su archirrival OpenAI, Microsoft ha fomentado estrechos vínculos con el fabricante de chatbot Claude y ha firmado un acuerdo. Acuerdo de computación en la nube por valor de 30.000 millones de dólares con él en noviembre.

Esta semana dije que es integrando Los populares modelos de codificación de Anthropic en su software empresarial, que se utiliza en todo el gobierno de EE. UU.

Google, Amazon y Microsoft ya han dicho que sus abogados determinaron que podrían seguir utilizando Anthropic para trabajos no militares.

Microsoft dijo que la designación de riesgo de la cadena de suministro “obliga a los contratistas gubernamentales a cumplir con instrucciones vagas y mal definidas que nunca antes se habían ejercido públicamente contra una empresa estadounidense”.

“Este no es el momento de poner en riesgo el ecosistema de IA que la administración ayudó a defender”, añadió.

Fuente