Más de 30 empleados de OpenAI y Google DeepMind presentaron una declaración el lunes apoyando a Anthropic pleito contra el Departamento de Defensa de EE. UU. después de que la agencia federal clasificara a la empresa de IA como un riesgo para la cadena de suministro, según documentos judiciales.

“La designación de Anthropic por parte del gobierno como un riesgo para la cadena de suministro fue un uso inapropiado y arbitrario del poder que tiene serias ramificaciones para nuestra industria”, dice el documento, entre cuyos firmantes se encuentra el científico jefe de Google DeepMind, Jeff Dean.

A finales de la semana pasada, el Pentágono etiquetado como antrópico un riesgo en la cadena de suministro -normalmente reservado para adversarios extranjeros- después de que la empresa de IA se negara a permitir que el Departamento de Defensa (DOD) utilizara su tecnología para la vigilancia masiva de estadounidenses o para disparar armas de forma autónoma. El DOD argumentó que debería poder utilizar la IA para cualquier propósito “legal” y no estar restringido por un contratista privado.

El informe amicus curiae en apoyo de Anthropic apareció en el expediente pocas horas después de que el fabricante de Claude presentara dos demandas contra el DOD y otras agencias federales. cableado Fue el primero en dar la noticia.

Nodo presentación judicialLos funcionarios de Google y OpenAI afirman que si el Pentágono “ya no estuviera satisfecho con los términos acordados de su contrato con Anthropic”, la agencia podría “simplemente cancelar el contrato y adquirir los servicios de otra empresa líder en inteligencia artificial”.

De hecho, el DOD firmó un acuerdo con OpenAI momentos después de designar a Anthropic como un riesgo para la cadena de suministro, una medida que muchos de los empleados del fabricante de ChatGPT protestaron.

“Si se permite que proceda, este esfuerzo por castigar a una de las principales empresas estadounidenses de inteligencia artificial tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia artificial y más allá”, dice el documento. “Y esto enfriará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales”.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

El documento también afirma que las líneas rojas declaradas por Anthropic son preocupaciones legítimas que justifican barreras de seguridad fuertes. Sostiene que, al no existir una ley pública que regule el uso de la IA, las restricciones contractuales y técnicas que los desarrolladores imponen a sus sistemas son una salvaguardia fundamental contra un uso indebido catastrófico.

Muchos de los empleados que firmaron la declaración también cartas abiertas firmadas en las últimas semanas, instando al DOD a quitar la etiqueta y llamando a los líderes de sus empresas a apoyar a Anrópica y rechazar el uso unilateral de sus sistemas de IA.

Fuente