El Secretario de Defensa de los Estados Unidos, Pete Hegseth, ordenó al Pentágono que designara a Anthropic como “riesgo de la cadena de suministro” el viernes, lo que provocó conmociones en todo Silicon Valley y dejó a muchas empresas luchando por comprender si pueden continuar utilizando uno de los recursos de referencia de la industria. más popular Modelos de IA.
“Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic”, escribió Hegseth en una publicación en las redes sociales.
La designación llega después de semanas de negociaciones tensas entre el Pentágono y Anthropic sobre cómo el ejército estadounidense podría utilizar los modelos de inteligencia artificial de la startup. en un publicación de blog Esta semana, Anthropic argumentó que sus contratos con el Pentágono no deberían permitir que su tecnología se utilice para la vigilancia interna masiva de estadounidenses o para armas totalmente autónomas. El Pentágono pidió a Anthropic que aceptara permitir que el ejército estadounidense aplicara su IA a “todos los usos legales” sin excepciones específicas.
Una designación de riesgo en la cadena de suministro permite al Pentágono restringir o excluir a ciertos proveedores de los contratos de defensa si se considera que tienen vulnerabilidades de seguridad, como riesgos relacionados con la propiedad, el control o la influencia extranjeros. Su objetivo es proteger los sistemas y datos militares sensibles de posibles compromisos.
Antropica respondió en otro publicación de blog el viernes por la noche, diciendo que “impugnaría ante los tribunales cualquier designación de riesgo en la cadena de suministro” y que dicha designación “sentaría un precedente peligroso para cualquier empresa estadounidense que haga negocios con el gobierno”.
Anthropic añadió que no ha recibido ninguna comunicación directa del Departamento de Defensa o de la Casa Blanca sobre negociaciones sobre el uso de sus modelos de IA.
“El secretario Hegseth dio a entender que esta designación impediría que cualquiera que hiciera negocios con el ejército hiciera negocios con Anthropic. El secretario no tiene autoridad legal para respaldar esta declaración”, escribió la compañía.
El Pentágono se negó a hacer comentarios.
“Esto es lo más impactante, dañino y exagerado que he visto hacer al gobierno de Estados Unidos”, dice Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense y ex asesor principal de políticas para la IA en la Casa Blanca. “Básicamente, acabamos de sancionar a una empresa estadounidense. Si eres estadounidense, deberías pensar si deberías vivir aquí o no dentro de 10 años”.
Personas en todo Silicon Valley recurrieron a las redes sociales para expresar conmoción y consternación similares. “La gente que dirige esta administración es impulsiva y vengativa. Creo que eso es suficiente para explicar su comportamiento”, dijo Paul Graham, fundador de la aceleradora de startups Y Combinator. el dijo.
Boaz Barak, investigador de OpenAI, dijo en una publicación que “poner de rodillas a una de nuestras principales empresas de IA es el peor autogol que podemos lograr. Sinceramente espero que prevalezca la cabeza fría y que este anuncio se revierta”.
Mientras tanto, el director ejecutivo de OpenAI, Sam Altman, anunció el viernes por la noche que la compañía llegó a un acuerdo con el Departamento de Defensa para implementar sus modelos de IA en entornos clasificados, aparentemente con excepciones. “Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia interna masiva y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos”, dijo Altman. “DoW está de acuerdo con estos principios, los refleja en leyes y políticas y los incluimos en nuestro acuerdo”.
Clientes confundidos
En su publicación de blog del viernes, Anthropic dijo que una designación de riesgo de la cadena de suministro, bajo la autoridad 10 USC 3252, solo se aplica a los contratos del Departamento de Defensa directamente con proveedores y no cubre cómo los contratistas usan su software Claude AI para atender a otros clientes.
Tres expertos en contratación federal dicen que es imposible en este momento determinar cuáles clientes de Anthropic, si es que hay alguno, deberían cortar sus vínculos con la empresa. El anuncio de Hegseth “no está empantanado en ninguna ley que podamos adivinar en este momento”, dice Alex Major, socio del bufete de abogados McCarter & English, que trabaja con empresas de tecnología.
















