El director ejecutivo de OpenAI, Sam Altman, anunció el viernes por la noche que su empresa llegó a un acuerdo que permite al Departamento de Defensa utilizar sus modelos de IA en la red secreta del departamento.
Esto sigue a un enfrentamiento de alto perfil entre el Departamento de Defensa, también conocido bajo la administración Trump como Departamento de Guerra, y Anthropic, rival de OpenAI. El pentágono presionó a las empresas de inteligencia artificial, incluida Anthropic, para que permitieran que sus modelos se utilizaran para “todos los fines legales”. mientras que Anthropic buscó trazar una línea roja en torno a la vigilancia doméstica masiva y las armas totalmente autónomas.
En una extensa declaración publicada el juevesEl director ejecutivo de Anthropic, Dario Amodei, dijo que la compañía “nunca ha planteado objeciones a operaciones militares específicas ni ha intentado limitar el uso de nuestra tecnología de una manera para esto manera”, pero argumentó que “en un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”.
Más de 60 empleados de OpenAI y 300 empleados de Google firmó una carta abierta esta semana pidiendo a sus empleadores que apoyen la posición de Anthropic.
Después de que Anthropic y el Pentágono no lograran llegar a un acuerdo, el presidente Donald Trump criticó a los “locos de izquierda de Anthropic” en una publicación en las redes sociales que también ordenó a las agencias federales que dejaran de usar los productos de la compañía después de un período de eliminación gradual de seis meses.
En una publicación separadaEl secretario de Defensa, Pete Hegseth, afirmó que Anthropic estaba tratando de “tomar el poder de veto sobre las decisiones operativas del ejército de los Estados Unidos”. Hegseth también dijo que está designando a Anthropic como un riesgo para la cadena de suministro: “Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de los Estados Unidos podrá realizar ninguna actividad comercial con Anthropic”.
El viernes, Antrópico dijo “Aún no había recibido comunicación directa del Departamento de Guerra o de la Casa Blanca sobre el estado de nuestras negociaciones”, pero insistió en que “impugnaría ante los tribunales cualquier designación de riesgo en la cadena de suministro”.
Evento tecnológico
Boston, Massachusetts
|
9 de junio de 2026
Sorprendentemente, Altman reclamado en una publicación en X que el nuevo contrato de defensa de OpenAI incluye protecciones que abordan los mismos problemas que se han convertido en un punto de fricción para Anthropic.
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia interna masiva y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos”, dijo Altman. “DoW está de acuerdo con estos principios, los refleja en leyes y políticas y los incluimos en nuestro acuerdo”.
Altman dijo que OpenAI “construirá salvaguardas técnicas para garantizar que nuestros modelos se comporten como deberían, lo que el Departamento de Guerra también quería”, y enviará ingenieros al Pentágono “para ayudar con nuestros modelos y garantizar su seguridad”.
“Estamos pidiendo al Departamento de Guerra que ofrezca estos mismos términos a todas las empresas de IA, que creemos que todos deberían estar dispuestos a aceptar”, añadió Altman. “Expresamos nuestro fuerte deseo de que las cosas se alejen de las acciones legales y gubernamentales y avancen hacia acuerdos razonables”.
Sharon Goldman, de Fortune, informa que Altman dijo a los empleados de OpenAI en una reunión general que el gobierno permitirá a la empresa construir su propia “pila de seguridad” para evitar el uso indebido y que “si el modelo se niega a realizar una tarea, el gobierno no obligaría a OpenAI a realizar esa tarea”.
La publicación de Altman se produjo poco antes de que surgiera la noticia de que los gobiernos de Estados Unidos e Israel comenzó a bombardear Iráncon Trump pidiendo el derrocamiento del gobierno iraní.
















