El representante Ted Lew (D-CA), Christopher Hale y otros expresaron su consternación cuando el Departamento de Guerra llegó a un nuevo acuerdo con OpenAI, que parecía aceptar los términos previamente buscados por el ahora prohibido Anthropic.
“El Departamento de Defensa acordó los mismos dos términos con OpenAI que Anthropic quería”, escribió el congresista de California en X. “¿Alguien puede explicarlo? Realmente no lo entiendo”.
Hale, político y representante del Comité Nacional Demócrata, compartió que “acaba de cancelar ChatGPT y compró Claude Pro Max” en respuesta a la noticia. Y añadió: “Uno defiende los derechos otorgados por Dios al pueblo estadounidense. El otro se inclina hacia los tiranos”.
Sin embargo, Liu y Hale no estaban solos en su confusión y enojo, ya que el subsecretario de Guerra para Investigación e Ingeniería, Emil Michael, surgió como un firme partidario del acuerdo.
“Cuando se trata de vida o muerte para nuestros combatientes, tener un socio confiable y firme marca la diferencia a medida que entramos en la era de la IA”. “Luego [Sam Altman]”
Estos comentarios llegan poco después del director ejecutivo de OpenAI, Sam Altman. X confirmado el viernes La empresa “llegó a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada”.
“En todas nuestras interacciones, el Departamento de Guerra ha demostrado un profundo respeto por la seguridad y una voluntad de asociarse para lograr el mejor resultado posible”, continuó Altman. “La seguridad de la IA y la distribución generalizada de beneficios son fundamentales para nuestra misión. Dos de nuestros principios de seguridad más importantes son las prohibiciones de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos. DoW está de acuerdo con estos principios, los refleja en leyes y políticas, y los incluimos en nuestros contratos”.
Altman también señaló que OpenAI “creará salvaguardas técnicas para garantizar que nuestros modelos se comporten como deberían, que es lo que también quería el DoW”.
Sin embargo, los líderes de opinión antes mencionados y otros no tardaron en opinar sobre la actualización, ya que Altman dijo el viernes por la mañana que compartía la “línea roja” de Anthropic para limitar el uso militar de la IA. (Para aquellos que se preguntan, la posición de Anthropic llevó al presidente Donald Trump a etiquetar a Anthropic como un “loco zurdo” en Truth Social, y agregó: “Por lo tanto, ordeno a todas las agencias federales del gobierno de los Estados Unidos que cesen inmediatamente todo uso de la tecnología de Anthropic. ¡No lo queremos, nunca volveremos a hacer negocios con ellos”!
Para conocer las reacciones a las noticias, siga leyendo.
El Departamento de Defensa acordó los mismos dos términos con OpenAI que quería Anthropic.
¿Alguien puede explicarlo? Realmente no lo entiendo. https://t.co/eLH6VBSv9q
-Ted Liu (@tedlieu) 28 de febrero de 2026
Acabo de cancelar ChatGPT y compré Claude Pro Max.
Un estadounidense defiende los derechos del pueblo otorgados por Dios. Otros se rinden ante los opresores. https://t.co/re3h2rXEaK
—Christopher Hale (@ChristopherHale) 28 de febrero de 2026
Cuando se trata de vida o muerte para nuestros combatientes, tener un socio confiable y estable que participe de buena fe marca la diferencia a medida que entramos en la era de la IA. Luego @mismo ! https://t.co/dnRnyw3sfl
— Subsecretario de Guerra Emil Michael (@USWREMichael) 28 de febrero de 2026
Estoy cada vez más confundido y disgustado por lo que está pasando aquí. https://t.co/TJe7XtT1cX
-Tim Carney (@TPCarney) 28 de febrero de 2026
Entonces…. ¿Está el Antropoceno en la lista negra por la misma línea roja que OpenAI ha escrito en su contrato?
¿O OpenAI simplemente acepta una versión más débil de esas líneas rojas que Anthropic no firma? https://t.co/jSTO42BqTo
-Deirdre Bosa (@dee_bosa) 28 de febrero de 2026
Para evitar dudas, OpenAI – @DeptofWar El acuerdo surge de la piedra de toque de “todos los usos legales” que DoW ha enfatizado acertadamente y que xAI ha aceptado. Pero como explica Sam, se refiere a alguna autoridad legal existente y a otra acordada mutuamente… https://t.co/boVlh5kgfc
— Alto funcionario Jeremy Lewin (@undersecretaryf) 28 de febrero de 2026
Antropología (primer nivel): No realizaremos una vigilancia exhaustiva del pueblo estadounidense con Claude.
OpenAI (3er nivel): ¡Lo haremos! ✋
XAI (nivel 4): ¡Lo haremos! ✋
¡Obtén ChapGPT y Grok de tu teléfono!
– Amy Siskind 🏳️🌈 (@Amy_Siskind) 28 de febrero de 2026
Entonces, ¿OpenAI se registra con el Pentágono y dice que se adhieren a las mismas barreras que quería Anthropic? https://t.co/L4gkhvEdnf
– Hadas Oro (@Hadas_Gold) 28 de febrero de 2026
Anthropic dice que su modelo es un robot asesino totalmente autónomo y no puede usarse para la vigilancia masiva de estadounidenses. El Pentágono los anuló y los castigó, así que, por supuesto, este idiota decidió que era una oportunidad para ganar más dinero. https://t.co/WFSr4TAo9J
—Tommy Vietor (@TVietor08) 28 de febrero de 2026
Así que ahora estoy realmente confundido. @OpenAI Hegseth pudo ponerse de acuerdo sobre los mismos dos principios que @AntrópicoAI ¿Buscado? ¿Alguien puede explicar este resultado? https://t.co/WjmMT7EyT7
-Michael McFaul (@McFaul) 28 de febrero de 2026
Hace apenas unas horas dijo en televisión que apoyaba a Anthropic.
Luego los socava y acepta el mismo trato que Anthropic acaba de perder.
¿Cómo puede alguien confiar en este tipo? https://t.co/xwBd4OSW7t
— Mark Gadala-Maria (@markgadala) 28 de febrero de 2026
Déjame aclarar esto.
– Dario mostró honestidad y quería Deal X y se jodió.
– Sam mintió y no mostró integridad y (casi) consiguió el Trato X
– El gobierno dijo que el acuerdo X era terrible y cortó los lazos con el partido A y luego hizo un acuerdo casi idéntico con el partido B… https://t.co/1GVww2U6y6-GaryMarcus (@GaryMarcus) 28 de febrero de 2026
A partir de esta noche, hay dos laboratorios de inteligencia artificial de Frontier cuyos modelos están aprobados para su uso en sistemas militares clasificados.
Uno ha sido declarado una amenaza a la seguridad nacional a nivel de Huawei porque sus modelos no se utilizarán ampliamente para la vigilancia nacional y son completamente autónomos…
—Kevin Roose (@kevinroose) 28 de febrero de 2026














