Como admitió el propio CEO Sam Altman, el acuerdo de OpenAI con el Departamento de Defensa fue “definitivamente apresurado” y “la óptica no parece buena”.
Después Las negociaciones entre Antropica y el Pentágono fracasaron El viernes, el presidente Donald Trump ordenó a las agencias federales que dejaran de usar la tecnología de Antropica después de un período de transición de seis mesesy el secretario de Defensa, Pete Hegseth, dijo que designaba a la empresa de IA como un riesgo para la cadena de suministro.
Entonces, OpenAI anunció rápidamente que había llegado a su propio acuerdo para la implementación de modelos en entornos clasificados. Con Anthropic diciendo que estaba trazando límites en torno al uso de su tecnología en armas totalmente autónomas o vigilancia doméstica masiva, y Altman diciendo que OpenAI tenía los mismos límites, hubo algunas preguntas obvias: ¿OpenAI estaba siendo honesto acerca de sus salvaguardias? ¿Por qué se pudo llegar a un acuerdo y Anthropic no?
Entonces, mientras los ejecutivos de OpenAI defendieron el acuerdo en las redes sociales, la compañía también publicó una publicación de blog que describe su enfoque.
De hecho, la publicación señaló tres áreas en las que decía que los modelos de OpenAI no se pueden utilizar: vigilancia nacional masiva, sistemas de armas autónomos y “decisiones automatizadas de alto riesgo (por ejemplo, sistemas como ‘crédito social’)”.
La compañía dijo que, a diferencia de otras compañías de IA que han “reducido o eliminado sus barreras de seguridad y se han basado principalmente en políticas de uso como salvaguardas principales en las implementaciones de seguridad nacional”, el acuerdo OpenAI protege sus líneas rojas “a través de un enfoque más amplio y de múltiples capas”.
“Mantenemos total discreción sobre nuestra pila de seguridad, implementamos a través de la nube, el personal autorizado de OpenAI está informado y tenemos fuertes protecciones contractuales”, decía el blog. “Todo esto se suma a las fuertes protecciones que existen en las leyes estadounidenses”.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
La empresa añadió: “No sabemos por qué Anthropic no pudo llegar a este acuerdo y esperamos que ellos y más laboratorios lo consideren”.
Después de que se publicó la publicación, Mike Masnick de Techdirt declaró que el acuerdo “permite absolutamente la vigilancia interna” porque establece que la recopilación de datos privados cumplirá Orden Ejecutiva 12333 (junto con una serie de otras leyes). Masnick describió esta orden como “la forma en que la NSA oculta su vigilancia interna al capturar comunicaciones a través del acceso a líneas *no estadounidenses*, incluso si contienen información de/sobre personas estadounidenses”.
En una publicación en LinkedInKatrina Mulligan, jefa de asociaciones de seguridad nacional en OpenAI, argumentó que gran parte de la discusión en torno al lenguaje del contrato supone que “lo único que se interpone entre los estadounidenses y el uso de la IA para la vigilancia doméstica masiva y armas autónomas es una disposición de política de uso único en un contrato único con el Departamento de Guerra”.
“No es así como funciona”, dijo Mulligan, y agregó: “La arquitectura de implementación es más importante que el lenguaje del contrato”. […] Al limitar nuestro despliegue a la API de la nube, podemos asegurarnos de que nuestros modelos no puedan integrarse directamente en sistemas de armas, sensores u otro hardware operativo”.
Altman también respondió preguntas sobre el acuerdo en X, donde admitió que fue apresurado y resultó en una reacción significativa contra OpenAI (en la medida en que Claude de Anthropic superó a ChatGPT de OpenAI en la App Store de Apple en sábado). Entonces, ¿por qué hacer esto?
“Realmente queríamos calmar las cosas y pensamos que el trato ofrecido era bueno”, dijo Altman. “Si tenemos razón y esto conduce a una reducción de la tensión entre el DoW y la industria, pareceremos genios y una empresa que se ha esforzado mucho en hacer cosas para ayudar a la industria. De lo contrario, seguiremos caracterizándonos como […] apresurado y descuidado”.















