Altman de OpenAI dice que el acuerdo de culpabilidad es “oportunista y descuidado”

El director ejecutivo de OpenAI, Sam Altman, habla en la AI Impact Summit en Nueva Delhi, India, el 19 de febrero de 2026.

Bhavika Chhabra dijo:

El director ejecutivo de OpenAI, Sam Altman, dijo el lunes que la compañía “no debería apresurarse” en su último acuerdo con el Departamento de Defensa de EE. UU. y describió las revisiones del acuerdo.

Altman compartió lo que describió como una republicación de un memorando interno. en xDijo que la compañía modificaría el contrato para incluir un nuevo lenguaje y agregó que “el sistema de inteligencia artificial no se utilizará intencionalmente para la vigilancia interna de ciudadanos y nacionales estadounidenses”.

Viene después del productor ChatGPT anunciado El viernes había llegado a un nuevo acuerdo con el Departamento de Defensa, pocas horas después de que el presidente estadounidense, Donald Trump, ordenara a las agencias federales que dejaran de utilizar herramientas de la empresa rival de inteligencia artificial Anthropic y horas antes de que Washington lanzara un ataque contra Irán.

Añadió que el Departamento de Defensa ha confirmado que las herramientas OpenAI no serán utilizadas por agencias de inteligencia como la NSA.

“Hay muchas cosas para las que la tecnología aún no está preparada, y hay muchas áreas en las que aún no entendemos las compensaciones necesarias para la seguridad”, dijo Altman, y agregó que la compañía trabajaría con el Pentágono en protecciones técnicas.

El director ejecutivo también admitió que cometió un error y que “no debería haberse apresurado” para cerrar el trato el viernes.

“Realmente estábamos tratando de calmar las cosas y evitar un resultado mucho peor, pero creo que parecía oportunista y descuidado”, dijo.

Esta admisión sigue a una disputa pública entre Anthropic y Washington que terminó sin un acuerdo sobre las medidas de seguridad para los sistemas Claude AI. El secretario de Defensa, Pete Hegseth, dijo el viernes que la empresa sería considerada una amenaza a la cadena de suministro.

Tras el acuerdo inicial del año pasado, Anthropic se convirtió en el primer laboratorio de IA en distribuir sus modelos a la red secreta del Departamento de Defensa.

La empresa más tarde garantías buscadas Dijo que sus vehículos no se utilizarían en Estados Unidos para fines como vigilancia nacional o la operación y desarrollo de armas autónomas sin control humano.

La disputa comenzó después de que se reveló que Claude de Anthropic fue utilizado en la incursión militar estadounidense para capturar al presidente venezolano Nicolás Maduro en enero, pero la compañía no cuestionó públicamente el caso de uso.

El acuerdo de OpenAI con el Pentágono se produce inmediatamente después del fracaso de las conversaciones entre Anthropic y el Departamento de Defensa; pero Altman volvió a decirles esto a los empleados. nota del jueves Que OpenAI comparte las mismas “líneas rojas” que Anthropic. Dijo en una publicación el viernes que el Departamento de Defensa aceptó las restricciones de la empresa.

Aún no está claro por qué el Departamento de Defensa adoptó OpenAI en lugar de Anthropic, pero los funcionarios del gobierno han criticado a Anthropic durante meses por supuestamente estar demasiado preocupado por la seguridad de la IA.

El momento del acuerdo de OpenAI con el Departamento de Defensa provocó una reacción en línea de muchos usuarios. según se informa dejando ChatGPT para Claude en las tiendas de aplicaciones.

Altman abordó además la controversia en su publicación, diciendo: “En mis conversaciones durante el fin de semana, reiteré que Anthropic no debería definirse como un grupo. [supply chain risk]y esperamos [Department of Defense] “Les ofrecemos las mismas condiciones que acordamos”.

Anthropic fue fundada en 2021 por un grupo de ex miembros del personal e investigadores de OpenAI, incluido Dario Amodei, quien abandonó la empresa tras desacuerdos sobre su dirección. La empresa se promocionó como una alternativa en la que “la seguridad es lo primero”.

Fuente