Sam Altman dijo a los empleados de OpenAI en una reunión de todos los partidos el viernes por la tarde que se estaba trabajando en un posible acuerdo con el Departamento de Guerra de EE. UU. para utilizar los modelos y herramientas de IA de la startup, según fuentes en la reunión y un resumen de la reunión visto. suerte. El contrato aún no se ha firmado.
La reunión se produjo al final de una semana cuando estalló una disputa pública entre el Secretario de Guerra, Pete Hegseth, y el competidor de OpenAI, Anthropic. Eso terminó con el fin de los contratos de Anthropic con el Departamento de Defensa y el gobierno federal en general.
Altman dijo que el gobierno está dispuesto a permitir que OpenAI construya su propio “conjunto de seguridad”: un sistema en capas de controles técnicos, políticos y humanos que se ubica entre potentes modelos de IA y aplicaciones del mundo real. Y si el modelo se niega a funcionar, el gobierno no obligará a OpenAI a hacer ese trabajo.
OpenAI seguirá controlando cómo se implementan las protecciones técnicas. ¿Qué modelo y dónde? y limitaría el despliegue a entornos de nube más allá de los “sistemas de borde” (en el contexto militar, los sistemas de borde son una categoría que podría incluir aviones y drones) en lo que sería que es una concesión importante Altman dijo a los empleados que el gobierno dijo que estaba dispuesto a incluir las “líneas rojas” de OpenAI en el contrato, que incluyen No utilizar IA para impulsar armas autónomas No existe vigilancia masiva en el país. Y no hay decisiones importantes.
OpenAI y el Departamento de Guerra no respondieron de inmediato a las solicitudes de comentarios.
Sasha Baker, jefa de política de seguridad nacional de OpenAI, y Katrina Mulligan, líder de seguridad nacional de OpenAI para el gobierno, también hablaron en OpenAI. Según un funcionario, las relaciones con Anthropic y el gobierno se rompieron porque el director ejecutivo y cofundador de Anthropic, Dario Amodei, había ofendido a los líderes del Departamento de Guerra, incluida la publicación de una publicación en un blog que decía: “El departamento está molesto”.
Anthropic, una empresa fundada por personas que abandonaron OpenAI por motivos de seguridad, es el único fabricante importante de IA comercial con un modelo aprobado para su uso en el Pentágono para su implementación a través de una asociación con Palantir. Pero la gerencia de Anthropic y el Pentágono han estado enfrascadas en una disputa durante días sobre los límites que Anthropic quiere imponer a la tecnología. Esas limitaciones son esencialmente las mismas restricciones que Altman dijo que cumpliría el Departamento de Defensa si utilizara la tecnología OpenAI.
Anthropic ha rechazado las demandas del Departamento de Defensa de eliminar las salvaguardias para el modelo Claude que limitan su uso, como la vigilancia masiva interna. o armas completamente automáticas. Esto a pesar de que los funcionarios de defensa insisten en que los modelos de IA deben estar disponibles para “todos los fines legales”, el Pentágono, incluido el secretario de Guerra, Pete Hegseth, advirtió a Anthropic que podría perder hasta 200 millones de dólares en contratos si no cumplía. Altman ha dicho anteriormente que OpenAI comparte las “líneas rojas” de Anthropic al restringir ciertos usos militares de la IA. Enfatiza que incluso cuando OpenAI negocia con el gobierno de EE. UU., enfrenta las mismas tensiones centrales que se han hecho públicas entre Anthropic y el Pentágono.
OpenAI se produce después de que el presidente Trump anunciara que el gobierno federal dejaría de trabajar con Anthropic, intensificando drásticamente el conflicto entre el gobierno y la empresa sobre sus modelos de IA.
“Estoy ordenando a todas las agencias federales del gobierno de los Estados Unidos que dejen de usar inmediatamente la tecnología de Anthropic. No la necesitamos. No la necesitamos. ¡Y nunca volveremos a hacer negocios con ellos!” Trump dijo en una publicación en Truth Social. El Departamento de Guerra y otras agencias que utilizan el modelo Claude de Anthropic tendrán un período de terminación de seis meses, dijo.
En OpenAI, se dijo a todos los funcionarios que el aspecto más desafiante del acuerdo de liderazgo eran las preocupaciones sobre el espionaje extranjero. Y existen serias preocupaciones de que el espionaje impulsado por inteligencia artificial amenace la democracia, según la fuente. Sin embargo, la dirección de la empresa también parece ser consciente del hecho de que los gobiernos espiarán a sus enemigos a nivel internacional. consciente de la afirmación de que los funcionarios de seguridad nacional “no pueden hacer su trabajo” sin capacidades de espionaje internacional. Hace referencia a un informe de inteligencia sobre amenazas que muestra que China ya está utilizando modelos de inteligencia artificial para atacar a los disidentes en el extranjero.














