OpenAI está modificando su acuerdo negociado apresuradamente para proporcionar inteligencia artificial al Departamento de Guerra de EE. UU. (DoW) después de que el director ejecutivo del propietario de ChatGPT admitiera que parecía “oportunista y descuidado”.
El contrato generó temores de que la IA de la startup de San Francisco pudiera usarse para vigilancia masiva doméstica, pero su jefe, Sam Altman, dijo a última hora del lunes que la startup impediría explícitamente que su tecnología fuera utilizada para ese propósito o implementada por agencias de inteligencia del departamento de defensa como la Agencia de Seguridad Nacional (NSA).
OpenAI, que tiene más de 900 millones de usuarios de ChatGPT, cerró el trato casi inmediatamente después del despido del actual contratista de IA del Pentágono, Anthropic.
Anthropic insistió en que “el uso de estos sistemas para vigilancia interna masiva es incompatible con los valores democráticos”, lo que llevó al presidente estadounidense Donald Trump a llamar a Anthropic “locos de izquierda” y ordenar al gobierno federal que dejara de usar su tecnología.
A pesar de las negaciones de OpenAI de que el acuerdo permitiera el uso de vigilancia, los comentaristas plantearon el espectro de Escándalo de Snowdenque estalló en 2013 cuando se descubrió que la NSA estaba involucrada en la recolección masiva de comunicaciones telefónicas e Internet.
El acuerdo provocó una reacción en línea contra OpenAI, y los usuarios de X y Reddit alentaron una campaña de “exclusión voluntaria de ChatGPT”. una publicación leer: “Ahora estás entrenando una máquina de guerra. Veamos pruebas de la cancelación”.
Claude, el chatbot de Anthropic, ha saltado a la cima de las listas de la App Store de Apple, superando a ChatGPT, según un análisis de Sensor Tower.
En un mensaje a los empleados compartido en X, el CEO de OpenAI dijo que el acuerdo original anunciado el viernes se cerró muy rápidamente después del abandono de Anthropic.
“No deberíamos habernos apresurado a publicar esto el viernes”, escribió Altman. “Los problemas son muy complejos y requieren una comunicación clara. Realmente estábamos tratando de calmar las cosas y evitar un resultado mucho peor, pero creo que pareció oportunista y descuidado”.
Al anunciar el acuerdo, OpenAI dijo que el contrato tenía “más barreras de seguridad que cualquier acuerdo anterior para implementaciones de IA clasificadas, incluidas las de Anthropic”.
Sin embargo, el uso de la IA por parte del ejército estadounidense ha alarmado a casi 900 empleados de OpenAI y Google, también una potencia tecnológica líder, que han firmado un acuerdo. carta abierta pidiendo a sus jefes que se nieguen a permitir que el Departamento de Guerra utilice sus productos para vigilancia y asesinato autónomo.
Advirtiendo que el gobierno de Estados Unidos estaba tratando de “dividir a cada empresa por temor a que la otra cediera”, escribieron: “Esperamos que nuestros líderes dejen de lado sus diferencias y se unan para continuar rechazando las demandas actuales del Departamento de Guerra de permiso para usar nuestros modelos de vigilancia doméstica masiva y matar personas de forma autónoma sin supervisión humana”.
La carta fue firmada por 796 empleados de Google y 98 empleados de OpenAI. OpenAI dijo en un publicación de blog anunciando el acuerdo del DoW que una de sus líneas rojas era “no utilizar la tecnología OpenAI para dirigir sistemas de armas autónomos”.
Sin embargo, los observadores, incluido el exjefe de investigación política de OpenAI, Miles Brundage, han cuestionado cómo OpenAI pudo asegurar un acuerdo que alivia las preocupaciones éticas que Anthropic creía que eran insuperables. En una publicación en X, escribió: “La suposición predeterminada de los funcionarios de OpenAI aquí debería, desafortunadamente, ser que OpenAI cedió + lo enmarcó como si no cediera, y arruinó a Anthropic mientras lo enmarcaba como si los ayudara”.
Brundage añadió: “Para ser claros, la OAI es una organización compleja, y creo que muchas de las personas involucradas en esto han trabajado muy duro para obtener lo que consideran un resultado justo. En otros no confío en absoluto, especialmente cuando se trata de relaciones gubernamentales y política”.
En su post X, también escribió que “preferiría ir a la cárcel” que seguir una orden gubernamental inconstitucional.
“Queremos trabajar a través de procesos democráticos”, escribió Brundage. “Debería ser el gobierno el que tome las principales decisiones sobre la sociedad. Queremos tener una voz y un asiento en la mesa donde podamos compartir nuestro conocimiento y luchar por los principios de la libertad”.
Mientras tanto, tres agencias más a nivel de gabinete de EE. UU. (los departamentos de Estado, del Tesoro y de Salud y Servicios Humanos) tomaron medidas para dejar de usar los productos de inteligencia artificial de Anthropic luego de la declaración del DoW de que la compañía representaba un riesgo para la cadena de suministro. Trump ordenó a todas las agencias gubernamentales de Estados Unidos que eliminaran gradualmente el uso de Anthropic tras la decisión del secretario de Defensa, Pete Hegseth.
















