Claude, el modelo de IA desarrollado por antrópicofue utilizado por el ejército estadounidense durante su operación para secuestrar a Nicolás Maduro de Venezuela, según el Wall Street Journal reveló el sábado, un ejemplo notable de cómo el Departamento de Defensa de Estados Unidos está utilizando la inteligencia artificial en sus operaciones.
El ataque de Estados Unidos a Venezuela implicó atentados con bombas en la capital, Caracas, y la muerte de 83 personas, según el Ministerio de Defensa venezolano. Los términos de uso de Anthropic prohíben el uso de Claude con fines violentos, para desarrollar armas o para llevar a cabo vigilancia.
Anthropic fue el primer desarrollador de inteligencia artificial conocido que se utilizó en una operación encubierta del Departamento de Defensa de EE. UU. No estaba claro cómo se implementó la herramienta, que tiene capacidades que van desde procesar archivos PDF hasta pilotar drones autónomos.
Un portavoz de Anthropic se negó a comentar si Claude fue utilizado en la operación, pero dijo que cualquier uso de la herramienta de inteligencia artificial era necesario para cumplir con sus políticas de uso. El Departamento de Defensa de Estados Unidos no ha comentado sobre las acusaciones.
El WSJ citó fuentes anónimas que dijeron que Claude fue utilizado a través de la asociación de Anthropic con Palantir Technologies, un contratista del Departamento de Defensa de EE. UU. y agencias federales encargadas de hacer cumplir la ley. Palantir se negó a comentar sobre las acusaciones.
Estados Unidos y otros ejércitos utilizan cada vez más la IA como parte de sus arsenales. El ejército israelí ha utilizado drones con capacidades autónomas en Gaza y ha utilizado ampliamente la IA para llenar su grupo de objetivos en Gaza. EL ejército estadounidense ha utilizado IA como objetivo para ataques en Irak y Siria en los últimos años.
Los críticos han advertido contra el uso de la IA en tecnologías de armas y el despliegue de sistemas de armas autónomos, señalando identificaciones erróneas creadas por computadoras que determinan quién debe y quién no debe ser asesinado.
Las empresas de IA han luchado por saber cómo deberían interactuar sus tecnologías con el sector de defensa, y el director ejecutivo de Anthropic, Dario Amodei, pidió una regulación para evitar daños derivados del despliegue de IA. Amodei también expresó cautela sobre el uso de la IA en operaciones letales autónomas y vigilancia en Estados Unidos.
Esta postura más cautelosa aparentemente enfureció al Departamento de Defensa de Estados Unidos, y el Secretario de Guerra, Pete Hegseth, dijo en enero que el departamento no “emplearía modelos de IA que no nos permitirían librar guerras”.
El Pentágono anunció en enero que trabajaría con xAI, propiedad de Elon Musk. El departamento de defensa también utiliza una versión personalizada de los sistemas Gemini y OpenAI de Google para respaldar la investigación.

















