Las discusiones representan una primera prueba de si Silicon Valley puede influir en la forma en que el personal militar y de inteligencia de Estados Unidos despliega una IA cada vez más poderosa en el campo de batalla. [File]
| Crédito de la foto: REUTERS

El Pentágono y desarrollador de inteligencia artificial Anthropic ‍están en desacuerdo sobre la posible eliminación de salvaguardias que podrían permitir al gobierno usar su tecnología para apuntar armas de forma autónoma y realizar vigilancia interna en Estados Unidos, dijeron a Reuters tres personas familiarizadas con el asunto.

Las discusiones representan un primer caso de prueba para determinar si Silicon Valley, con el favor de Washington después de años de tensiones, puede influir en la forma en que el personal militar y de inteligencia de Estados Unidos despliega una IA cada vez más poderosa en el campo de batalla. Después de semanas de negociaciones bajo un contrato por valor de hasta 200 millones de dólares, el Departamento de Defensa de Estados Unidos y Anthropic están paralizados, dijeron seis personas familiarizadas con el asunto bajo condición de anonimato. La postura de la compañía sobre cómo se pueden utilizar sus herramientas de inteligencia artificial ha intensificado los desacuerdos entre ella y la administración Trump, cuyos detalles no se han informado anteriormente.

De acuerdo con un memorando del Departamento de Defensa del 9 de enero sobre su estrategia de IA, los funcionarios del Pentágono han argumentado que deberían poder implementar tecnología de IA comercial independientemente de las políticas de uso de las empresas, siempre que cumplan con la ley estadounidense, dijeron las personas.

Un portavoz del departamento, que la administración Trump cambió el nombre de Departamento de Guerra, no respondió de inmediato a las solicitudes de comentarios.

En un comunicado, Anthropic dijo que su IA es “ampliamente utilizada por el gobierno de Estados Unidos para misiones de seguridad nacional y estamos en conversaciones productivas con el Departamento de Guerra sobre formas de continuar ese trabajo”. Anthropic es uno de los pocos grandes desarrolladores de inteligencia artificial que recibió contratos del Pentágono el año pasado. Otros fueron Google de Alphabet, xAI de Elon Musk y OpenAI. Anthropic se ha centrado durante mucho tiempo en la seguridad nacional de Estados Unidos, mientras que sus ejecutivos buscan delinear un uso responsable. Esto llevó a un conflicto con la administración Trump, informó anteriormente Semafor.

En un ensayo en su blog personal esta semana, ⁠El director ejecutivo de Anthropic, Dario Amodei, advirtió que la IA debería apoyar la defensa nacional “en todos los sentidos, excepto en aquellos que nos parezcan más a nuestros adversarios autocráticos”. Amodei fue uno de los cofundadores de Anthropic que criticó los tiroteos fatales de ciudadanos estadounidenses que protestaban contra las acciones de control de inmigración en Minneapolis, que describió como un “horror” en una publicación en X. Las muertes generaron preocupación entre algunos en Silicon Valley sobre el uso de sus herramientas por parte del gobierno para una posible violencia.

Fuente