Antrópico no puede manipular su modelo de IA generativa, Claude, una vez que el ejército estadounidense lo ponga en funcionamiento, escribió un ejecutivo en un expediente judicial el viernes. La declaración se hizo en respuesta a las acusaciones de la administración Trump sobre la empresa. Potencialmente alterar sus herramientas de IA durante la guerra..
“Anthropic nunca tuvo la capacidad de hacer que Claude dejara de trabajar, alterara su funcionalidad, cerrara el acceso o influyera o pusiera en peligro las operaciones militares”, dijo Thiyagu Ramasamy, jefe del sector público de Anthropic. el escribio. “Anthropic no tiene el acceso necesario para desactivar la tecnología o cambiar el comportamiento del modelo antes o durante las operaciones en curso”.
El Pentágono ha estado discutiendo con el principal laboratorio de inteligencia artificial durante meses sobre cómo se puede utilizar su tecnología para la seguridad nacional y cuáles deberían ser los límites de ese uso. Este mes, el secretario de Defensa, Pete Hegseth, clasificó a Anthropic como riesgo de la cadena de suministrouna designación que impedirá que el Departamento de Defensa utilice el software de la empresa, incluso a través de contratistas, en los próximos meses. Otras agencias federales también están abandonando a Claude.
antrópico presentó dos demandas impugnar la constitucionalidad de la prohibición y solicitar una orden de emergencia para revertirla. Sin embargo, los clientes ya han comenzado cancelando ofertas. La audiencia sobre uno de los casos está prevista para el 24 de marzo en el tribunal federal de distrito de San Francisco. El juez podría dictaminar sobre una revocación temporal poco después.
En un documento presentado a principios de esta semana, los abogados del gobierno escribieron que el Departamento de Defensa “no está obligado a tolerar el riesgo de que sistemas militares críticos se vean comprometidos en momentos cruciales para la defensa nacional y las operaciones militares activas”.
El Pentágono ha utilizado a Claude para analizar datos, escribir memorandos y ayudar a generar planes de batalla, WIRED reportado. El argumento del gobierno es que Anthropic podría interrumpir las operaciones militares activas al bloquear el acceso a Claude o promover actualizaciones dañinas si la empresa desaprueba ciertos usos.
Ramasamy rechazó esta posibilidad. “Anthropic no mantiene ninguna puerta trasera o ‘interruptor de apagado’ remoto”, escribió. “El personal de Anthropic no puede, por ejemplo, iniciar sesión en un sistema DoW para modificar o desactivar modelos durante una operación; la tecnología simplemente no funciona de esa manera”.
Continuó diciendo que Anthropic solo podría proporcionar actualizaciones con la aprobación del gobierno y su proveedor de nube, en este caso Amazon Web Services, aunque no especificó el nombre. Ramasamy agregó que Anthropic no puede acceder a las indicaciones ni a otros datos que los usuarios militares ingresan en Claude.
Los ejecutivos de Anthropic sostienen en documentos judiciales que la empresa no quiere poder de veto sobre decisiones tácticas militares. Sarah Heck, jefa de políticas, el escribio en un expediente judicial el viernes que Anthropic estaba dispuesto a garantizar lo mismo en un contrato propuesto el 4 de marzo. [Anthropic] entiende que esta licencia no otorga ni confiere ningún derecho a controlar o vetar la toma de decisiones operativas legales del Departamento de Guerra”, decía la propuesta, según el documento, que hacía referencia a un nombre alternativo para el Pentágono.
La compañía también estaba dispuesta a aceptar un lenguaje que abordara sus preocupaciones sobre el uso de Claude para ayudar a llevar a cabo ataques mortales sin supervisión humana, dijo Heck. Pero las negociaciones terminaron fracasando.
Por ahora, el Departamento de Defensa el dijo en presentaciones judiciales que “está tomando medidas adicionales para mitigar el riesgo de la cadena de suministro” presentado por la empresa al “trabajar con proveedores de servicios en la nube externos para garantizar que el liderazgo de Antropica no pueda realizar cambios unilaterales” en los sistemas Claude actualmente implementados.















