WASHINGTON- El secretario de Defensa, Pete Hegseth, tiene previsto reunirse el martes con el director general de Anthropic, siendo la empresa de inteligencia artificial la única de sus pares que no proporcionará su tecnología a un nueva red interna militar estadounidense.
Anthropic, creador del chatbot Claude, se negó a comentar sobre la reunión, pero el director ejecutivo Dario Amodei dejó en claro su preocupaciones éticas sobre el uso incontrolado de la IA por parte del gobierno, incluido el Peligros de los drones armados totalmente autónomos. y de vigilancia masiva asistida por IA que podría rastrear a los disidentes.
La reunión entre Hegseth y Amodei fue confirmada por un funcionario de defensa que no estaba autorizado a hacer comentarios públicos y habló bajo condición de anonimato.
Subraya el debate sobre el papel de la IA en la seguridad nacional y las preocupaciones sobre cómo se podría utilizar la tecnología en situaciones de alto riesgo que impliquen fuerza letal, información confidencial o vigilancia gubernamental. También sucede como prometió Hegseth. erradicar lo que él llama “cultura despierta” en el ejército.
“Una poderosa IA que analice miles de millones de conversaciones de millones de personas podría medir el sentimiento del público, detectar focos de deslealtad que se están formando y eliminarlos antes de que crezcan”, escribió Amodei en un ensayo el mes pasado.
El Pentágono anunció el verano pasado que iba a adjudicar contratos de defensa a cuatro empresas de inteligencia artificial: Anthropic, Google, OpenAI y xAI de Elon Musk. Cada contrato tiene un valor de hasta 200 millones de dólares.
Anthropic fue la primera empresa de inteligencia artificial aprobada para redes militares clasificadas, donde trabaja con socios como Palantir. Las otras tres empresas, por ahora, sólo operan en entornos no clasificados.
A principios de este año, Hegseth destacó sólo dos de ellos: xAI y Google.
El Secretario de Defensa dijo en un discurso en enero en la compañía de vuelos espaciales de Musk, SpaceX, en el sur de Texas, que estaba ignorando cualquier modelo de IA “que no nos permita librar guerras”.
Hegseth dijo que su visión para sistemas militares de IA significa que operan “sin restricciones ideológicas que limiten las aplicaciones militares legales”, antes de añadir que “la IA del Pentágono no se despertará”.
En enero, Hegseth dijo Grok, el chatbot de inteligencia artificial de Musk se uniría a la red del Pentágono, llamada GenAI.mil. El anuncio se produjo días después de que Grok, que está integrado en X, la red social propiedad de Musk, atrajera el escrutinio mundial por generando imágenes deepfake altamente sexualizadas de personas sin su consentimiento.
OpenAI anunció a principios de febrero que también se uniría a la plataforma militar segura de IA, permitiendo a los militares utilizar una versión personalizada de ChatGPT para tareas no sensibles.
Anthropic se ha presentado durante mucho tiempo como la empresa líder en inteligencia artificial más responsable y consciente de la seguridad desde sus inicios. Los fundadores dejaron OpenAI para formar la startup en 2021..
La incertidumbre con el Pentágono está poniendo a prueba esas intenciones, según Owen Daniels, director asociado de análisis y miembro del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.
“Los pares de Anthropic, incluidos Meta, Google y xAI, están dispuestos a cumplir con la política del departamento sobre el uso de modelos para todas las aplicaciones legales”, dijo Owens. “Por lo tanto, el poder de negociación de la empresa aquí es limitado y corre el riesgo de perder influencia en el impulso del departamento para adoptar la IA”.
Nodo locura por la IA Tras el lanzamiento de ChatGPT, Anthropic se alineó estrechamente con la administración del presidente Joe Biden al ofrecerse como voluntario para someter sus sistemas de inteligencia artificial al escrutinio de terceros para protegerlos contra riesgos de seguridad nacional.
Amodei, el director general, advirtió sobre Los peligros potencialmente catastróficos de la IA al tiempo que rechaza la etiqueta de que es un “destructor” de la IA. Sostuvo en el ensayo de enero que “estamos considerablemente más cerca del peligro real en 2026 que en 2023”, pero que estos riesgos deberían gestionarse de una “manera realista y pragmática”.
Esta no sería la primera vez que la defensa de Anthropic por salvaguardias más estrictas para la IA lo pone en desacuerdo con la administración Trump. El fabricante de chips antropogénicos Nvidia criticó públicamente las propuestas de Trump de relajar los controles de exportación para permitir que algunos chips de computadora con inteligencia artificial se vendan en China. La empresa de la IA, sin embargo, sigue siendo una estrecha colaboración con Nvidia.
La administración Trump y Anthropic también han estado en bandos opuestos en un esfuerzo de cabildeo para regular la IA en los estados de EE. UU.
El principal asesor de Trump en IA, David Sacks, acusó a Anthropic en octubre de “ejecutar una sofisticada estrategia de captura regulatoria basada en generar miedo”.
Sacks hizo los comentarios sobre X en respuesta a que el cofundador de Anthropic, Jack Clark, escribiera sobre su intento de equilibrar el optimismo tecnológico con el “miedo apropiado” sobre la marcha constante hacia sistemas de IA más capaces.
Anthropic contrató a varios ex empleados de Biden poco después del regreso de Trump a la Casa Blanca, pero también intentó dar señales de un enfoque bipartidista. La compañía recientemente incorporó a su junta directiva a Chris Liddell, exfuncionario de la Casa Blanca durante el primer mandato de Trump.
El debate Pentágono-Antrópico recuerda un revuelo hace varios años cuando algunos trabajadores tecnológicos se opusieron a la participación de sus empresas en Proyecto Maven, un programa de vigilancia con drones del Pentágono. Aunque algunos trabajadores fueron despedidos a causa del proyecto y El propio Google se rindióLa dependencia del Pentágono de la vigilancia con drones no ha hecho más que aumentar.
Asimismo, “el uso de la IA en contextos militares ya es una realidad y no desaparecerá”, afirmó Owens.
“Algunos contextos presentan un riesgo menor, incluido el trabajo administrativo, pero los despliegues de IA en el campo de batalla conllevan riesgos diferentes y mayores”, dijo, refiriéndose al uso de fuerza letal o armas como armas nucleares. “Los usuarios militares son conscientes de estos riesgos y han estado pensando en mitigarlos durante casi una década”.
___
O’Brien informó desde Providence, Rhode Island.

















