El enfrentamiento entre Anthropic y el Pentágono ha obligado a la industria tecnológica a enfrentar una vez más la cuestión de cómo se utilizan sus productos para la guerra y qué límites no cruzará. En medio del giro hacia la derecha de Silicon Valley bajo Donald Trump y la firma de lucrativos contratos de defensa, la respuesta de las Big Tech parece muy diferente a la de hace menos de una década.
La rivalidad de Anthropo con Administración Trump incrementó hace tres días cuando la compañía AI demandó al Departamento de Defensa, alegando que la decisión del gobierno de incluirla en la lista negra del trabajo gubernamental violaba sus derechos de la Primera Enmienda. La compañía y el Pentágono han estado atrapados en un enfrentamiento de meses, con Anthropic tratando de prohibir que su modelo de inteligencia artificial se utilice para vigilancia doméstica masiva o armas letales totalmente autónomas.
Anthropic argumentó que ceder a las demandas del Departamento de Defensa de permitir “cualquier uso legal” de su tecnología violaría sus principios de seguridad fundamentales y abriría su tecnología a posibles abusos, estableciendo un límite ético que otros en la industria deben decidir si cruzar.
Si bien la negativa de Anthropic a eliminar las barreras de seguridad y las posteriores represalias del Pentágono resaltaron preocupaciones de larga data sobre el uso de la IA para conflictos, la lucha mostró cuánto han cambiado los objetivos cuando se trata de los vínculos de las grandes tecnologías con el ejército.
“Si la gente busca buenos y malos, un buen tipo es alguien que no apoya la guerra”, dijo Margaret Mitchell, investigadora de inteligencia artificial y científica jefe de ética de la empresa de tecnología Hugging Face. “Para que no lo encuentren aquí”.
Protestas antimilitares contra contratos militares
Hay una serie de factores que contribuyen a la reciente adopción del militarismo por parte de las grandes tecnologías. Su alineación con la administración Trump, que incluía demostraciones de lealtad a Trump de los principales directores ejecutivos, vincularon a las empresas de tecnología con el deseo del gobierno de expandir sus capacidades militares. La promesa de la administración de reformar las agencias federales que utilizan inteligencia artificial también señaló específicamente una oportunidad para que las empresas de IA integren sus productos en operaciones gubernamentales y militares de una manera que pueda garantizar ingresos en los años venideros. En el fondo, las preocupaciones sobre el avance tecnológico de China y el aumento del gasto internacional en defensa también han cambiado las actitudes en la industria.
Sin embargo, no hace mucho tiempo, trabajar con el ejército en tecnologías potencialmente dañinas era visto como una línea roja para muchos trabajadores de las grandes tecnologías. En 2018, miles de empleados de Google lanzaron una protesta contra un programa para analizar imágenes de drones para el Departamento de Defensa llamado Proyecto Maven.
“Creemos que Google no debería estar en el negocio de la guerra”, dijeron más de 3.000 trabajadores en una carta abierta en ese momento. Google decidió no renovar el Proyecto Maven después de las protestas y políticas publicadas lo que impidió la búsqueda de tecnología que pudiera “causar o facilitar directamente daños a las personas”.
Sin embargo, en los años posteriores a la protesta del Proyecto Maven, Google activismo sofocado de los empleados, eliminó el texto de 2018 de sus políticas que prohibió la creación de tecnología armamentística y firmó numerosos contratos que permiten a los militares utilizar sus productos. En 2024, el gigante tecnológico despidió a más de 50 empleados en respuesta a las protestas contra la empresa Vínculos militares con el gobierno israelí.. Sundar Pichai, director ejecutivo envió una nota a los empleados después de los despidos afirmando que Google era una empresa y no un lugar para “luchar por cuestiones inquietantes o debatir sobre política”.
Google anunció esta semana que proporciona a tu Géminis inteligencia artificial Proporcionar a los militares una plataforma para crear agentes de IA para trabajar en proyectos no clasificados.
OpenAI también prohibió por completo que cualquier personal militar accediera a sus modelos antes de 2024, pero desde entonces y ahora tiene su director de producto. sirviendo como teniente coronel en el “cuerpo ejecutivo de innovación” del ejército estadounidense. La startup, junto con Google, Anthropic y xAI, firmó un contrato por valor de hasta 200 millones de dólares con el Departamento de Defensa el año pasado para integrar su tecnología en sistemas militares. El día en que el Secretario de Defensa, Pete Hegseth, declaró que Anthropic era un riesgo para la cadena de suministro, OpenAI consiguió un acuerdo con el Departamento de Defensa permitiendo que su tecnología se utilice en sistemas militares clasificados.
En otras partes de la industria tecnológica, empresas más agresivas como la empresa de tecnología de defensa Anduril, fundada un año antes de las protestas de Google Maven, y el fabricante de tecnología de vigilancia Palantir, han hecho de la asociación con el Departamento de Defensa una piedra angular de su negocio y han tratado de influir en la política de Silicon Valley hacia su visión del mundo. Palantir ha estado a la vanguardia del trabajo con el ejército, contratando inteligencia militar para mapear los explosivos colocados en Afganistán a principios de la década de 2010. El director ejecutivo Alex Karp publicó el año pasado un libro dedicado en gran medida a abogar por una integración más estrecha de la industria tecnológica y la IA con el ejército estadounidenseen un pasaje que acusa de nihilistas a los trabajadores de Google que protestaron en 2018.
Después de que Google cancelara el contrato del Proyecto Maven en 2019, Palantir tomó el control. Maven es ahora el nombre del sistema clasificado que los militares utilizan para acceder a Claude de Anthropic, según el Correo de Washington.
Antrópico va a la guerra
Si bien Anthropic ha recibido elogios públicos por su enfrentamiento con el Pentágono, su cofundador y director ejecutivo, Dario Amodei, ha enfatizado que la empresa de inteligencia artificial y el gobierno quieren en gran medida las mismas cosas.
“Anthropic tiene mucho más en común con el Departamento de Guerra que diferencias”, escribió Amodei en un blog el jueves pasado.
Aunque la Casa Blanca ha acusado a Anthropic de ser “una empresa despierta y de izquierda radical”, las opiniones de Amodei sobre el uso de la IA en conflictos y los temores de su mal uso están lejos del pacifismo radical. En un largo ensayo publicado en enero, Amodei advirtió contra los daños potenciales de la IA, como la creación de armas biológicas mortales y las amenazas de China que utilizan maliciosamente la tecnología. Al mismo tiempo, argumentó que las empresas deberían equipar a los gobiernos y ejércitos democráticos con la IA más avanzada posible para combatir a los adversarios autocráticos.
Expresó su preocupación menos por que la IA haga más fácil matar gente o llevar a cabo guerras y más por la confiabilidad de la tecnología y la amenaza de que se consolide por muy pocas personas con “los dedos en el botón” que pudieran controlar un ejército autónomo de drones.
El ensayo de Amodei también presagiaba algunas de las cuestiones centrales involucradas en su lucha con el Pentágono, incluido el potencial de la IA como herramienta de vigilancia masiva. Al defender los baluartes contra el abuso de la IA, afirmó que su formulación era que estaba bien utilizar la tecnología para la defensa nacional “en todos los sentidos excepto aquellos que nos hicieran más parecidos a nuestros adversarios autocráticos”.
Si bien hasta ahora Amodei ha respetado los límites de la compañía, también ha declarado repetidamente que quiere que Anthropic continúe trabajando con el Departamento de Defensa. La demanda de la empresa contra el Departamento de Defensa muestra hasta qué punto la empresa ha estado dispuesta a trabajar con el ejército y modificar sus productos para su uso.
“Anthropic no impone las mismas restricciones al uso militar de Claude que a los clientes civiles”, dice la demanda de Anthropic en California. “Es menos probable que Claude Gov rechace solicitudes que estarían prohibidas en un contexto civil, como utilizar a Claude para manejar documentos clasificados, operaciones militares o análisis de amenazas”.
El gobierno ha utilizado a Claude para la selección y análisis de objetivos en su campaña de bombardeos contra Irán, un caso de uso con el que Anthropic no ha dado indicios de tener problemas. En su publicación en el sitio web de Anthropic la semana pasada, Amodei dijo que no creía que su compañía tuviera ningún papel en la toma de decisiones operativas del ejército. Dijo que Anthropic apoya a los combatientes de primera línea de Estados Unidos y sigue comprometido a brindarles tecnología.
“Le dijimos al departamento de guerra que damos la bienvenida a todos los casos de uso”, dijo Amodei a CBS News la semana pasada. “Básicamente, el 98 o el 99% de los casos de uso que quieren hacer, excepto dos”.













