En los últimos días, el Departamento de Defensa de EE.UU. expulsaron sin contemplaciones a la empresa de inteligencia artificial Anthropic, que desarrolla el asistente de codificación Claude, y ha designado a la empresa como un “riesgo de la cadena de suministro”, el tipo de marca de ganado reservada para empresas comprometidas por estados extranjeros hostiles. La razón era simple: Antrópico se negó a ceder para permitir que sus herramientas se utilicen para una vigilancia interna generalizada y armamento totalmente autónomo. El conflicto de alto octanaje con el gobierno de EE. UU., que acusó a Anthropic de perseguir una agenda “despertada” y “radical”, es una escalada impactante, a pesar de concesiones anteriores que permitirían al sistema de defensa de EE. UU. utilizar Claude, que ayuda a crear y actualizar bases de código rápidamente. El conflicto también envía un mensaje aterrador: una gran potencia puede hacer cualquier cosa, con o sin salvaguardias, para obtener una ventaja estratégica. Es un mensaje peligroso enviarlo en un mundo multipolar donde los estándares de seguridad compartidos son cada vez más difíciles de lograr.
Este ya no es el mundo de la cumbre de seguridad de IA de Bletchley Park. Fue una reunión que reconoció el creciente poder de los sistemas de inteligencia artificial y el imperativo global compartido de garantizar que se mitiguen los riesgos de alto riesgo. ¿Qué resonancia tiene este valioso mensaje cuando el país en la frontera del desarrollo de la IA rechaza tan públicamente cualquier forma de control de seguridad para la guerra, en un momento en que está en marcha un ataque imprudente contra Irán (con, supuestamente, algo de ayuda de Claude)? Las empresas deben mostrar cierta fortaleza al enfrentar demandas escandalosas que pueden tener consecuencias aterradoras en su país de origen y en todo el mundo. Después de todo, si Estados Unidos exige espacio político para la vigilancia interna de manera tan intensa, ¿dónde deja eso a los países donde infiltrarse en la oposición política con software espía en sus teléfonos ya es la norma? Anrópica mostró esa columna vertebral y mereció la solidaridad de sus pares. Desafortunadamente, eso no fue lo que sucedió, ya que OpenAI, el creador de ChatGPT, pareció darle al Departamento de Defensa de EE. UU. la flexibilidad que estaba buscando. Horas después de que Anthropic se convirtiera en persona non grata.. A pesar de las garantías de OpenAI de que su acuerdo proporciona salvaguardias fundamentales, la seguridad de la IA se ha visto socavada, mientras la otra superpotencia y varias potencias medias de todo el mundo observan de cerca. Puede que las empresas no sean las personas ideales para adoptar una postura -después de todo, dado su afán de lucro-, pero a medida que las instituciones fuertes se erosionan en todo el mundo, hay pocos lugares donde buscar líderes en seguridad. Cuando una empresa con miles de millones de dólares en juego dice “no”, no es una señal prometedora de lo que vendrá cuando otra empresa interviene y dice “tal vez sí”.
Publicado – 5 de marzo de 2026 12:20 p. m. IST















