‘El episodio antrópico demuestra que las protecciones corporativas no sustituyen a la gobernanza’ | Crédito de la foto: AP
antrópicoun laboratorio estadounidense de Inteligencia Artificial (IA), solicita que tres laboratorios chinos de IA (DeepSeek, MoonshotAI y MiniMax) sean tratados como amenazas a la seguridad nacional. Según se informa, el ejército estadounidense también utilizó modelos de inteligencia artificial de Anthropic y otros laboratorios estadounidenses en ataques contra Irán para acelerar la “cadena de muerte” desde la identificación del objetivo hasta la aprobación legal y el ataque.
El Pentágono ha clasificado a Anthropic como un riesgo de la “cadena de suministro”, una designación asociada con adversarios extranjeros, ya que genera preocupaciones sobre la forma en que se utiliza su tecnología en operaciones militares. Esta decisión ahora está siendo impugnada ante los tribunales. Estos acontecimientos en el transcurso de unas pocas semanas tienen serias implicaciones para el desarrollo de la IA y el cálculo de la seguridad nacional en todo el mundo.
la pregunta
Los laboratorios chinos de IA han sido acusados de destilar modelos de vanguardia de empresas estadounidenses de IA. En resumen, esto implica utilizar los resultados de un modelo de IA más potente para enseñar un modelo más débil. Los ataques fueron sofisticados y utilizaron técnicas engañosas para enmascarar la identidad y las intenciones de los destiladores. Anthropic afirma que esto sucedió a escala industrial: “16 millones de intercambios con Claude en aproximadamente 24.000 cuentas fraudulentas, violando nuestros términos de servicio y restricciones de acceso regional”.
Escritura | Anthropic Bullying: Acerca de la empresa de inteligencia artificial Anthropic versus el gobierno de EE. UU.
La IA generativa a menudo se equipara con las tecnologías nucleares, con el objetivo de frenar la proliferación de la tecnología. Sin embargo, se trata de una tecnología de doble uso y de propósito general que es más comparable a los semiconductores que a las armas nucleares. A diferencia de las tecnologías nucleares, donde los gobiernos lideran los esfuerzos de investigación y desarrollo, la investigación de vanguardia en IA se lleva a cabo en el sector privado para aplicaciones civiles. Resulta que la misma tecnología también tiene aplicaciones militares.
La no proliferación nuclear funciona porque el material fisionable es raro, controlado y rastreable. No ocurre lo mismo con los modelos matemáticos de IA. El hecho de que DeepSeek haya podido lograr un rendimiento comparable al de los modelos fronterizos a una fracción del costo después de que se impusieron los controles de exportación es una prueba de que las restricciones no son efectivas. La narrativa nuclear nos pide que tratemos la consulta de un modelo de IA como equivalente a la proliferación de armas.
Modelos destilados y barandillas.
El argumento de Anthropic de que un modelo destilado se utilizará de manera menos responsable se basa en fundamentos débiles. El ejército estadounidense podría utilizar modelos de laboratorios estadounidenses de inteligencia artificial de vanguardia, como Anthropic, OpenAI, Google y xAI, para aplicaciones como vigilancia, guerra cibernética y sistemas de armas letales autónomas. De hecho, cuando Anthropic expresó recientemente su preocupación sobre los tipos de usos de sus modelos, enfrentó la amenaza de ser eliminado de los sistemas de defensa y designado como “riesgos de la cadena de suministro”. Sin embargo, su rival, OpenAI, aceptó un contrato permisivo para usos militares, lo que pone de relieve una carrera hacia el fondo dada la presión competitiva para atender a los clientes gubernamentales. Cuando sus propios modelos se utilizan para tales usos, el argumento de que los modelos destilados no tendrán barandillas se desmorona.
Es extremadamente difícil controlar la difusión de dicha tecnología por varias razones. La movilidad del talento es difícil de restringir. Muchos de los investigadores de los laboratorios chinos se formaron en universidades estadounidenses o trabajaron en empresas estadounidenses. Las restricciones impuestas a factores de producción como los semiconductores han sido eludidas repetidamente y ahora están parcialmente derogadas. Ahora bien, la destilación es otro vector aún más difícil de restringir, como reconoce el informe Anthropic. Cada vez que aparece una restricción, se encuentran soluciones alternativas. Si la destilación se considera extremadamente riesgosa, no permitir el acceso público debería ser una opción a considerar.
En el lenguaje de la seguridad nacional, estas restricciones no hacen que el mundo sea más seguro. Hacen que a los rivales les resulte más difícil competir con las empresas estadounidenses dominantes, incluso en aplicaciones civiles. Las restricciones basadas en factores de producción son ineficaces y sólo causan daños colaterales a la innovación, la colaboración científica y el desarrollo económico generalizado. Consolidan efectivamente el poder en manos de unas pocas empresas norteamericanas.
Igualar la destilación con el robo de propiedad intelectual a escala industrial también parece injusto, dado que los modelos de IA de vanguardia se basan en la producción creativa e intelectual de millones de personas que no han sido compensadas ni han dado su consentimiento. Podría decirse que el proceso de hacerle a un modelo millones de preguntas y aprender de sus respuestas no es más extractivo que entrenar ese modelo en miles de millones de páginas web escritas por personas que nunca dieron su consentimiento.
Las empresas cuyos modelos han sido destilados están justificadas al afirmar que sus términos de servicio han sido violados por quienes destilaron sus modelos y pueden tomar medidas para bloquear a dichos actores. Sin embargo, también abogan por una respuesta coordinada entre la industria de la IA, los proveedores de servicios en la nube y los responsables políticos. Este movimiento consolida aún más el poder de mercado de un puñado de empresas.
que se necesita
Por más aterrador que parezca, parece inevitable que los ejércitos de todo el mundo integren la IA generativa en los sistemas militares. El episodio antrópico demuestra que las barreras de protección corporativa no reemplazan la gobernanza: una empresa puede ser ignorada, reemplazada o presionada para que cumpla. En cambio, lo que se necesita son compromisos plurilaterales por parte de los Estados para un uso responsable, que abarquen un control humano significativo sobre las decisiones letales, prohibiciones de la vigilancia civil masiva y estándares técnicos auditables para tales capacidades. Estos compromisos deben aplicarse universalmente para ser efectivos.
Bharath Reddy es miembro asociado de la Institución Takshashila
Publicado – 11 de marzo de 2026 12:08 p. m. IST
















