La destilación es una práctica común en el desarrollo de la IA, que las empresas suelen utilizar para crear versiones más pequeñas y económicas de sus propios modelos. [File]
| Crédito de la foto: REUTERS
La empresa estadounidense de inteligencia artificial Anthropic dijo el lunes que había descubierto campañas de tres empresas chinas de inteligencia artificial para extraer ilícitamente capacidades de su chatbot Claude, en lo que describió como un robo de propiedad intelectual a escala industrial.
Anthropic dijo que DeepSeek, Moonshot AI y MiniMax utilizaron una técnica conocida como “destilación”: utilizar los resultados de un sistema de IA más potente para aumentar rápidamente el rendimiento de un sistema menos capaz.
“Estas campañas están creciendo en intensidad y sofisticación”, dijo la empresa en un comunicado. “La ventana para actuar es estrecha”.
La destilación es una práctica común en el desarrollo de la IA, que las empresas suelen utilizar para crear versiones más pequeñas y económicas de sus propios modelos.
La práctica fue noticia hace un año cuando el lanzamiento de un modelo de IA generativa de bajo costo de DeepSeek tuvo un desempeño similar al de ChatGPT y otros chatbots estadounidenses líderes, trastocando las suposiciones de dominio estadounidense en el sector sensible.
Anthropic dijo que las empresas lograron sus objetivos a través de aproximadamente 16 millones de intercambios con su modelo Claude y 24.000 cuentas falsas.
Esto permitió a los tres laboratorios desviar capacidades que no habían desarrollado de forma independiente, a una fracción del costo, y al hacerlo eludieron los controles de exportación de poderosa tecnología estadounidense destinada a preservar el dominio estadounidense en IA.
La compañía argumentó que la práctica plantea riesgos para la seguridad nacional, diciendo que es poco probable que los modelos construidos mediante destilación ilícita mantengan barreras de seguridad diseñadas para evitar el uso indebido, como restricciones para ayudar a desarrollar armas biológicas o permitir ataques cibernéticos.
El archirrival de Anthropic, OpenAI, creador de ChatGPT, hizo acusaciones similares a los legisladores estadounidenses a principios de este mes, diciendo que las empresas chinas estaban utilizando la técnica en medio de “esfuerzos continuos para aprovechar las capacidades desarrolladas por OpenAI y otros laboratorios fronterizos de Estados Unidos”.
Anthropic dijo que MiniMax ejecutó la operación más grande, generando más de 13 millones de intercambios.
Cada campaña se centró en gran medida en la codificación, el razonamiento agencial y el uso de herramientas; áreas donde Claude es considerado un líder.
Para eludir la prohibición de Anthropic sobre el acceso comercial desde China, los laboratorios supuestamente enrutaron el tráfico a través de servicios proxy que administraban las vastas redes de cuentas fraudulentas.
Anthropic pidió respuestas coordinadas de la industria y el gobierno para abordar lo que, según dijo, ninguna empresa podría resolver por sí sola.
Publicado – 24 de febrero de 2026, 09:08 a. m. IST

















