Anthropic afirma que DeepSeek y otras dos empresas chinas de inteligencia artificial hicieron un mal uso de su modelo Claude AI en un intento de mejorar sus propios productos. En un anuncio el lunesAnthropic afirma que las “campañas a escala industrial” implicaron la creación de alrededor de 24.000 cuentas fraudulentas y más de 16 millones de intercambios con Claude, según informó previamente por El diario de Wall Street.
Las tres empresas (DeepSeek, MiniMax y Moonshot) están acusadas de “destilando” a Claudeo entrenar un modelo de IA más pequeño basado en un modelo más avanzado. Si bien Anthropic dice que la destilación es un “método de entrenamiento legítimo”, agrega que “también puede usarse con fines ilícitos”, incluido “adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo y a una fracción del costo que tomaría desarrollarlas de forma independiente”.
Anthropic añade que es “poco probable” que los modelos elaborados ilícitamente transfieran las salvaguardias existentes. “Los laboratorios extranjeros que destilan modelos estadounidenses pueden luego incorporar estas capacidades desprotegidas a sistemas militares, de inteligencia y de vigilancia, permitiendo a los gobiernos autoritarios desplegar IA de frontera para operaciones cibernéticas ofensivas, campañas de desinformación y vigilancia masiva”, escribe Anthropic.
DeepSeek, que causó revuelo en la industria de la IA Para sus modelos potentes pero más eficientes, realizó más de 150.000 intercambios con Claude y se centró en sus capacidades de razonamiento, según Anthropic. También se le acusa de utilizar a Claude para generar “alternativas de censura seguras para cuestiones políticamente sensibles sobre disidentes, líderes de partidos o autoritarismo”. En una carta a los legisladores la semana pasada, OpenAI igualmente acusado DeepSeek “continúa sus esfuerzos para aprovechar las capacidades desarrolladas por OpenAI y otros laboratorios fronterizos de EE. UU.”.
Moonshot y MiniMax tuvieron más de 3,4 millones y 13 millones de intercambios con Claude, respectivamente. Anthropic hace un llamado a otros miembros de la industria de la inteligencia artificial, proveedores de la nube y formuladores de políticas para que aborden la destilación, y agrega que el “acceso restringido a los chips” podría limitar el entrenamiento del modelo y “la escala de la destilación ilícita”.
















