OpenAI acusó a DeepSeek de mala conducta al desarrollar la próxima versión de su modelo de IA, incluso antes del lanzamiento oficial.
“El próximo modelo de DeepSeek (cueste lo que cueste) debe entenderse en el contexto de sus esfuerzos continuos para aprovechar las capacidades desarrolladas por OpenAI y otros laboratorios fronterizos de Estados Unidos”, dijo OpenAI en un comunicado. nota Al Comité Selecto de la Cámara de Representantes de Estados Unidos sobre China el 12 de febrero.
DeepSeek no ha confirmado ningún nuevo lanzamiento.
Las preocupaciones de OpenAI pueden surgir de las expectativas que podría tener la empresa con sede en Hangzhou. Haz un gran anuncio Durante las celebraciones del Año Nuevo Lunar de la próxima semana, haciéndose eco del lanzamiento sorpresa realizado el año pasado.
“En esta carrera armamentista de alto riesgo, hay una lucha constante por el conocimiento, la capacidad, la precisión y la eficiencia de los modelos”, dijo Neil Shah, vicepresidente de investigación de Counterpoint Research. Resto del mundo. Shah dijo que el conflicto refleja tensiones mayores en el desarrollo global de la inteligencia artificial.
DeepSeek se puso a la vanguardia de la carrera mundial de IA casi de la noche a la mañana cuando lanzó su modelo R1 durante el período del Año Nuevo Lunar el año pasado, afirmando que su rendimiento igualaba a los mejores modelos estadounidenses a pesar de haber sido entrenado utilizando muchos menos chips avanzados. El lanzamiento reavivó las discusiones en Washington sobre si los controles estadounidenses a las exportaciones de semiconductores avanzados son suficientes para mantener el liderazgo estadounidense en inteligencia artificial.
En su memorando, OpenAI acusó a DeepSeek de utilizar técnicas de “destilación”, un método común en el que se entrena un modelo más pequeño con la salida de un modelo más potente para replicar sus capacidades.
“Hemos observado que las cuentas asociadas con los empleados de DeepSeek están desarrollando métodos para eludir las restricciones de acceso y los modelos de acceso de OpenAI a través de enrutadores externos oscuros y otros métodos que enmascaran su fuente”, decía el memorando. “También sabemos que los empleados de DeepSeek han desarrollado código para acceder a modelos de IA de EE. UU. y obtener resultados para la destilación de forma programática. Creemos que DeepSeek también está utilizando enrutadores de terceros para acceder a modelos de frontera de otros laboratorios de EE. UU.”.
OpenAI dijo que no permite que su producción se utilice para crear “modelos de IA falsos” que repliquen sus capacidades.
esto es todo No es la primera vez OpenAI ha expresado su preocupación por la destilación. La empresa investigó si DeepSeek extrajo sus datos Justo después del lanzamiento del modelo R1 en enero del año pasado.
Austin Horng-En Wang, politólogo asociado del grupo de expertos de RAND Corporation, se preguntó por qué OpenAI elegiría dar un paso al frente ahora, especialmente porque las empresas y los responsables políticos chinos han presionado públicamente por un ecosistema de IA de código abierto desde el hackeo de DeepSeek el año pasado.
“Una posible razón para esta acusación es impedir que DeepSeek y las empresas chinas obtengan más chips para destilar el modelo estadounidense, de modo que los modelos estadounidenses puedan mantener su posición de liderazgo”, dijo Wang. resto del mundo.
DeepSeek R1 ha ayudado a impulsar la adopción por parte de China de modelos de IA de peso abierto, sistemas que los desarrolladores de todo el mundo pueden descargar, modificar e implementar. Este enfoque contrasta con los sistemas cerrados favorecidos por la mayoría de los gigantes tecnológicos estadounidenses, que controlan estrictamente el acceso a sus modelos, datos y arquitectura.
El mes pasado, los gigantes tecnológicos chinos y las nuevas empresas de inteligencia artificial se apresuró Lanzar sus últimos modelos abiertos antes que DeepSeek.
“La realidad es que ninguno de los modelos es una isla aislada, y toda la industria se ha desarrollado principalmente sobre la base del aprendizaje iterativo”, dijo Shah. “En muchos casos, los recién llegados siguen los mismos caminos de ‘destilación’ y ‘mejora’.













