El equipo Qwen de investigadores de IA del gigante chino del comercio electrónico Alibaba surgió el año pasado como uno de los líderes mundiales en el desarrollo de IA de código abierto, lanzando un Gran cantidad de potentes modelos de lenguaje. y modelos multimodales especializados que se acercan y en algunos casos superan el desempeño de líderes propietarios estadounidenses como OpenAI, Anthropic, Google y xAI.
Ahora el equipo de Qwen regresa esta semana con un lanzamiento llamativo que coincide con el frenesí de “ambiente de codificación” que ha surgido en los últimos meses: Qwen3-Coder-Siguienteun modelo especializado de 80 mil millones de parámetros diseñado para ofrecer el rendimiento de los agentes de élite en un área poco activa.
Fue lanzado con una licencia permisiva Apache 2.0, permitiendo el uso comercial por parte de grandes empresas y desarrolladores independientes, con la pesos de modelo disponibles en Hugging Face en cuatro variantes y una informe técnico describiendo algunos de sus enfoques e innovaciones en materia de formación.
El lanzamiento marca una importante escalada en la carrera armamentista global por el asistente de codificación definitivo, luego de una semana en la que el espacio explotó con nuevos participantes. A partir de las enormes ganancias de eficiencia de Arnés Antrópico Claude Code para el lanzamiento de alto perfil de la aplicación OpenAI Codex y la rápida adopción comunitaria de marcos de código abierto como garra abiertaLa escena competitiva nunca ha sido tan competitiva.
En este entorno de alto riesgo, Alibaba no sólo está manteniendo el ritmo: está tratando de establecer un nuevo estándar para la inteligencia abierta.
Para los responsables de la toma de decisiones de LLM, Qwen3-Coder-Next representa un cambio fundamental en la economía de la ingeniería de IA. Aunque el modelo alberga 80 mil millones de parámetros totales, utiliza una arquitectura de Mezcla de Expertos (MoE) ultraescasa que activa solo 3 mil millones de parámetros por paso directo.
Este diseño le permite proporcionar capacidades de razonamiento que rivalizan con los sistemas propietarios masivos, manteniendo al mismo tiempo los bajos costos de implementación y el alto rendimiento de un modelo local liviano.
Resolver el cuello de botella del contexto prolongado
El principal avance técnico detrás de Qwen3-Coder-Next es una arquitectura híbrida diseñada específicamente para evitar los problemas de escala cuadrática que afectan a los Transformers tradicionales.
A medida que las ventanas de contexto se expanden (y este modelo admite 262.144 tokens), los mecanismos de atención tradicionales se vuelven computacionalmente prohibitivos.
Los transformadores estándar sufren de un “muro de memoria”, donde el costo del contexto de procesamiento crece cuadráticamente con la longitud de la secuencia. Qwen resuelve esto combinando Gated DeltaNet con Gated Attention.
Gated DeltaNet actúa como una alternativa de complejidad lineal a la atención softmax estándar. Permite que el modelo mantenga el estado dentro de su ventana de un cuarto de millón de tokens sin las penalizaciones de latencia exponencial típicas del razonamiento a largo plazo.
Cuando se combina con MoE ultraescaso, el resultado es un rendimiento teórico 10 veces mayor para tareas a nivel de repositorio en comparación con modelos densos de capacidad total similar.
Esta arquitectura garantiza que un agente pueda “leer” una biblioteca Python completa o un marco de JavaScript complejo y responder con la velocidad de un modelo 3B pero con la comprensión estructural de un sistema 80B.
Para evitar alucinaciones de contexto durante el entrenamiento, el equipo utilizó Best-Fit Packing (BFP), una estrategia que mantiene la eficiencia sin los errores de truncamiento que se encuentran en la concatenación tradicional de documentos.
Entrenado para ser el agente primero.
El “Siguiente” en la nomenclatura del modelo se refiere a un pivote fundamental en la metodología de capacitación. Históricamente, los modelos de codificación se entrenaban en pares de código-texto estáticos, esencialmente educación de “solo lectura”. En cambio, Qwen3-Coder-Next se desarrolló a través de un proceso masivo de “capacitación de agentes”.
El informe técnico detalla un proceso de síntesis que produjo 800.000 tareas de codificación verificables. Estos no eran meros fragmentos; eran escenarios de corrección de errores del mundo real extraídos de solicitudes de extracción de GitHub y combinados con entornos totalmente ejecutables.
La infraestructura de formación, conocida como MegaFlow, es un sistema de orquestación nativo de la nube basado en Alibaba Cloud Kubernetes. En MegaFlow, cada tarea de agente se expresa como un flujo de trabajo de tres etapas: implementación, evaluación y posprocesamiento del agente. Durante la implementación, el modelo interactúa con un entorno contenedorizado activo.
Si genera código que falla una prueba unitaria o falla un contenedor, recibe retroalimentación inmediata a través de capacitación intermedia y aprendizaje reforzado. Esta educación de “circuito cerrado” permite que el modelo aprenda de la retroalimentación ambiental, enseñándole a recuperarse de fallas y perfeccionar soluciones en tiempo real.
Las especificaciones del producto incluyen:
Soporte para 370 lenguajes de programación: Una ampliación de 92 en versiones anteriores.
Llamada a la herramienta de estilo XML: Un nuevo formato qwen3_coder diseñado para argumentos con muchas cadenas, lo que permite que la plantilla emita largos fragmentos de código sin comillas anidadas y la sobrecarga de escape típica de JSON.
Centrarse en el nivel del repositorio: La capacitación intermedia se ha ampliado a aproximadamente 600 mil millones de tokens de datos a nivel de repositorio, lo que demuestra ser más impactante para la lógica de dependencia entre archivos que solo para conjuntos de datos a nivel de archivo.
Especialización a través de modelos expertos
Un diferenciador importante en el proceso Qwen3-Coder-Next es el uso de modelos especializados. En lugar de entrenar un modelo generalista para todas las tareas, el equipo desarrolló expertos en dominios específicos para el desarrollo web y la experiencia del usuario (UX).
Web Development Expert se centra en tareas completas, como la creación de interfaces de usuario y la composición de componentes. Todos los ejemplos de código se renderizaron en un entorno Chromium controlado por Playwright.
Para las muestras de React, se implementó un servidor Vite para garantizar que todas las dependencias se inicializaran correctamente. Un modelo de lenguaje de visión (VLM) juzgó las páginas renderizadas en cuanto a la integridad del diseño y la calidad de la interfaz de usuario.
User Experience Expert se optimizó para adherirse al formato de llamada de herramienta en varios andamios CLI/IDE, como Cline y OpenCode. El equipo descubrió que la capacitación en múltiples modelos de chat de herramientas mejoró significativamente la solidez del modelo frente a esquemas invisibles en el momento de la implementación.
Una vez que estos especialistas alcanzaron el máximo rendimiento, sus capacidades se refinaron al modelo único MoE 80B/3B. Esto garantiza que la versión de implementación ligera conserve el conocimiento matizado de modelos docentes mucho más grandes.
Mejorando los puntos de referencia y ofreciendo alta seguridad
Los resultados de esta formación especializada se reflejan en la posición competitiva del modelo frente a los gigantes del sector. En evaluaciones comparativas realizadas utilizando el marco SWE-Agent, Qwen3-Coder-Next demostró una eficiencia excepcional con respecto a su recuento de parámetros activos.
En SWE-Bench Verified, el modelo logró una puntuación del 70,6%. Este rendimiento es notablemente competitivo cuando se compara con modelos significativamente más grandes; supera a DeepSeek-V3.2, que obtiene una puntuación del 70,2%, y está sólo ligeramente por detrás de la puntuación del 74,2% de GLM-4.7.
Fundamentalmente, el modelo demuestra una fuerte conciencia de seguridad inherente. En SecCodeBench, que evalúa la capacidad de un modelo para reparar vulnerabilidades, Qwen3-Coder-Next superó a Claude-Opus-4.5 en escenarios de generación de código (61,2% frente a 52,5%).
En particular, mantuvo puntuaciones altas incluso cuando no recibió ningún consejo de seguridad, lo que indica que aprendió a anticipar errores de seguridad comunes durante la fase de capacitación de agentes 800K.
En evaluaciones de seguridad multilingües, el modelo también demostró un equilibrio competitivo entre la generación de código funcional y seguro, superando a DeepSeek-V3.2 y GLM-4.7 en el punto de referencia CWEval con una puntuación func-sec@1 del 56,32 %.
Desafiando a los gigantes propietarios
El lanzamiento representa el desafío más importante para el dominio de los modelos de codificación de código cerrado en 2026. Al demostrar que un modelo con solo 3 mil millones de parámetros activos puede navegar las complejidades de la ingeniería de software del mundo real con tanta eficacia como un “gigante”, Alibaba ha democratizado efectivamente la codificación de agentes.
El “¡ajá!” El impulso para la industria es la comprensión de que el alcance y el rendimiento del contexto son las dos palancas más importantes para el éxito de la agencia.
Un modelo que puede procesar 262.000 tokens de un repositorio en segundos y verificar su propio trabajo en un contenedor Docker es fundamentalmente más útil que un modelo más grande que es demasiado lento o costoso de iterar.
Como concluye el equipo de Qwen en su informe: “Ampliar la capacitación de los agentes, en lugar de solo el tamaño del modelo, es un factor clave para mejorar las capacidades de codificación de los agentes en el mundo real”. Con Qwen3-Coder-Next, la era del modelo de codificación “gigantesco” puede estar llegando a su fin, reemplazado por expertos escasos y ultrarrápidos que pueden pensar tan profundamente como ejecutar.














