La startup china de IA Zhupai, también conocida como z.ai, regresa esta semana con un nuevo modelo de lenguaje de frontera que llama la atención: GLM-5.

Lo último en la continua e impresionante serie GLM de z.ai, mantiene una licencia MIT de código abierto, perfecta para la implementación empresarial, y, en uno de varios logros notables, logra una tasa récord en el mercado independiente. Índice de Inteligencia de Análisis Artificial v4.0.

Con una puntuación de -1 en el índice AA-Omniscience, que representa una mejora masiva de 35 puntos con respecto a su predecesor, GLM-5 ahora lidera toda la industria de la IA, incluidos competidores estadounidenses como Google, OpenAI y Anthropic, en confiabilidad del conocimiento, sabiendo cuándo abstenerse en lugar de fabricar información.

Además de sus capacidades de razonamiento, el GLM-5 está diseñado para trabajos de conocimiento de alta utilidad. Cuenta con capacidades nativas de “Modo Agente” que le permiten transformar indicaciones sin procesar o materiales de origen directamente en documentos de oficina profesionales, incluidos documentos listos para usar. .docx, .pdfy .xlsx archivos.

Ya sea que genere informes financieros detallados, propuestas de patrocinio de escuelas secundarias u hojas de cálculo complejas, GLM-5 ofrece resultados en formatos reales que se integran directamente en los flujos de trabajo empresariales.

También tiene un precio disruptivo de alrededor de $0,80 por millón de tokens de entrada y $2,56 por millón de tokens de salida, aproximadamente 6 veces más barato que competidores propietarios como Claude Opus 4.6, lo que hace que los agentes de ingeniería de próxima generación sean más rentables que nunca. Esto es lo que los tomadores de decisiones empresariales deben saber sobre el modelo y su capacitación.

Tecnología: escalamiento para la eficiencia de los agentes

En el corazón del GLM-5 hay un gran salto en parámetros brutos. El modelo varía desde los 355B de parámetros de GLM-4.5 hasta unos impresionantes 744B de parámetros, con 40B activos por token en su arquitectura de Mezcla de Expertos (MoE). Este crecimiento está respaldado por un aumento en los datos previos al entrenamiento a 28,5 billones de tokens.

Para abordar ineficiencias de capacitación de esta magnitud, Zai desarrolló “limo“una nueva infraestructura de aprendizaje por refuerzo asincrónico (RL).

La RL tradicional a menudo sufre de cuellos de botella de “cola larga”; Slime rompe este bloqueo al permitir que las trayectorias se generen de forma independiente, lo que permite las iteraciones detalladas necesarias para el comportamiento complejo de los agentes.

Al integrar optimizaciones a nivel de sistema, como Active Partial Rollouts (APRIL), slime aborda los cuellos de botella de generación que normalmente consumen más del 90 % del tiempo de capacitación de RL, lo que acelera significativamente el ciclo de iteración para tareas complejas de los agentes.

El diseño del marco se centra en un sistema modular de tres partes: un módulo de capacitación de alto rendimiento desarrollado por Megatron-LM, un módulo de implementación que utiliza SGLang y enrutadores personalizados para la generación de datos de alto rendimiento, y un búfer de datos centralizado que gestiona la inicialización inmediata y el almacenamiento de implementación.

Al permitir entornos adaptables verificables y bucles de retroalimentación de compilación de múltiples bucles, Slime proporciona la base sólida y de alto rendimiento necesaria para hacer la transición de la IA de simples interacciones de chat a una ingeniería de sistemas rigurosa y de largo plazo.

Para mantener la implementación manejable, GLM-5 integra DeepSeek Sparse Attention (DSA), preservando la capacidad de contexto de 200K y reduciendo drásticamente los costos.

Trabajo de conocimiento de principio a fin

Zai presenta el GLM-5 como una herramienta de “oficina” para la era AGI. Mientras que los modelos anteriores se centraban en fragmentos, GLM-5 está diseñado para proporcionar documentos listos para usar.

Puede transformar de forma autónoma mensajes en archivos con formato .docx, .pdf y .xlsx, desde informes financieros hasta propuestas de patrocinio.

En la práctica, esto significa que el modelo puede descomponer objetivos de alto nivel en subtareas ejecutables y realizar “Ingeniería genética”, donde los humanos establecen puertas de calidad mientras la IA se encarga de la ejecución.

Rendimiento alto

Los puntos de referencia GLM-5 lo convierten en el nuevo modelo de código abierto más potente del mundo, según Análisis artificialessuperando al rival chino El nuevo Kimi K2.5 de Moonshot lanzado hace apenas dos semanas, lo que demuestra que las empresas chinas de inteligencia artificial están casi atrapadas por rivales occidentales propietarios con recursos mucho mejores.

Según los propios materiales de z.ai compartidos hoy, GLM-5 está cerca de lo último en varios puntos de referencia clave:

SWE Bank verificado: El GLM-5 logró una puntuación de 77,8, superando al Gemini 3 Pro (76,2) y acercándose al Claude Opus 4.6 (80,9).

Banco de ventas 2: En una simulación de administración de empresas, GLM-5 ocupó el primer lugar entre los modelos de código abierto, con un saldo final de 4.432,12 dólares.

Además del rendimiento, el GLM-5 está revolucionando agresivamente el mercado. Disponible en OpenRouter el 11 de febrero de 2026, tiene un precio de aproximadamente entre $0,80 y $1,00 por millón de tokens de entrada y entre $2,56 y $3,20 por millón de tokens de salida. Se ubica en el rango medio en comparación con otros LLM líderes, pero según su desempeño de evaluación comparativa de primer nivel, es lo que se podría llamar un “robo”.

Modelo

Entrada (por 1 millón de tokens)

Producción (por 1 millón de tokens)

Costo total (1 millón de insumos + 1 millón de productos)

Fuente

Qwen3 Turbo

$0.05

$0.20

$0.25

Nube de Alibaba

Grok 4.1 Rápido (razonamiento)

$0.20

$0.50

$0.70

xAI

Grok 4.1 Rápido (sin razonamiento)

$0.20

$0.50

$0.70

xAI

chat de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

razonador de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

Vista previa flash de Géminis 3

$0.50

3,00 dólares estadounidenses

$3.50

Google

Kimi-k2.5

$0.60

3,00 dólares estadounidenses

$3.60

Disparo a la luna

GLM-5

1,00 dólares EE.UU.

$3.20

$4.20

Z.ai

ERNIE 5.0

$0.85

$3.40

$4.25

Qianfan

Claude Haiku 4.5

1,00 dólares EE.UU.

5,00 dólares estadounidenses

6,00 dólares estadounidenses

antrópico

Qwen3-Max (23/01/2026)

$1.20

6,00 dólares estadounidenses

7,20 dólares estadounidenses

Nube de Alibaba

Géminis 3 Pro (≤200K)

2,00 dólares estadounidenses

12,00 dólares estadounidenses

14,00 dólares estadounidenses

Google

GPT-5.2

$1.75

14,00 dólares estadounidenses

$15.75

Abierto AI

El soneto de Claude 4.5

3,00 dólares estadounidenses

15,00 dólares estadounidenses

18,00 dólares estadounidenses

antrópico

Géminis 3 Pro (>200K)

4,00 dólares estadounidenses

18,00 dólares estadounidenses

22,00 dólares estadounidenses

Google

Cerrar trabajo 4.6

5,00 dólares estadounidenses

25,00 dólares estadounidenses

30,00 dólares estadounidenses

antrópico

GPT-5.2 Pro

21,00 dólares estadounidenses

168,00 dólares estadounidenses

189,00 dólares estadounidenses

Abierto AI

Eso es aproximadamente 6 veces más barato al inicio y casi 10 veces más barato en producción que Claude Opus 4.6 ($5/$25). Este comunicado confirma los rumores de que Zhipu AI estaba detrás de “Pony Alpha”, un modelo sigiloso que anteriormente destruyó los puntos de referencia de codificación en OpenRouter.

Sin embargo, a pesar de los altos puntos de referencia y el bajo costo, no todos los primeros usuarios están entusiasmados con el modelo y señalan que su alto rendimiento no cuenta toda la historia.

Lukas Petersson, cofundador de Andon Labs, una startup de protocolos de IA autónomos centrados en la seguridad, comentado en: “Después de horas de leer los rasgos del GLM-5: un modelo increíblemente efectivo, pero mucho menos consciente de la situación. Logra objetivos a través de tácticas agresivas, pero no razona sobre su situación ni aprovecha la experiencia. Eso da miedo. Así es como se obtiene un maximizador de clips”.

El “maximizador de clips” se refiere a una situación hipotética descrito por el filósofo de Oxford Nick Bostrom en 2003en el que una IA u otra creación autónoma conduce accidentalmente a un escenario apocalíptico o a la extinción humana al seguir una instrucción aparentemente benigna (como maximizar el número de clips producidos) en un grado extremo, redirigir todos los recursos necesarios para la vida humana (u otra) o hacer la vida imposible a través de su compromiso de cumplir el objetivo aparentemente benigno.

¿Debería su empresa adoptar GLM-5?

Las empresas que buscan escapar de la dependencia de los proveedores encontrarán que la licencia MIT del GLM-5 y la disponibilidad de pesas abiertas son una ventaja estratégica significativa. A diferencia de los competidores de código cerrado que mantienen la inteligencia detrás de muros propietarios, GLM-5 permite a las organizaciones alojar su propia inteligencia de vanguardia.

La adopción no está exenta de fricciones. La gran escala de los parámetros del GLM-5 (744B) requiere una enorme base de hardware que puede estar fuera del alcance de las empresas más pequeñas sin importantes grupos de GPU en la nube o en las instalaciones.

Los líderes de seguridad deben sopesar las implicaciones geopolíticas de un modelo emblemático de laboratorio con sede en China, especialmente en industrias reguladas donde la residencia y procedencia de los datos se auditan rigurosamente.

Además, el cambio hacia agentes de IA más autónomos introduce nuevos riesgos de gobernanza. A medida que los modelos pasan de “chatear” a “trabajar”, ​​comienzan a operar de forma autónoma entre aplicaciones y archivos. Sin los sólidos permisos específicos de los agentes y los controles de calidad humana establecidos por los líderes de datos empresariales, el riesgo de errores autónomos aumenta exponencialmente.

En última instancia, GLM-5 es una “compra” para organizaciones que han ido más allá de simples copilotos y están listas para construir una oficina verdaderamente autónoma.

Es para ingenieros que necesitan refactorizar un backend heredado o que requieren una canalización “autocurativa” que no duerme.

Mientras los laboratorios occidentales continúan optimizando el “pensamiento” y la profundidad del razonamiento, Zai está optimizando la ejecución y la escala.

Las empresas que hoy adoptan el GLM-5 no sólo están comprando un modelo más barato; están apostando por un futuro donde la IA más valiosa es la que puede terminar el proyecto sin que se lo pidan dos veces.

Fuente