Startup china de IA minimaxcon sede en Shanghai, causó conmoción en la industria de la IA hoy con el lanzamiento de su nuevo Modelo de lenguaje M2.5 en dos variantes, que prometen hacer que la inteligencia artificial de vanguardia sea tan barata que puedas dejar de preocuparte por la factura por completo.

También se dice que “fuente abierta“, aunque los pesos (configuraciones) y el código aún no se han publicado, ni el tipo de licencia o los términos exactos. Pero esto es casi irrelevante dado lo barato que es el servicio de MiniMax a través de su API y sus socios.

En los últimos años, utilizar la IA más poderosa del mundo era como contratar a un consultor costoso: era brillante, pero estabas constantemente mirando el reloj (y el recuento de tokens). M2.5 cambia esa matemática, reduciendo el costo de la frontera hasta en un 95%.

Ofrecer un rendimiento que rivaliza con los modelos de primer nivel de Google y Anthropic a una fracción del costo, especialmente cuando se utilizan herramientas de agentes para tareas empresariales, incluidas creación de archivos de Microsoft Word, Excel y PowerPointMiniMax apuesta a que el futuro no depende sólo de lo inteligente que sea un modelo, sino de la frecuencia con la que se pueda utilizar.

De hecho, con este fin, MiniMax dice que trabajó “con profesionales de alto nivel en áreas como finanzas, derecho y ciencias sociales” para garantizar que el modelo pudiera realizar un trabajo real según sus especificaciones y estándares.

Este lanzamiento es importante porque señala un cambio de la IA como un “chatbot” a la IA como un “trabajador”. Cuando la inteligencia se vuelve “demasiado barata para medir”, los desarrolladores dejan de crear herramientas simples de preguntas y respuestas y comienzan a crear “agentes”, software que puede pasar horas codificando, investigando y organizando proyectos complejos de forma autónoma sin gastar mucho dinero.

De hecho, MiniMax ya ha implementado este modelo en sus propias operaciones. En este momento, El 30% de todas las tareas en la sede de MiniMax se completan con M2.5y un impresionante ¡El 80% del código recién confirmado es generado por M2.5!

Como escribe el equipo de MiniMax en su blog de lanzamiento, “creemos que M2.5 ofrece posibilidades prácticamente ilimitadas para desarrollar y operar agentes en la economía”.

Tecnología: la escasez de energía y el avance de CISPO

El secreto de la eficiencia del M2.5 reside en su arquitectura de Mezcla de Expertos (MoE). En lugar de ejecutar todos sus 230 mil millones de parámetros por cada palabra que genera, el modelo sólo “activa” 10 mil millones. Esto le permite mantener la profundidad de razonamiento de un modelo enorme mientras se mueve con la agilidad de un modelo mucho más pequeño.

Para entrenar este complejo sistema, MiniMax desarrolló un marco patentado de aprendizaje por refuerzo (RL) llamado Forge. Ingeniero MiniMax La canción de Oliveira declarado en el Podcast de IA del jueves en YouTube que esta técnica era esencial para escalar el rendimiento incluso utilizando una cantidad relativamente pequeña de parámetros, y que el modelo fue entrenado durante un período de dos meses.

Forge está diseñado para ayudar al modelo a aprender de los “entornos del mundo real”, lo que esencialmente permite que la IA practique la codificación y el uso de herramientas en miles de espacios de trabajo simulados.

“Lo que nos dimos cuenta es que hay mucho potencial en un modelo pequeño como este si entrenamos el aprendizaje por refuerzo con una gran cantidad de entornos y agentes”, dijo Song. “Pero no es algo muy fácil de hacer”, y añadió que a esto dedicaron “mucho tiempo”.

Para mantener estable el modelo durante este intenso entrenamiento, utilizaron un enfoque matemático llamado CISPO (Optimización de la política de muestreo de importancia de recorte) y compartieron la fórmula en su blog.

Esta fórmula garantiza que el modelo no corrija excesivamente durante el entrenamiento, lo que le permite desarrollar lo que MiniMax llama la “mentalidad del arquitecto”. En lugar de comenzar a escribir código, M2.5 primero aprendió a planificar de manera proactiva la estructura, las características y la interfaz de un proyecto.

Puntos de referencia de última generación (y futuros)

Los resultados de esta arquitectura se reflejan en los últimos rankings sectoriales. M2.5 no sólo ha mejorado; ha saltado al nivel superior de modelos de codificación, acercándose al último modelo de Anthropic, Claude Opus 4.6, lanzado hace apenas una semanay demostrar que las empresas chinas están ahora a solo unos días de alcanzar a los laboratorios norteamericanos con recursos mucho mejores (en términos de GPU).

Estos son algunos de los nuevos aspectos destacados del benchmark MiniMax M2.5:

  • SWE Bank verificado: 80,2% – Corresponde a las velocidades de Claude Opus 4.6

  • NavegarComp: 76,3%: investigación y uso de herramientas líderes en la industria.

  • Banco Multi-SWE: 51,3%: SOTA en codificación multilingüe

  • BFCL (llamada a herramienta): 76,8 %: flujos de trabajo de agentes de alta precisión.

En el podcast de ThursdAI, el presentador Alex Volkov señaló que el MiniMax M2.5 funciona extremadamente rápido y, por lo tanto, utiliza menos tokens para completar tareas, del orden de 0,15 dólares por tarea, en comparación con los 3,00 dólares del Claude Opus 4.6.

Rompiendo la barrera de los costos

MiniMax ofrece dos versiones del modelo a través de su API, ambas enfocadas al uso de producción de alto volumen:

  • M2.5-Relámpago: Optimizado para la velocidad, entregando 100 tokens por segundo. Cuesta 0,30 dólares por 1 millón de tokens de entrada y 2,40 dólares por 1 millón de tokens de salida.

  • Estándar M2.5: Optimizado para costos, funcionando a 50 tokens por segundo. Cuesta la mitad del precio de la versión Lightning ($0,15 por 1 millón de tokens de entrada / $1,20 por 1 millón de tokens de salida).

En términos sencillos: MiniMax afirma que se pueden gestionar cuatro “agentes” (trabajadores de IA) de forma continua durante un año entero por unos 10.000 dólares.

Para los usuarios empresariales, este precio es aproximadamente entre 1/10 y 1/20 del coste de los modelos propietarios de la competencia, como el GPT-5 o el Claude 4.6 Opus.

Modelo

Prohibido

Salida

Costo total

Fuente

Qwen3 Turbo

$0.05

$0.20

$0.25

Nube de Alibaba

chat de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

razonador de búsqueda profunda (V3.2-Exp)

$0.28

$0.42

$0.70

búsqueda profunda

Grok 4.1 Rápido (razonamiento)

$0.20

$0.50

$0.70

xAI

Grok 4.1 Rápido (sin razonamiento)

$0.20

$0.50

$0.70

xAI

Minimax M2.5

$0.15

$1.20

$1.35

minimax

MiniMax M2.5-Rayo

$0.30

$2.40

$2.70

minimax

Vista previa flash de Géminis 3

$0.50

3,00 dólares estadounidenses

$3.50

Google

Kimi-k2.5

$0.60

3,00 dólares estadounidenses

$3.60

Disparo a la luna

GLM-5

1,00 dólares EE.UU.

$3.20

$4.20

Z.ai

ERNIE 5.0

$0.85

$3.40

$4.25

Baidu

Claude Haiku 4.5

1,00 dólares EE.UU.

5,00 dólares estadounidenses

6,00 dólares estadounidenses

antrópico

Qwen3-Max (23/01/2026)

$1.20

6,00 dólares estadounidenses

7,20 dólares estadounidenses

Nube de Alibaba

Géminis 3 Pro (≤200K)

2,00 dólares estadounidenses

12,00 dólares estadounidenses

14,00 dólares estadounidenses

Google

GPT-5.2

$1.75

14,00 dólares estadounidenses

$15.75

Abierto AI

El soneto de Claude 4.5

3,00 dólares estadounidenses

15,00 dólares estadounidenses

18,00 dólares estadounidenses

antrópico

Géminis 3 Pro (>200K)

4,00 dólares estadounidenses

18,00 dólares estadounidenses

22,00 dólares estadounidenses

Google

Cerrar trabajo 4.6

5,00 dólares estadounidenses

25,00 dólares estadounidenses

30,00 dólares estadounidenses

antrópico

GPT-5.2 Pro

21,00 dólares estadounidenses

168,00 dólares estadounidenses

189,00 dólares estadounidenses

Abierto AI

Implicaciones estratégicas para empresas y líderes

Para los líderes técnicos, M2.5 representa más que una simple API más económica. Esto cambia el manual operativo de las empresas en este momento.

Se acabó la presión de “optimizar” las indicaciones para ahorrar dinero. Ahora puede implementar modelos de alto contexto y altos motivos para tareas rutinarias que antes tenían un costo prohibitivo.

La mejora del 37% en la velocidad para completar tareas de un extremo a otro significa que los canales de “agentes” apreciados por los orquestadores de IA (donde los modelos se comunican con otros modelos) finalmente se están moviendo lo suficientemente rápido para las aplicaciones de usuario en tiempo real.

Además, las altas puntuaciones de M2.5 en modelos financieros (74,4% en MEWC) sugieren que puede manejar el “conocimiento tácito” de industrias especializadas como el derecho y las finanzas con una supervisión mínima.

Debido a que M2.5 se posiciona como un modelo de código abierto, las organizaciones pueden potencialmente realizar auditorías de código automatizadas e intensivas a una escala que antes era imposible sin una intervención humana masiva, manteniendo al mismo tiempo un mejor control sobre la privacidad de los datos, pero hasta que se publiquen los términos y ponderaciones de las licencias, esto seguirá siendo solo un alias.

El MiniMax M2.5 es una señal de que la frontera de la IA ya no se trata solo de quién puede construir el cerebro más grande, sino de quién puede convertir ese cerebro en el trabajador más útil (y accesible) de la sala.

Fuente