Startup francesa de IA Mistral lanzó el martes su nueva familia Mistral 3 de modelos abiertos: un lanzamiento de 10 modelos que incluye un modelo de gran frontera con capacidades multimodales y multilingües y nueve modelos más pequeños y totalmente personalizables con capacidad fuera de línea.

El lanzamiento se produce cuando Mistral, que desarrolla modelos de lenguaje de código abierto y un chatbot de IA centrado en Europa, Le Chat, parece estar tratando de ponerse al día con algunos de los modelos fronterizos de código cerrado de Silicon Valley. La startup de dos años, fundada por antiguos investigadores de DeepMind y Meta, ha recaudado alrededor de 2.700 millones de dólares hasta la fecha en un Valoración de 13.700 millones de dólares – maní en comparación con los números que les gustan a los competidores AbiertoAI (57 mil millones de dólares recaudados con una valoración de 500 mil millones de dólares) y antrópico ($45 mil millones recaudados con una valoración de $350 mil millones) está tirando.

Pero Mistral está tratando de demostrar que más grande no siempre es mejor, especialmente en casos de uso empresarial.

“Nuestros clientes a veces están felices de comenzar con una gran [closed] modelo que no tienen que modificar… pero cuando lo implementan, se dan cuenta de que es costoso, es lento”, dijo a TechCrunch Guillaume Lample, cofundador y científico jefe de Mistral. “Así que vienen a nosotros para modificar pequeños modelos para manejar el caso de uso. [more efficiently].”

“En la práctica, la gran mayoría de los casos de uso empresarial son cosas que pueden resolverse mediante modelos pequeños, especialmente si se modifican”, continuó Lample.

Las comparaciones iniciales de referencia, que colocan a los modelos más pequeños de Mistral muy por detrás de sus competidores de código cerrado, pueden ser engañosas, dijo Lample. Los modelos grandes de código cerrado pueden funcionar mejor desde el primer momento, pero las verdaderas ganancias se obtienen cuando se personalizan.

“En muchos casos, es posible igualar o incluso superar los modelos de código cerrado”, afirmó.

Evento tecnológico

san francisco
|
13-15 de octubre de 2026

El modelo de gran frontera de Mistral, denominado Mistral Large 3, logra algunas de las características importantes que tienen los modelos de IA de código cerrado más grandes, como el GPT-4o de OpenAI y el Gemini 2 de Google, al tiempo que intercambia golpes con varios competidores de código abierto. El Large 3 se encuentra entre los primeros modelos de frontera abierta con capacidades multimodales y multilingües, todo en uno, poniéndolo a la par con el Llama 3 de Meta y el Qwen3-Omni de Alibaba. Hoy en día, muchas otras empresas combinan modelos de lenguaje impresionantemente grandes con modelos multimodales más pequeños separados, algo que Mistral ha hecho anteriormente con modelos como Pixtral y Mistral Small 3.1.

Large 3 también presenta una arquitectura de “mezcla experta granulada” con 41B de parámetros activos y 675B de parámetros totales, lo que permite un razonamiento eficiente en una ventana de contexto de 256k. Este diseño ofrece velocidad y capacidad, lo que le permite procesar documentos de gran tamaño y actuar como asistente de agente para tareas comerciales complejas. Mistral posiciona el Large 3 como adecuado para el análisis de documentos, codificacióncreación de contenido, asistentes de inteligencia artificial y automatización del flujo de trabajo.

Con su nueva familia de modelos pequeños, llamada Ministral 3, Mistral afirma audazmente que los modelos más pequeños no sólo son suficientes: son superiores.

La línea incluye nueve modelos distintos, densos y de alto rendimiento en tres tamaños (parámetros 14B, 8B y 3B) y tres variantes: Base (el modelo base previamente entrenado), Instruct (chat optimizado para flujos de trabajo conversacionales y de estilo asistente) y Reasoning (optimizado para tareas lógicas y analíticas complejas).

Mistral dice que esta línea ofrece a los desarrolladores y empresas la flexibilidad de adaptar los modelos a su rendimiento exacto, ya sea que busquen rendimiento bruto, rentabilidad o características especializadas. La compañía afirma que el Ministral 3 tiene puntuaciones iguales o mejores que otros líderes de peso abierto, al mismo tiempo que es más eficiente y genera menos tokens para tareas equivalentes. Todas las variantes admiten visión, manejan ventanas de contexto de 128K a 256K y funcionan en varios idiomas.

Una parte importante del campo es la practicidad. Lample enfatiza que Ministral 3 puede ejecutarse en una sola GPU, lo que lo hace desplegable en hardware asequible, desde servidores locales hasta computadoras portátiles, robots y otros dispositivos periféricos que pueden tener conectividad limitada. Esto es importante no sólo para las empresas que mantienen datos internamente, sino también para los estudiantes que buscan comentarios fuera de línea o para los equipos de robótica que operan en entornos remotos. Una mayor eficiencia, sostiene Lample, se traduce directamente en una mayor accesibilidad.

“Es parte de nuestra misión garantizar que la IA sea accesible para todos, especialmente para las personas sin acceso a Internet”, dijo. “No queremos que la IA esté controlada sólo por unos pocos laboratorios grandes”.

Algunas otras empresas están buscando compromisos de eficiencia similares: el último modelo empresarial de Cohere, Command A, también se ejecuta en sólo dos GPU, y su Plataforma de agentes de IA del norte Puede ejecutarse en una sola GPU.

Este tipo de accesibilidad está impulsando el creciente enfoque de Mistral en la IA física. A principios de este año, la empresa empezó a trabajar para integrar sus modelos más pequeños en robots, drones y vehículos. Mistral está colaborando con la Agencia de Ciencia y Tecnología Home Team (HTX) de Singapur en modelos especializados para robots, sistemas de ciberseguridad y seguridad contra incendios; con la startup alemana de tecnología de defensa Helsing en modelos visión-lenguaje-acción para drones; y con el fabricante de automóviles Estelar en un asistente de IA en el automóvil.

Para Mistral, la fiabilidad y la independencia son tan importantes como el rendimiento.

“Usar una API de nuestros competidores que está inactiva durante media hora cada dos semanas; si eres una empresa grande, no puedes permitírtelo”, afirmó Lample.

Fuente