El laboratorio chino de inteligencia artificial DeepSeek ha lanzado dos versiones preliminares de su nuevo modelo de lenguaje grande. Búsqueda profunda V4una actualización tan esperada del modelo V3.2 del año pasado y su seguimiento modelo de razonamiento R1 quien tomó el El mundo de la IA está arrasando.
La compañía afirma que tanto DeepSeek V4 Flash como V4 Pro son modelos mixtos expertos con ventanas de contexto de 1 millón de tokens cada una, suficiente para permitir el uso de grandes bases de código o documentos en las indicaciones. El enfoque de expertos mixtos implica activar solo una cierta cantidad de parámetros por tarea para reducir los costos de inferencia.
El modelo Pro tiene un total de 1,6 billones de parámetros (49 mil millones activos), lo que lo convierte en el modelo de peso abierto más grande disponible, superando al Kimi K 2.6 de Moonshot AI (1,1 billones), al M1 de MiniMax (456 mil millones) y a más del doble de DeepSeek V3.2 (671 mil millones). El más pequeño, V4 Flash, tiene 284 mil millones de parámetros (13 mil millones activos).
DeepSeek dice que ambos modelos son más eficientes y eficaces que DeepSeek V3.2 debido a mejoras arquitectónicas y casi han “cerrado la brecha” con los modelos líderes actuales, tanto abiertos como cerrados, en puntos de referencia de razonamiento.
La compañía afirma que su nuevo modelo V4-Pro-Max supera a sus pares de código abierto en puntos de referencia de razonamiento y supera a GPT-5.2 y Gemini 3.0 Pro de OpenAI en algunas tareas. Al codificar puntos de referencia de la competencia, DeepSeek dijo que el rendimiento de ambos modelos V4 es “comparable al GPT-5.4”.
Sin embargo, los modelos parecen estar un poco por detrás de los modelos de vanguardia en las pruebas de conocimiento, específicamente el GPT-5.4 de OpenAI y el último Gemini 3.1 Pro de Google. Este retraso sugiere una “trayectoria de desarrollo que sigue a los modelos de frontera de próxima generación en aproximadamente 3 a 6 meses”, escribió el laboratorio.
Tanto V4 Flash como V4 Pro solo admiten texto, a diferencia de muchos de sus pares de código cerrado, que admiten la comprensión y generación de audio, video e imágenes.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
En particular, el DeepSeek V4 es mucho más asequible que cualquier modelo fronterizo disponible actualmente. El modelo V4 Flash más pequeño cuesta $0,14 por millón de tokens entrantes y $0,28 por millón de tokens salientes, superando al GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5. Mientras tanto, el modelo V4 Pro más grande cuesta $ 0,145 por millón de tokens entrantes y $ 3,48 por millón de tokens salientes, superando también a Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 y GPT-5.4.
El lanzamiento se produce un día después de que EE.UU. acusado China robará propiedad intelectual de laboratorios de inteligencia artificial estadounidenses a escala industrial utilizando miles de cuentas proxy. La propia DeepSeek ha sido acusada por Anthropic y OpenAI de “destilación”, esencialmente copiando sus modelos de IA.
Cuando compra a través de enlaces en nuestros artículos, podemos ganar una pequeña comisión. Esto no afecta nuestra independencia editorial.
















