NVIDIA el lunes presentó una supercomputadora de escritorio lo suficientemente potente como para ejecutar modelos de inteligencia artificial con hasta un billón de parámetros (aproximadamente la escala de GPT-4) sin tocar la nube. La máquina, llamada Estación DGXIncluye 748 gigabytes de memoria coherente y 20 petaflops de computación en una caja al lado de un monitor, y puede ser el producto de computación personal más importante desde que la Mac Pro original convenció a los profesionales creativos a deshacerse de sus estaciones de trabajo.
El anuncio, realizado en la reunión anual de la empresa. Conferencia GTC en San José llega en un momento en que la industria de la IA está lidiando con una tensión fundamental: los modelos más poderosos del mundo requieren una enorme infraestructura de centros de datos, pero los programadores y las empresas que desarrollan estos modelos quieren cada vez más mantener sus datos, sus agentes y su propiedad intelectual local. La DGX Station es la respuesta de Nvidia: una máquina de seis cifras que cierra la brecha entre la frontera de la IA y el escritorio de un solo ingeniero.
Lo que realmente significan 20 petaflops en tu escritorio
EL Estación DGX está construido alrededor del nuevo Superchip de escritorio GB300 Grace Blackwell Ultraque fusiona una CPU Grace de 72 núcleos y una GPU Blackwell Ultra a través de la interconexión NVLink-C2C de Nvidia. Este enlace proporciona 1,8 terabytes por segundo de ancho de banda coherente entre los dos procesadores (siete veces la velocidad de PCIe Gen 6), lo que significa que la CPU y la GPU comparten un único grupo continuo de memoria, sin los cuellos de botella que normalmente afectan al trabajo de IA de escritorio.
Veinte petaflops (20 mil billones de operaciones por segundo) habrían clasificado a esta máquina entre las mejores supercomputadoras del mundo hace menos de una década. El sistema de cumbres en Laboratorio Nacional de Oak Ridgeque ocupó el primer lugar a nivel mundial en 2018, tuvo aproximadamente diez veces ese rendimiento, pero ocupó una sala del tamaño de dos canchas de baloncesto. Nvidia está empaquetando una fracción significativa de esa capacidad en algo que se puede conectar a un tomacorriente de pared.
Los 748 GB de memoria unificada es sin duda la cifra más importante. Los modelos de billones de parámetros son enormes redes neuronales que deben cargarse completamente en la memoria para funcionar. Sin suficiente memoria, la velocidad de procesamiento no importa: el modelo simplemente no encaja. La estación DGX supera esta barrera y lo hace con una arquitectura coherente que elimina las penalizaciones de latencia del transporte de datos entre grupos de memoria de CPU y GPU.
Los agentes siempre activos necesitan hardware siempre activo
Nvidia diseñó el Estación DGX explícitamente para lo que considera la siguiente fase de la IA: agentes autónomos que razonan, planifican, escriben códigos y realizan tareas de forma continua, no sólo sistemas que responden a indicaciones. Cada gran anuncio en GTC 2026 Reforzó esta tesis del “agente de IA”, y DGX Station es donde estos agentes deben construirse y ejecutarse.
El emparejamiento de claves es Garra Nemouna nueva pila de código abierto que Nvidia también anunció el lunes. NemoClaw reúne los modelos abiertos Nemotron de Nvidia con OpenShellun tiempo de ejecución seguro que aplica protecciones de seguridad, red y privacidad basadas en políticas para agentes autónomos. Un solo comando instala toda la pila. Jensen Huang, fundador y director ejecutivo de Nvidia, formuló la combinación en términos inequívocos, llamando garra abierta – la plataforma de agentes más amplia soportada por NemoClaw – “el sistema operativo para IA personal” y comparándolo directamente con Mac y Windows.
El argumento es sencillo: las instancias de nube aumentan y disminuyen según demanda, pero los agentes siempre activos necesitan computación, memoria y estado persistentes. Una máquina debajo de su escritorio, funcionando las 24 horas del día, los 7 días de la semana, con datos locales y modelos locales dentro de un espacio aislado seguro, es arquitectónicamente más adecuada para esta carga de trabajo que una GPU alquilada en el centro de datos de otra persona. DGX Station puede funcionar como una supercomputadora personal para un desarrollador en solitario o como un nodo informático compartido para equipos, y admite configuraciones aisladas para entornos clasificados o regulados donde los datos nunca pueden salir del edificio.
Del prototipo de escritorio a la producción del centro de datos sin reescrituras
Uno de los aspectos más inteligentes del diseño de la estación DGX es lo que Nvidia llama continuidad arquitectónica. Las aplicaciones creadas en la máquina migran sin problemas a los sistemas de centro de datos GB300 NVL72 de la empresa (racks de 72 GPU diseñados para fábricas de IA a hiperescala) sin rediseñar una sola línea de código. Nvidia está vendiendo un proceso integrado verticalmente: haga un prototipo en su escritorio y escale a la nube cuando esté listo.
Esto es importante porque el mayor costo oculto en el desarrollo de la IA hoy en día no es el cálculo, sino el tiempo de ingeniería perdido al reescribir el código para diferentes configuraciones de hardware. Un modelo ajustado en un clúster de GPU local a menudo requiere un retrabajo sustancial para implementarlo en una infraestructura de nube con diferentes arquitecturas de memoria, pilas de redes y dependencias de software. La estación DGX elimina esta fricción al ejecutar la misma pila de software de IA de NVIDIA que impulsa todos los niveles de la infraestructura de Nvidia, desde chispa dgx Para Vera Rubin NVL72.
Nvidia también amplió el DGX Spark, el hermano menor de la Station, con nuevo soporte para clústeres. Hasta cuatro unidades Spark ahora pueden operar como un sistema unificado con escalamiento de rendimiento casi lineal: un “centro de datos de escritorio” que cabe en una mesa de conferencias sin infraestructura de rack ni tickets de TI. Para los equipos que necesitan ajustar modelos medianos o desarrollar agentes de menor escala, Sparks en clúster ofrece una plataforma de IA departamental confiable a una fracción del costo de Station.
Los primeros compradores revelan hacia dónde se dirige el mercado
La lista inicial de clientes de DGX Station mapea las industrias donde la IA está haciendo la transición más rápida de un experimento a una herramienta operativa diaria. Snowflake está utilizando el sistema para probar localmente su marco de capacitación de código abierto en el Ártico. EPRIEl Instituto de Investigación de Energía Eléctrica está avanzando en el pronóstico del tiempo basado en inteligencia artificial para fortalecer la confiabilidad de la red eléctrica. Medivis está integrando modelos de lenguaje visual en los flujos de trabajo quirúrgicos. Microsoft Research y Cornell implementaron los sistemas para capacitación práctica en IA a gran escala.
Los sistemas están disponibles para ordenar ahora y se enviarán en los próximos meses a partir de Asus, Tecnologías Dell, GIGABYTE, MSIy supermicrocon caballos de fuerza unirse a finales de año. Nvidia no ha publicado los precios, pero los componentes GB300 de la compañía y los precios históricos de DGX sugieren una inversión de seis cifras: costosa para los estándares de las estaciones de trabajo, pero notablemente barata en comparación con los costos de GPU en la nube para ejecutar inferencias de billones de parámetros a escala.
La lista de modelos compatibles subraya cuán abierto se ha vuelto el ecosistema de IA: los desarrolladores pueden ejecutar y ajustar OpenAI gpt-oss-120bGoogle Gema 3, Qwen3, Mistral Grande 3, Búsqueda profunda V3.2y los modelos Nemotron de la propia Nvidia, entre otros. La estación DGX es independiente del modelo por diseño: hardware suizo en una industria donde las lealtades de los modelos cambian trimestralmente.
La verdadera estrategia de Nvidia: poseer cada capa de la pila de IA, desde la órbita hasta la oficina
EL Estación DGX No llegó de la nada. Era una pieza de un conjunto completo de GTC 2026 anuncios que en conjunto trazan la ambición de Nvidia de ofrecer computación de IA literalmente en todas las escalas físicas.
En la parte superior, Nvidia reveló el Plataforma Vera Rubin – siete nuevos chips en plena producción – anclados en el bastidor Vera Rubin NVL72, que integra 72 GPU Rubin de próxima generación y afirma tener un rendimiento de inferencia por vatio hasta 10 veces mayor en comparación con el Blackwell de la generación actual. EL CPU realCon 88 núcleos Olympus personalizados, se dirige a la capa de orquestación que las cargas de trabajo de los agentes exigen cada vez más. En la frontera más lejana, Nvidia anunció el módulo espacial Vera Rubin para centros de datos orbitales, que proporciona 25 veces más computación de IA para inferencias basadas en el espacio que el H100.
Entre Orbit y la oficina, Nvidia reveló asociaciones que abarcan Adobe para la IA creativa, fabricantes de automóviles como BYD y Nissan para vehículos autónomos de nivel 4, una coalición con Mistral AI y otros siete laboratorios para construir modelos de frontera abierta, y Dynamo 1.0, un sistema operativo de inferencia de código abierto ya adoptado por AWS, Azure, Google Cloud y una lista de empresas nativas de IA, incluidas Cursor y Perplexity.
El patrón es inconfundible: Nvidia quiere ser la plataforma informática (hardware, software y modelos) para cada carga de trabajo de IA, en todas partes. EL Estación DGX es la pieza que cierra la brecha entre la nube y el individuo.
La nube no está muerta, pero su monopolio sobre el trabajo serio de IA está llegando a su fin
Durante los últimos años, la suposición predeterminada en IA ha sido que el trabajo serio requiere instancias de GPU en la nube: alquilar hardware Nvidia de AWS, Azulo Nube de Google. Este modelo funciona, pero conlleva costos reales: tarifas de salida de datos, latencia, exposición a la seguridad al enviar datos propietarios a infraestructuras de terceros y la pérdida fundamental de control inherente al alquiler de la computadora de otra persona.
EL Estación DGX No está acabando con la nube: el negocio de centros de datos de Nvidia supera sus ingresos de escritorio y se está acelerando. Pero crea una alternativa local creíble para una categoría importante y creciente de cargas de trabajo. Entrenar un modelo de frontera desde cero todavía requiere miles de GPU en un almacén. ¿Ajustar un modelo abierto de billones de parámetros sobre datos propietarios? ¿Ejecutando inferencias para un agente interno que procesa documentos confidenciales? ¿Hacer prototipos antes de comprometerse con el gasto en la nube? Una máquina debajo de su escritorio comienza a parecer una elección racional.
Ésta es la elegancia estratégica del producto: amplía el mercado al que Nvidia se dirige para la infraestructura de IA personal y al mismo tiempo fortalece el negocio de la nube, porque todo lo construido localmente está diseñado para adaptarse a las plataformas de centros de datos de Nvidia. No se trata de nube versus mesa. es nube y mesa, y Nvidia proporciona ambos.
Una supercomputadora en cada escritorio y un agente que nunca duerme en ella
El lema que definió la revolución de las PC fue “una computadora en cada escritorio y en cada hogar”. Cuatro décadas después, Nvidia está actualizando la premisa con una incómoda escalada. EL Estación DGX coloca una auténtica potencia de supercomputación (del tipo que se utiliza en los laboratorios nacionales) al lado de un teclado, y NemoClaw coloca encima un agente autónomo de IA que funciona las 24 horas del día, escribe código, llama a herramientas y completa tareas mientras su propietario duerme.
Si este futuro es emocionante o inquietante depende de su punto de vista. Pero una cosa ya no es discutible: la infraestructura necesaria para construir, ejecutar y poseer IA de vanguardia acaba de trasladarse de la sala de servidores al cajón del escritorio. Y la empresa que vende casi todos los chips de IA importantes del planeta se aseguró de vender también el cajón del escritorio.
















