Los racks de IA de Groq se convertirán al juego de canales “con el tiempo”

En una entrevista con CRN, el jefe de canal de Nvidia América, Craig Weinstein, explica por qué las próximas ofertas de CPU Groq LPX y Vera de la compañía para centros de datos de IA se convertirán en un canal de juego “con el tiempo”. El interés corporativo puede ser limitado por ahora, afirman dos socios.

Cuando Nvidia presentó su rack de servidores Groq 3 LPX el lunes pasado, la compañía declaró que se estaba centrando en el compromiso directo con los principales proveedores de modelos de IA que aprovecharán la latencia ultrabaja del producto para ofrecer servicios de IA súper rápidos y de clase mundial.

Pero en una entrevista con CRN al día siguiente, el jefe de canal de Nvidia Americas, Craig Weinstein, dijo que esperaba que los racks Groq LPX se volvieran atractivos para los clientes empresariales sofisticados y, como resultado, un producto que los socios de canal pudieran vender “con el tiempo”.

[Related: Nvidia To Use Intel Xeon 6 CPUs For DGX Rubin NVL8 Systems]

El ejecutivo también dijo lo mismo sobre el esfuerzo del gigante de la infraestructura de inteligencia artificial para ofrecer su CPU Vera personalizada y compatible con Arm como una oferta independiente.

Pero los ejecutivos de Lenovo y un importante socio de canal de Nvidia dijeron a CRN que los racks Groq LPX tendrán un atractivo limitado entre las empresas, al menos por ahora. El líder de Lenovo tenía opiniones similares sobre los servidores con CPU Vera.

A partir de la segunda mitad del año, Nvidia planea ofrecer su bastidor insignia Vera Rubin NVL72 con 36 CPU Vera y 72 GPU Rubin, así como el bastidor Groq 3 LPX con 256 unidades de procesamiento de lenguaje (LPU) Groq 3. Estos nuevos productos anunciado En el evento GTC 2026 de la compañía la semana pasada.

“Creemos que a medida que la inferencia se amplía a la empresa, lo que ya tiene, el lado simbólico de esta ecuación funcionará muy bien para el sistema LPU”, dijo Weinstein, vicepresidente de la organización socia de Nvidia en América en GTC.

Su comentario sobre “tokenomics” se refiere a las afirmaciones de la compañía de que los racks Groq 3 LPX y Vera Rubin NVL72, cuando están conectados y trabajando juntos, pueden aumentar significativamente la velocidad a la que los modelos de billones de parámetros generan tokens. Estos modelos pueden variar desde chatbots con capacidades de razonamiento hasta asistentes de codificación que generan grandes cantidades de texto o código como tokens, según la aplicación.

En un ejemplo, Nvidia dijo que los dos sistemas podrían aumentar el rendimiento de inferencia para un modelo GPT de 1 billón de parámetros 35 veces por cada megavatio consumido por los dos sistemas, en comparación con la plataforma Grace Blackwell NVL72 de la generación anterior.

Esto dará como resultado que el modelo genere 300 tokens por segundo por megavatio, ofreciendo 500 tokens por segundo para cada usuario; Se espera que esto ayude a los grandes e influyentes desarrolladores de modelos de IA a ofrecer servicios premium más caros.

“Mensaje principal [at GTC] “Las fábricas de tokens han estado alrededor de hiperescaladores de alto nivel o nativos de IA cuyos negocios se basan en tokens”, dijo Weinstein. “Pero a medida que la escala de las empresas y la tokenómica se vuelvan más importantes para estas empresas, el sistema LPU será extremadamente importante, [providing] La inferencia de bajo costo permite a esta organización generar millones, si no miles de millones, de tokens para escalar su fábrica de tokens.

El canal final estará disponible para “muchos” socios que ya entregan e implementan las plataformas de escala de rack de Nvidia, como Grace Blackwell NVL72, según Weinstein, quien dijo que un socio anónimo maneja 18.000 racks al año. Estos racks de servidores a menudo requieren refrigeración líquida y cientos de kilovatios de electricidad, lo que limita el hardware a los clientes con la infraestructura adecuada para dichos productos.

“Estos socios están en el juego de escala de rack, ya sea a nivel empresarial o para neonubes. Muchos incluso se están asociando y haciendo negocios con hiperescaladores. La responsabilidad por el lado de producción de esto se está convirtiendo en un componente central de la cartera de servicios que estos socios están construyendo”, dijo.

Weinstein dijo que no hay un cronograma sobre cuándo los socios podrían comenzar a manejar las distribuciones de Groq LPX y que la compañía abordará el canal de una manera “oportunista”.

Los ejecutivos de Lenovo y Mark III ven un gran interés corporativo limitado por ahora

Si bien no se ha anunciado ningún soporte OEM para el Groq 3 LPX, Vlad Rozanovich, líder de ventas de la unidad de negocios de centros de datos de Lenovo, dijo que su compañía consideraría ofrecer el rack si comienza a ver la demanda de los clientes, incluso si no es un movimiento corporativo importante todavía.

“Hemos oído hablar de interés en Groq en lugares como Arabia Saudita”, dijo en una entrevista con CRN la semana pasada, citando como ejemplo el interés de Humain, la compañía estatal de inteligencia artificial del país de Medio Oriente que estaba usando chips Groq antes del anuncio de Nvidia.

Rozanovich, vicepresidente senior del Grupo de Soluciones de Infraestructura de Lenovo, dijo en otro lugar que Lenovo “está viendo el interés de muchas de las mismas empresas que están buscando grandes modelos de lenguaje, pero no es algo que todas las organizaciones quieran”.

Andy Lin, CTO y vicepresidente de estrategia e innovación de Mark III Systems, socio de integración de sistemas Nvidia con sede en Houston, dijo a CRN que cree que el Groq 3 LPX encontrará atractivo entre los proveedores de servicios en la nube, las neonubes y las empresas nativas de IA que “realmente se diferencian en términos de brindar una excelente experiencia de usuario para los modelos”.

Pero reconoció que esas empresas representan un “subconjunto muy pequeño” de la base de clientes de su empresa porque aprovechar la nueva arquitectura de chip como la de Groq requerirá organizaciones con “una cierta cantidad de escala y capacidades avanzadas” en términos de recursos de desarrollo e integración.

Lin dijo que ha visto un interés limitado en el potencial de Groq entre los clientes empresariales.

“Creo que se necesitará un tipo especial de startup que quiera hacer este trabajo para integrarlo en sus líneas existentes”, dijo el ejecutivo proveedor de soluciones, cuya compañía ha ganado premios Nvidia Partner Network varios años seguidos. este año. “Yo diría que probablemente [going to appeal to] Una pequeña minoría de empresas porque a las empresas les resulta suficientemente desafiante construir un verdadero Centro de Excelencia de IA o una fábrica de IA.

Con el plan de Nvidia de ofrecer la CPU Vera en su primer rack de servidores solo para CPU, la compañía ve una oportunidad multimillonaria para acelerar funciones clave de las cargas de trabajo de IA de agentes que se ejecutan mejor en CPU que en GPU.

Estas funciones caen bajo el paraguas de lo que Nvidia llama “ejecución sandbox” e incluyen cosas como invocación de herramientas, consultas de bases de datos y compilación de código. Según la empresa, cuanto más rápido se ejecuten estos procesos, más rápido podrán llegar los datos resultantes a las GPU y generar tokens en función de las tareas asignadas por el usuario.

Al igual que Groq LPX, Weinstein dijo que las ofertas de CPU Vera independientes, como el bastidor de CPU Vera, representan “una oportunidad especial para ciertas cargas de trabajo que pueden beneficiarse de esta arquitectura”. Si bien eso significa que “probablemente no sea una oportunidad inmediata” para el canal, cree que podría suceder “con el tiempo”.

Esta oportunidad particular se centra principalmente en hiperescaladores como Meta y Oracle Cloud Infrastructure, así como en proveedores de neonube como Lambda y Nebius.

Pero Nvidia está trabajando con los principales fabricantes de equipos originales, incluidos Dell Technologies, HPE, Lenovo y Supermicro, para ofrecer la CPU Vera en una variedad de configuraciones, según Ian Buck, vicepresidente de informática de hiperescala y alto rendimiento de Nvidia.

“Pueden conseguir este procesador y están absolutamente listos para construir servidores de CPU para el mercado”, dijo en una reunión con periodistas en GTC la semana pasada.

Interés de Vera CPU vinculado al soporte corporativo

El ejecutivo de ventas de Lenovo, Rozanovich, dijo que ve oportunidades limitadas para servidores de CPU Vera independientes en el canal, al menos en lo que respecta a las empresas en el corto plazo.

“Cuando pienso en una solución informática de Vera a través de socios de canal, tal vez [it will be sold to the] “Sin embargo, los primeros usuarios no constituirán una gran parte del mercado”, afirmó.

Esto se debe a que “las empresas tradicionales todavía están en el mundo x86”, según Rozanovich, y habilitar software en CPU basadas en Arm requiere un “gran trabajo”.

“Ciertamente hay aplicaciones de software que Nvidia está impulsando hacia esta infraestructura Arm, y sucederá, sucederá, pero llevará tiempo”, dijo.

El ejecutivo de Lenovo dijo que ha visto este problema en los servidores de CPU que el proveedor vende basándose en el predecesor de Vera, Grace, que utiliza el diseño de núcleo de CPU disponible en el mercado de Arm en lugar del núcleo personalizado que Nvidia creó para Vera.

“Grace no era muy amigable con el canal porque el ecosistema no estaba listo. ¿Hay algunos proveedores de software que van por ese camino? Sí. Aún no hemos llegado a ese punto”, dijo. “x86 sigue siendo una parte omnipresente del mercado, pero no se puede olvidar el poder de Nvidia y el acceso que tienen ahora a los desarrolladores de software”.

Lin, el ejecutivo de Mark III Systems, dijo que cree que los clientes están “mostrando mucho interés” en los servidores de CPU Vera, especialmente en el espacio de computación de alto rendimiento donde las cargas de trabajo como la simulación pueden beneficiarse de las optimizaciones de la CPU.

El CTO del proveedor de soluciones señaló que algunos clientes están experimentando problemas con la primera CPU de servidor de Nvidia, Grace, porque “su código aún no está optimizado para Arm”. Pero espera que la situación mejore con la segunda generación del gigante de la infraestructura de IA.

“Creo que habrá una adopción adicional y la gente estará dispuesta a explorar más porque creo que muchas de las eficiencias son aún más evidentes ahora”, dijo Lin.

Fuente