El dominio de la IA de Nvidia se expande a las redes al imponer más cargas de CPU

El reciente hito en ingresos de red de Nvidia es una señal de cómo el dominio de la compañía en el mercado de infraestructura de IA está comenzando a expandirse a otras categorías de productos, mucho más allá de los chips de IA en los que no participó hace 10 años.

El impulso de Nvidia para proporcionar los componentes y sistemas necesarios para su infraestructura de IA alcanzó un importante punto de validación el mes pasado cuando la compañía anunció que sus ingresos anuales por red excedían los de Cisco.

Aunque el director ejecutivo de Nvidia, Jensen Huang, no mencionó a Cisco por su nombre en su última conferencia telefónica sobre resultados, reiteró un punto histórico en la presentación de resultados del cuarto trimestre de la compañía: “Nvidia es el negocio de redes más grande del mundo”.

Esto se basó en que los ingresos de red del negocio de centros de datos de Nvidia alcanzarían los 31 mil millones de dólares para el año fiscal 2026 que finaliza a fines de enero, lo que representa un aumento del 142 por ciento con respecto al año anterior. Además, esta tasa “aumentó más de 10 veces” después de que Nvidia adquiriera el negocio subyacente Mellanox Technologies en 2020.

En comparación, Cisco generó 28 mil millones de dólares en ingresos de red en el año fiscal 2025, que finalizó en julio pasado. Incluso en los últimos trimestres que terminaron hace poco, Nvidia ganó alrededor de 3.000 millones de dólares más que Cisco en redes.

Es una señal de cómo el dominio de Nvidia en el mercado de infraestructura de IA, donde espera que los hiperescaladores gasten alrededor de 700 mil millones de dólares este año, está comenzando a expandirse mucho más allá de los chips de IA hacia otras categorías de productos en las que la compañía no participaba hace 10 años. Esto coloca a Nvidia en competencia más directa con un número creciente de empresas, incluidas aquellas que cuenta como socios, como Cisco.

¿Qué impulsa el negocio de redes de Nvidia?

Lo que impulsó los ingresos de redes de Nvidia en el cuarto trimestre fue el “aumento continuo” de la computación NVLink para sus plataformas de escala de rack Grace Blackwell GB200 y GB300, así como el crecimiento en sus plataformas de redes Spectrum-X Ethernet y Quantum InfiniBand.

“La invención de NVLink realmente ha acelerado nuestro negocio de redes. Cada bastidor viene con nueve nodos de conmutación, y tienen dos chips cada uno, y tendrán más en el futuro. Por eso, la cantidad de conmutación que hacemos por bastidor es simplemente increíble”, dijo Huang durante la conferencia telefónica sobre resultados del cuarto trimestre el 25 de febrero.

“También somos la empresa de redes más grande del mundo, y si nos fijamos en Ethernet, entramos en el mercado de Ethernet hace un par de años, la conmutación de Ethernet. Y creo que probablemente somos la empresa de redes Ethernet más grande del mundo hoy en día, y ciertamente lo seremos pronto. Así que Spectrum-X Ethernet se ha convertido en un verdadero objetivo para nosotros”, añadió.

Progreso de la integración vertical impulsado por el ‘codiseño extremo’ de Nvidia

La compañía se ha expandido a áreas como redes y CPU debido a su opinión de que necesita hacer evolucionar estas tecnologías juntas para ofrecer computadoras a escala de centro de datos que brinden el rendimiento más rápido y eficiente para cargas de trabajo de IA.

Nvidia llama a este nivel de integración vertical “codiseño extremo”.

“Con cada generación, nos comprometemos a ofrecer rendimiento por vatio y muchas, dijo.

Nvidia aumenta la competencia contra Intel y AMD

A pesar de este movimiento de “codiseño extremo”, Nvidia está empezando a ver un interés real en sus CPU como una oferta independiente, lo que indica una mayor amenaza para Intel y AMD.

Si bien la compañía se ha centrado principalmente en integrar CPU junto con GPU en diseños de bandejas de servidor personalizados para plataformas de escala de rack como el GB300, Nvidia anunció recientemente acuerdos con el proveedor de neocloud CoreWeave y el hiperescalador Meta para ofrecer una oferta independiente de su próxima CPU Vera para centros de datos.

Al explicar la visión cambiante de Nvidia sobre las CPU en el centro de datos, Huang dijo que la compañía necesitaba una oferta independiente porque muchas aplicaciones de IA ahora están aprendiendo a usar herramientas que se ejecutan en entornos informáticos de solo CPU. También agregó que otras herramientas también pueden ejecutarse en entornos impulsados ​​por CPU y GPU.

“Y Vera está diseñada para ser la CPU perfecta para el post-entrenamiento. Algunos de los casos de uso en todo el proceso de IA implican un gran uso de la CPU”, dijo.

Nvidia encontró una nueva forma de impulsar la computación acelerada

Si bien esto indica una mayor competencia para Intel y AMD, la compañía también está encontrando nuevas formas de expandir las capacidades de sus chips aceleradores, donde Nvidia se enfrenta a rivales tradicionales, nuevas empresas e hiperescaladores, a través de un reciente acuerdo de licencia no exclusivo con el diseñador de chips de IA Groq, supuestamente valorado en 20 mil millones de dólares.

Como parte del acuerdo, Nvidia contrató a miembros del equipo de Groq, incluido el cofundador y director ejecutivo Jonathan Ross, para aplicar la tecnología de inferencia de Groq a las ofertas de Nvidia.

“Como hicimos con Mellinox, alcanzaremos nuevos niveles de infraestructura, rendimiento y valor de IA ampliando la arquitectura de Nvidia con innovaciones de Groq”, dijo Huang.

Huang señala un crecimiento ‘exponencial’ en la demanda de informática

Nvidia enfrenta una amenaza mayor por parte de sus rivales que en los últimos años. Basta con mirar el acuerdo que AMD anunció el martes para suministrar a Meta 6 gigavatios de infraestructura de inteligencia artificial impulsada por GPU Instinct. O el éxito continuo de Amazon Web Services o los esfuerzos de chips de IA nativos de Google; Según se informa, Google está considerando proporcionar TPU a los centros de datos propiedad de los clientes.

Sin embargo, Huang y su adjunta, la directora financiera Collete Kress, han exudado un aire de confianza y tal vez de inevitabilidad sobre la perspectiva de crecimiento y dominio continuo de la compañía, impulsada por un enorme fondo de guerra, así como un enorme presupuesto de investigación y desarrollo que utiliza para invertir en empresas de todos los tamaños.

“Nuestro ritmo de innovación no tiene paralelo, especialmente a nuestra escala, gracias a nuestro presupuesto anual de I+D que se acerca a los 20 mil millones de dólares y nuestra capacidad de codiseñar informática y redes, chips, sistemas, algoritmos y software”, dijo Kress en la llamada.

Cuando un analista financiero preguntó si Nvidia confiaba en que los hiperescaladores, incluidos los proveedores de servicios en la nube, continuarían aumentando el gasto de capital en infraestructura de IA más allá de este año, Huang dijo que estaba “seguro de que sus flujos de efectivo aumentarán”.

“La razón de esto es muy simple”, añadió. “Hemos visto el impacto de la IA de las agencias y la utilidad de los agentes en todo el mundo y de las organizaciones en todas partes. Es por eso que estamos viendo una demanda increíble de computación. En este nuevo mundo de IA, la computación equivale a ingresos. No hay manera de generar tokens sin computación. No hay manera de aumentar los ingresos sin tokens. Así que en este nuevo mundo de IA, la computación equivale a ingresos”.

Esto llevó a Huang a creer que la industria había alcanzado un “punto de inflexión” debido a lo que llamó un crecimiento “exponencial” en la cantidad de tokens generados por modelos de IA correspondientes a la demanda informática.

Cuando Nvidia presente su oferta ampliada en el evento GTC 2026 del lunes, la compañía arrojará luz sobre exactamente cómo continuará impulsando esta nueva fase de demanda.

“La cantidad de tokens creados realmente ha aumentado exponencialmente, por lo que necesitamos extraerlos a una velocidad mucho mayor”, dijo Huang en febrero.

Fuente