Cuando Jensen Huang suba al escenario en un estadio de hockey repleto para dar inicio a la conferencia anual de desarrolladores de Nvidia el lunes, probablemente revelará productos y asociaciones destinados a “mantener al fabricante de chips de IA por encima de una creciente variedad de competidores”.

Nvidia GTC, como se conoce a la conferencia, se ha apoderado del corazón de Silicon Valley durante casi una semana y se ha convertido en el evento al que acude el CEO Huang para mostrar los avances de la IA de Nvidia en chips, centros de datos, su software de programación de chips CUDA, asistentes digitales conocidos como agentes de IA e IA física como los robots.

Este año, el evento de cuatro días es aún más crucial, ya que los inversores buscarán garantías de que la estrategia de Nvidia de reinvertir sus ganancias en el ecosistema de IA esté dando frutos. “Espero que Nvidia presente una actualización completa de la hoja de ruta desde Rubin hasta Feynman, enfatizando la inferencia, la IA de los agentes, las redes y la infraestructura de la fábrica de IA”, dijo el analista de eMarketer Jacob Bourne, utilizando los nombres de las generaciones actuales y futuras de chips de Nvidia.

Los chips de Nvidia están en el centro de cientos de miles de millones de dólares en inversiones en centros de datos por parte de gobiernos y empresas de todo el mundo, pero la empresa se enfrenta a la competencia de otros fabricantes de chips e incluso de algunos de sus clientes que están desarrollando sus propios chips.

Los analistas dijeron a Reuters que esperan que el mercado general de chips de IA siga creciendo, pero que la participación de Nvidia disminuya un poco. a medida que el mercado de chips de IA cambia rápidamente hacia donde los agentes de IA van y vienen entre aplicaciones informáticas, realizando tareas en nombre de los humanos. Este es un cambio con respecto al entrenamiento, donde los laboratorios de IA conectan muchos chips Nvidia a una computadora para analizar grandes cantidades de datos y mejorar sus modelos de IA.

Se espera que estos agentes lleguen a ser tan numerosos que los humanos que les pidan trabajar necesitarán incluso una nueva capa de mandos intermedios de IA, lo que los tecnólogos llaman una capa de “orquestación”, para posicionarse entre los usuarios humanos y sus flotas de agentes.

En cierto modo, dicen los analistas, esto es bueno para Nvidia porque indica que la IA se está volviendo más “útil”.

Pero estas tareas, ampliamente conocidas como “inferencia” en la industria de la IA, también se pueden realizar en otros tipos de chips, incluidos aquellos que los grandes clientes de Nvidia como OpenAI y Meta, que recientemente dijeron que planean lanzar nuevos chips de IA cada seis meses, pueden construir por su cuenta.

“Nvidia definitivamente verá más competencia en comparación con el año pasado”, dijo KinNgai Chan, director general de Summit Insights Group. “Nvidia todavía tiene casi más del 90% de participación de mercado en los mercados de capacitación e inferencia en la actualidad”.

“Creemos que Nvidia comenzará a ver una pérdida de participación a partir de 2027, cuando los programas ASIC internos ganen cierta escala, especialmente en el mercado de inferencia”, dijo, refiriéndose a los circuitos integrados para aplicaciones específicas, chips diseñados para una sola función o carga de trabajo personalizada, que ofrecen mayor eficiencia que las unidades de procesamiento de gráficos de uso general.

La compañía gastó 17 mil millones de dólares en diciembre para comprar Groq, una startup de chips que se especializa en trabajos de computación de inferencia rápidos y baratos. Hablando sobre Groq en la conferencia telefónica sobre ganancias de la compañía el mes pasado, Huang dijo que la compañía mostraría en GTC cómo Nvidia puede conectar la tecnología de inteligencia artificial ultrarrápida de Groq a su plataforma CUDA existente.

William McGonigle, analista de Third Bridge, dijo que su compañía espera que Nvidia lance una nueva línea de servidores que combinará los chips de Groq con las tecnologías de red de Nvidia para crear un producto rápido y rentable.

Otro tipo de chip que plantea una creciente amenaza competitiva para Nvidia es la unidad de procesamiento central, o CPU, el tipo de chip defendido durante mucho tiempo por Intel y Advanced Micro Devices.

Si bien estos chips han pasado a un segundo plano frente a las unidades de procesamiento de gráficos (GPU) de Nvidia en los últimos años, McGonigle dijo que están “de nuevo en el centro de atención” y espera que Nvidia muestre servidores que usan solo sus CPU, de lo que Huang habló en una reciente llamada de ganancias.

“Con el aumento de la IA agente, el cuello de botella ahora está en el nivel de orquestación del agente, que es realizado por las CPU”, dijo McGonigle.

Los analistas también esperan que Nvidia explique por qué invirtió 2 mil millones de dólares cada uno en Lumentum y Coherent, que fabrican láseres para enviar información entre chips en forma de rayos de luz. El uso de estos láseres en lo que se llama óptica empaquetada podría ayudar a acelerar las conexiones entre los chips Nvidia dentro de grandes centros de datos, pero actualmente no se fabrican en volúmenes lo suficientemente grandes como para igualar la cantidad de chips que Nvidia vende cada año.

“Nvidia probablemente enmarcará la óptica conjunta como la clave para conectar clusters masivos de IA de manera más eficiente, pero el desafío es hacerla lo suficientemente asequible para implementarla a escala”, dijo Bourne de eMarketer.

Publicado – 16 de marzo de 2026, 11:29 a. m. IST

Fuente