Pregúntale a cualquiera qué NVIDIA el lo hacey es probable que digan “GPU” primero. Durante décadas, el fabricante de chips se ha definido por la computación paralela avanzada, y el surgimiento de la IA generativa y el consiguiente aumento de la demanda de GPU ha sido un bendición para la empresa.

Pero los movimientos recientes de Nvidia indican que está buscando atraer más clientes en el segmento del mercado de IA con menos uso intensivo de computación: clientes que no necesariamente necesitan los productos más robustos y robustos. GPU potentes entrenar modelos de IA, sino buscar las formas más eficientes de ejecutar software de IA de agentes. Nvidia gastó recientemente miles de millones para obtener licencias de tecnología de una startup de chips centrada en la informática de IA de baja latencia y también comenzó a vender CPU independientes como parte de su último sistema de superchip.

Y ayer, Nvidia y Meta anunciado que el gigante de las redes sociales acordó comprar miles de millones de dólares en chips Nvidia para proporcionar potencia informática para los proyectos de infraestructura masivos del gigante de las redes sociales, con CPU de Nvidia como parte del acuerdo.

El acuerdo plurianual es una ampliación de una estrecha y continua asociación entre las dos empresas. Meta estimó previamente que a finales de 2024 habría comprado 350.000 chips H100 de Nvidia, y que para finales de 2025 la empresa tendría acceso a 1,3 millones de GPU en total (aunque no estaba claro si todos serían chips de Nvidia).

Como parte del último anuncio, Nvidia dijo que Meta “construiría centros de datos de hiperescala optimizados para capacitación e inferencia en apoyo de la hoja de ruta de infraestructura de IA a largo plazo de la compañía”. Esto incluye una “implementación a gran escala” de CPU Nvidia y “millones de GPU Nvidia Blackwell y Rubin”.

En particular, Meta es el primer gigante tecnológico en anunciar que estaba realizando una compra a gran escala de la CPU Grace de Nvidia como chip independiente, algo que Nvidia dijo que sería una opción cuando reveló las especificaciones completas de su nuevo superchip Vera Rubin en enero. Nvidia también ha enfatizado que ofrece tecnología que conecta múltiples chips entre sí, como parte de su “enfoque completo” de potencia informática, como lo expresó un analista.

Ben Bajarin, director ejecutivo y analista principal de la firma de investigación de mercado tecnológico Creative Strategies, dice que la medida señaló que Nvidia reconoce que una gama cada vez mayor de software de inteligencia artificial ahora necesita ejecutarse en CPU de la misma manera que las aplicaciones convencionales en la nube. “La razón por la que la industria es tan optimista acerca de las CPU dentro de los centros de datos es la IA corporativa, que impone nuevas demandas a las arquitecturas de CPU de uso general”, afirma.

UNO Informe reciente del boletín de chips Semianálisis destacó este punto. Los analistas señalaron que el uso de la CPU se está acelerando para respaldar el entrenamiento y la inferencia de la IA, citando como ejemplo uno de los centros de datos de Microsoft para OpenAI, donde “ahora se requieren decenas de miles de CPU para procesar y administrar los petabytes de datos generados por las GPU, un caso de uso que de otro modo no sería necesario sin la IA”.

Bajarin señala, sin embargo, que las CPU siguen siendo sólo un componente de los sistemas de hardware de IA más avanzados. La cantidad de GPU que Meta está comprando a Nvidia aún supera la cantidad de CPU.

“Si eres uno de los hiperescaladores, no estarás ejecutando todo de su computación de inferencia en las CPU”, dice Bajarin. “Sólo necesita que el software que esté ejecutando sea lo suficientemente rápido en la CPU para interactuar con la arquitectura de la GPU que en realidad es la fuerza impulsora de esa computación. De lo contrario, la CPU se convertirá en un cuello de botella”.

Meta se negó a comentar sobre su acuerdo ampliado con Nvidia. Durante una reciente conferencia telefónica sobre resultados, el gigante de las redes sociales dijo que planeaba aumentar drásticamente su gasto en infraestructura de IA este año a entre 115.000 y 135.000 millones de dólares, frente a los 72.200 millones de dólares del año pasado.

Fuente