Eugenio Mymrin | Un | Imágenes falsas
Todos los dispositivos informáticos requieren una parte llamada memoria, o RAM, para el almacenamiento de datos a corto plazo, pero este año estos componentes clave no serán suficientes para satisfacer la demanda mundial.
Porque las empresas son asi NVIDIA, Microdispositivos avanzados Y Google Necesitan mucha RAM para los chips de IA y estas empresas son las primeras en comprar componentes.
Tres proveedores de memoria principales: MicrónSK Hynix y Samsung Electronics representan casi todo el mercado de RAM y sus negocios se están beneficiando del aumento de la demanda.
“Hemos visto un aumento muy marcado y significativo en la demanda de memoria, y ha superado con creces nuestra capacidad de entregar esa memoria y, en nuestra estimación, la capacidad de toda la industria de la memoria para entregarla”, dijo el jefe de negocios de Micron, Sumit Sadana, a CNBC en la feria comercial CES en Las Vegas esta semana.
Las acciones de Micron subieron un 247% durante el año pasado y la compañía reporta ingresos netos casi triplicado en el trimestre más reciente. Samsung dijo esta semana: También espera que el beneficio operativo del trimestre de diciembre casi se triplique. Mientras tanto, SK Hynix está considerando cotizar en EE. UU. A medida que aumentan los precios de las acciones en Corea del Sur, la compañía dice que ha asegurado la demanda en octubre. Para toda la capacidad de producción de RAM de 2026.
Ahora los precios de la memoria están aumentando.
TrendForce, un investigador con sede en Taipei que sigue de cerca el mercado de las memorias, dijo esta semana que espera que los precios promedio de las memorias DRAM aumenten entre un 50% y un 55% este trimestre en comparación con el cuarto trimestre de 2025. El analista de TrendForce, Tom Hsu, dijo a CNBC que este tipo de aumento en los precios de las memorias “no tiene precedentes”.
Base de tres a uno
Sadana dijo que los fabricantes de chips como Nvidia rodean la parte del chip que realiza la computación (la unidad de procesamiento de gráficos o GPU) con varios bloques de un componente rápido y especializado llamado memoria de alto ancho de banda o HBM. A menudo se puede ver a HBM cuando los fabricantes de chips promocionan sus nuevos chips en el aire. Micron suministra memoria a Nvidia y AMD, dos fabricantes líderes de GPU.
La GPU Rubin de Nvidia, que recientemente entró en producción, viene con memoria HBM4 de próxima generación con hasta 288 gigabytes por chip. HBM está instalado en ocho bloques visibles encima y debajo del procesador, y esta GPU se venderá como parte de un único bastidor de servidor llamado NVL72, que combina convenientemente 72 de estas GPU en un solo sistema. En comparación, los smartphones suelen venir con 8 o 12 GB de memoria DDR de menor consumo.
El fundador y director ejecutivo de Nvidia, Jensen Huang, presenta la GPU Rubin y la CPU Vera mientras habla en Nvidia Live en CES 2026 antes del Consumer Electronics Show anual el 5 de enero de 2026 en Las Vegas, Nevada.
Patricio T. Fallon | AFP | Imágenes falsas
Pero la memoria HBM que necesitan los chips de IA tiene una demanda mucho mayor que la RAM utilizada para las computadoras portátiles y teléfonos inteligentes de los consumidores. HBM está diseñado para las especificaciones de gran ancho de banda requeridas por los chips de IA y se fabrica mediante un proceso complejo en el que Micron apila de 12 a 16 capas de memoria en un solo chip, convirtiéndolo en un “cubo”.
Una vez que Micron produce memoria HBM de un bit, se ve obligada a dejar de fabricar memorias más tradicionales de tres bits para otros dispositivos.
“A medida que aumentamos el suministro de HBM, queda menos memoria para la parte del mercado que no es de HBM debido a esta base de tres a uno”, dijo Sadana.
Hsu, analista de TrendForce, dijo que los fabricantes de memorias están favoreciendo las aplicaciones de servidor y HBM sobre otros clientes porque existe un mayor potencial de crecimiento en la demanda porque los proveedores de servicios empresariales y de nube son menos sensibles a los precios.
En diciembre, Micron dijo que lo haría. poner fin a Es parte del negocio de la compañía destinado a suministrar memoria a los fabricantes de computadoras de consumo para que puedan ahorrar dinero en suministros para chips y servidores de IA.
Algunos en la industria tecnológica se sorprenden de cuánto y con qué rapidez ha aumentado el precio de la RAM para los consumidores.
El cofundador y director de tecnología de Juice Labs, Dean Beeler, dijo hace unos meses que cargó su computadora con 256 GB de RAM, el máximo admitido por las placas base de consumo actuales. Esto le costó unos 300 dólares en ese momento.
“Quién iba a decir que unos meses más tarde esto costaría casi 3.000 dólares en RAM”, publicó en Facebook el lunes.
‘Muro de la memoria’
Los investigadores de IA están empezando a ver la memoria como un cuello de botella OpenAI El cofundador de Majestic Labs, Sha Rabii, un emprendedor que anteriormente trabajó en silicio en Google, dijo que ChatGPT se lanzará a finales de 2022. Meta.
Rabii dijo que los sistemas de IA anteriores estaban diseñados para modelos como redes neuronales convolucionales, que requerían menos memoria que los modelos de lenguaje grande, o LLM, populares hoy en día.
Si bien los chips de IA se han vuelto mucho más rápidos, la memoria no ha aumentado, lo que deja a las GPU potentes esperando para recuperar los datos necesarios para ejecutar los LLM, dijo.
“Su rendimiento está limitado por la cantidad de memoria que tiene y la velocidad de la memoria, y si sigue agregando más GPU no es una victoria”, dijo Rabii.
La industria de la IA lo llama el “muro de la memoria”.
Erik Isakson | Visión digital | Imágenes falsas
“El procesador pasa más tiempo dando vueltas mientras espera datos”, dijo Sadana de Micron.
Una memoria más rápida significa que los sistemas de inteligencia artificial pueden ejecutar modelos más grandes, atender a más clientes a la vez y agregar “ventanas contextuales” que permiten a los chatbots y otros LLM recordar conversaciones previas con los usuarios; Esto añade un toque de personalización a la experiencia.
Laboratorios majestuosos diseño Es un sistema de inteligencia artificial para inferencia con 128 terabytes de memoria, o alrededor de 100 veces más memoria que algunos sistemas de inteligencia artificial existentes, dijo Rabii, y agregó que la compañía planea evitar la memoria de HBM para optar por opciones de menor costo. Rabii dijo que la RAM adicional y el soporte arquitectónico en el diseño permitirán que sus computadoras admitan muchos más usuarios simultáneamente usando menos energía en comparación con otros servidores de IA.
Agotado para 2026
Wall Street plantea estas preguntas a las empresas de la industria de la electrónica de consumo: Manzana Y Tecnologías Dellcómo abordarán la escasez de memoria y si se verán obligados a subir los precios o reducir los márgenes. Hoy en día, la memoria representa alrededor del 20% del costo del hardware de una computadora portátil, dijo Hsu. Esto indica un aumento de entre el 10% y el 18% en el primer semestre de 2025.
En octubre, el jefe de finanzas de Apple, Kevan Parekh, dijo a los analistas que su empresa estaba viendo un “ligero retroceso” en los precios de las memorias, pero lo minimizó diciendo que “no es nada que considerar realmente”.
Pero en noviembre, Dell dijo que esperaba que el costo base de todos sus productos aumentara debido a la escasez de memoria. El director de operaciones, Jefferey Clarke, dijo a los analistas que Dell planea cambiar su combinación de configuración para minimizar el impacto en los precios, pero la escasez probablemente afectará los precios minoristas de los dispositivos.
“No veo cómo esto no llegaría a la base de clientes”, dijo Clarke. “Haremos todo lo posible para reducir esto”.
Incluso Nvidia, que se ha convertido en el cliente más grande en el mercado de HBM, enfrenta dudas sobre las necesidades excesivas de memoria, especialmente para sus productos de consumo.
En una conferencia de prensa en CES el martes, se le preguntó al CEO de Nvidia, Jensen Huang, si a la compañía le preocupaba que los clientes de juegos pudieran estar resentidos con la tecnología de inteligencia artificial debido al aumento de los precios de las consolas de juegos y las tarjetas gráficas debido a la escasez de memoria.
Huang dijo que Nvidia es un cliente de memoria muy importante y tiene relaciones de larga data con empresas en este campo, pero en última instancia es necesario que haya más fábricas de memoria porque las necesidades de inteligencia artificial son muy altas.
“Debido a que nuestra demanda es tan alta, cada fábrica, cada proveedor de HBM se está preparando y a todos les está yendo muy bien”, afirmó Huang.
Micron sólo puede satisfacer como máximo dos tercios de las necesidades de memoria a mediano plazo de algunos clientes, dijo Sadana. Pero dijo que la compañía está construyendo actualmente dos grandes fábricas, llamadas fabs, en Boise, Idaho, y que comenzarán a producir memoria en 2027 y 2028. Micron también iniciará la construcción de una fábrica en Clay, Nueva York, que se espera que esté operativa en 2030.
Pero por ahora, “no tenemos existencias para 2026”, dijo Sadana.













