Las previsiones del principal consejero de Micron están desmontando los optimistas anhelos de quienes pensaban que 2026 sería el año de vuelta a la normalidad
La cuestión sobre la escasez y el precio de los módulos de memoria RAM se está dilatando más en el tiempo de lo que a muchos les gustaría, y con justa razón. Llevamos unos meses de 2026 en los que hemos visto como, a pesar de iniciativas como la de Google con TurboQuant, los precios y la disponibilidad apenas han sufrido cambios.
El usuario medio sigue teniendo dificultad para conseguir a buen precio módulos de RAM que estén "a la última" y a veces los que encuentra no le sirven para su ordenador. El caso es que la IA sigue siendo la gran devoradora de este componente, y declaraciones recientes de Sanjay Mehrotra —Consejero Delegado de Micron, una de las empresas especializadas en memoria DRAM, además de en otros componentes y semiconductores—, han supuesto un verdadero jarro de agua fría para quienes confiaban en que en 2026 la situación se pueda enderezar: la demanda de IA va a superar el 50% del mercado total de producción de DRAM y NAND, e irá a más el próximo año.
Por primera vez, la IA absorbe más de la mitad del mercado de memoria
Según datos publicados por la web Wccftech, los grandes centros de datos impulsados por IA están acaparando la mayor parte de la producción global de este componente por primera vez en la historia. Un ejemplo de esta "fiebre de la RAM" que padecen empresas y aficionados es que, en el primer trimestre fiscal de 2026, los ingresos de Micron por DRAM alcanzaron un récord de 10.800 millones de dólares; un 69% más que el mismo periodo del año anterior.
Según el CEO de la empresa, la brecha entre oferta y demanda es "la más alta que hayamos visto jamás" para la DRAM. Pero el meollo del asunto de cara a la situación en general es que no lleva camino de aflojar. Mehrotra apuntala esta teoría con una metáfora del béisbol: la situación "está en sus primeras entradas", o dicho coloquialmente, aún no hemos pasado de la introducción de la situación, que "es sólo el principio".
Unos planes a futuro que tendrán que aumentar la producción
Este aumento también es debido a las distintas necesidades de memoria según el tipo de infraestructura de IA. Los sistemas basados en GPU -que son los que ejecutan los grandes modelos de lenguaje tanto en entrenamiento como en inferencia a escala- requieren memoria de tipo HBM, de altísimo ancho de banda. Precisamente, Micron es uno de los principales proveedores de módulos HBM4 de 36 GB para la plataforma Vera Rubin, de Nvidia. Pero la situación no es mucho mejor para el modelo más "tradicional" de memoria, el DRAM, que también se consume masivamente en la infraestructura de servidores que rodea a estos sistemas.
Al dispararse la demanda global de IA en todos sus frentes, la presión sobre el suministro de DRAM está lejos de decrecer, más bien lo contrario. De acuerdo al medio Tom's Hardware, las restricciones al suministro de DRAM se extenderán muy probablemente más allá de 2026. De hecho, incluso con los planes de expansión que tiene en mente Micron, calcula que solo se podrá atender entre la mitad y dos tercios de la demanda de sus clientes clave; ya ni siquiera contemplan producción para el mercado común o de los usuarios. El mensaje no deja mucho margen para el optimismo: la RAM que necesitamos lleva meses compitiendo con la inteligencia artificial por el mismo suministro, y todo apunta a que esa competencia no va a aflojar en breve.
Imagen de portada: Mein-MMO.de
Ver todos los comentarios en https://www.3djuegos.com
VER 0 Comentario