Micron acelera la IA de NVIDIA con HBM4 y SSD brutales en 2026
El bombazo de Micron en la era Vera Rubin
Imagínate esto: Micron se ha puesto las pilas y en el NVIDIA GTC 2026 ha soltado que tres productos clave para la IA de próxima generación ya están en producción masiva. No es un lanzamiento aislado, sino un combo completo que encaja perfecto con la plataforma Vera Rubin de NVIDIA. Hablamos de memoria HBM4, módulos SOCAMM2 y el SSD 9650 PCIe Gen 6. Me ha dejado con la boca abierta cómo lo han atado todo.
HBM4: La memoria que vuela para aceleradores AI
Lo más potente es el avance en HBM4, que es la High Bandwidth Memory de cuarta generación, una memoria superespecializada para GPUs que necesita muchísima velocidad en data centers. Su stack de 36 GB con 12 capas ya está en envíos de volumen desde el primer trimestre de 2026, diseñado ad hoc para los aceleradores Vera Rubin.
Las specs son de infarto: más de 11 Gb/s por pin y un ancho de banda superior a 2,8 TB/s. Además, gana más de un 20% en eficiencia energética comparado con la HBM3E anterior. ¿Por qué mola tanto? Porque en servidores llenos de GPUs, el ancho de banda y el bajo consumo marcan la diferencia para que la IA no se atasque.
Y no paran ahí: ya han mandado muestras tempranas de la versión 48 GB con 16 capas, que sube la capacidad un tercio por cada slot de HBM. Brutal para entrenar modelos gigantes.
SOCAMM2: Más memoria para los CPUs de IA
En el lado del sistema, los módulos SOCAMM2 de 192 GB están en producción alta volumen. Estos son como SIMM pero evolucionados (SO-DIMM para servidores, vamos), pensados para sistemas Vera Rubin NVL72 y plataformas CPU Vera.
Ofrecen hasta 2 TB de memoria por CPU y 1,2 TB/s de ancho de banda. La familia va de 48 GB a 256 GB, ideal para ajustar a tus cargas de trabajo. Con la IA devorando RAM como loca, esto evita cuellos de botella en el host, al lado de la HBM de las GPUs.
El SSD 9650 PCIe Gen6: Almacenamiento que no frena
No olvidemos el almacenamiento. El 9650 PCIe Gen 6 SSD –PCIe es el estándar de conexión rápida para discos en PCs y servidores, y Gen6 es la versión más bestia– ya en producción masiva para la arquitectura BlueField-4 STX de NVIDIA.
Lecturas secuenciales hasta 28 GB/s y 5,5 millones de IOPS en lecturas aleatorias (IOPS son operaciones de entrada/salida por segundo, clave para bases de datos y AI). Dobla el rendimiento de lectura del modelo Gen5 anterior y el doble de eficiencia por vatio. Perfecto para data centers donde todo tiene que escalar.
¿Cómo te toca esto en el día a día?
Si eres gamer o usas cloud como yo, esto acelera el futuro de la IA en videojuegos y servicios. Servidores más eficientes significan entrenamiento más rápido de modelos para NPCs inteligentes o upscaling como DLSS mejorado. Precios de GPUs podrían bajar a medio plazo por competencia, y el cloud gaming volará sin lags. Indirectamente, nos beneficia a todos los que jugamos online o usamos IA en apps.
Mi opinión: Micron se come el mercado AI
Honestamente, me encanta la estrategia de Micron. En vez de pelear en un solo frente, cubren memoria GPU, sistema y storage para la generación Vera Rubin. Si las specs se cumplen en servidores reales, serán la base de la IA hasta finales de 2026. Ojalá más compañías así, porque la IA necesita equilibrio para no explotar en bottlenecks. ¿Qué opináis vosotros en el foro? Yo estoy hypeado.