Le marché des GPU de centre de données évolue rapidement vers une nouvelle génération de mémoire à large bande passante. Après l’adoption de la HBM3, les fabricants de semi-conducteurs et les entreprises d’intelligence artificielle (IA) se tournent désormais vers la HBM3e, une version plus rapide et plus dense. Cependant les regards se tournent déja vers la suite incarnée par la HBM4 et sa variante HBM4e, qui promettent des gains en capacité et en vitesse.
L’arrivée de la HBM4 se préparer
La GTC 2025 a été l’occasion d’une confirmation que les prochains GPU de Nvidia adopteront de la mémoire HBM4 ou HBM4e. Nous parlons ici de futur car ces deux technologies ne soient pas encore disponibles dans le commerce. Les principaux fabricants de mémoire dont SK Hynix, Samsung et Micron viennent de dévoiler leurs premiers échantillons de HBM4.
Selon les informations partagées lors de l’événement, la HBM4 offrira :
- 24 Go par pile de 8 couches
- 32 Go par pile de 12 couches
- 48 Go par pile de 16 couches
- Des vitesses atteignant 9,2 Gbit/s, voire 10 Gbit/s pour la HBM4e
La production en masse de la HBM4 devrait commencer l’année prochaine 2026, avec un déploiement progressif dans les GPU de data centers et d’IA avancée.
NVIDIA Rubin Ultra et la montée en puissance des GPU IA
Chez Nvidia le premier produit à intégrer de la HBM4 sera normalement le GPU Rubin, tandis que sa version Rubin Ultra utilisera de son coté de la HBM4e. D’après la feuille de route de Samsung, la marque vise des capacités allant jusqu’à 64 Go par pile et une densité de 32 Go par couche, avec des vitesses allant de 9,2 Gbit/s à 10 Gbit/s.

Sur le papier Rubin Ultra disposera
- d’une mémoire combinée de 365 To,
- d’une bande passante de 4,6 PB/s
- de 16 piles HBM4e totalisant 1 To de mémoire par GPU
Ce produit phare devrait être lancé dans la seconde moitié de 2027, marquant une nouvelle étape dans l’accélération des charges de travail IA.
Pas de HBM pour les GPU grand public
La HBM4 et la HBM4e resteront normalement réservées aux GPU de centres de données et aux accélérateurs IA. En raison de coûts de fabrication très élevés, il est peu probable que cette mémoire soit adoptée dans les cartes graphiques grand public à court terme.
Si AMD avait introduit la HBM sur ses GPU Vega et Fiji, cette stratégie n’a pas été poursuivie en raison du coût et des contraintes de production.
Source : Computerbase