La GDDR7 est en bonne voie pour intégrer les cartes graphiques de prochaines générations à savoir les GeForce RTX 50 series et Radeon RX 8000 series.
Nous apprenons que la norme gérant cette nouvelle génération de puces VRAM est en cours de développement. Conception, validation et production sont approuvées si bien que tout semble opérationnel pour une sortie avec les prochaines générations de GPU.
Comme son nom le laisse deviner la GDDR7 succédera à la GDDR6 qui a fait ses débuts il y a déjà plusieurs années (2018). Sur le marché depuis 5 ans elle a au fil du temps évoluée. A ses débuts nous avions affaire à des puces calibrées à 14 Gbps contre désormais du 24 Gbps pour les dernières solutions. La GDDR7 promet sur le papier de poursuivre cette hausse de la vitesse et donc des débits. Déjà il est évoqué du 36 Gbps à sa sortie pour ensuite dépasser au cours de ses futures évolutions et améliorations les 50 Gbps.
MyDrivers indique les prochaines GeForce RTX 50 series de Nvidia ou encore les Radeon RX 8000 series devraient exploiter cette GDDR7 à une vitesse de 36 Gbps. Un rapide calcul nous donne une bande passante de 1.15 To/s avec un bus mémoire 256-bit et du 1.7 To/s avec un bus 384-bit.
A noter que si l’architecture graphique RDNA 4 est pressentie du côté d’AMD (RX 8000 series), nous n’avons pas d’information pour l’architecture Nvidia des RTX 50 series.
De nouveaux problèmes confirmés dans Windows 11 24H2 montrent que des correctifs sont nécessaires pour… Lire d'avantage
AMD dévoile officiellement le Ryzen 7 9800X3D. Après plusieurs semaines de rumeurs, nous avons une… Lire d'avantage
La carte mère Z890 Aorus Elite WIFI7 de Gigabyte se positionne comme une solution gaming… Lire d'avantage
Test complet de la Z890 Aorus Elite WIFI7 de Gigabyte. Nous l’avons mise à l’épreuve… Lire d'avantage
ASRock annonce que l’ensemble de ses cartes mères AM5 est entièrement compatible avec le Ryzen… Lire d'avantage
Les premiers chiffres des ventes des processeurs Arrow Lake-S dévoilent une situation compliquée en particulier… Lire d'avantage
Voir commentaires
Vive l'overclocking vers l'infini... et l'au-delà! (cf. température)