Gigabyte propose au travers de la l’AORUS GeForce RTX 5090 MASTER 32G, une carte graphique ultra haut de gamme censée répondre à tous les besoins. Elle se positionne sur le segment Premium et promet de l’exception aussi bien du coté performance que de l’équipement.
Nous l’avons testé dans différents domaines allant du gaming à la création en passant par l’IA. Gigabyte l’équipe d’un impressionnant système de refroidissement, d’une robe massive et robuste, d’un aRGB complet sans oublier un écran LCD ou encore un quatrième ventilateur pour du Push Pull. A tout ceci s’ajoute un overclocking en sortie de carton lui assurant des performances supérieures à celles de la Founders Edition de Nvidia.

Sommes-nous devant la carte graphique la plus performante du marché à l’heure d’écriture de ce test ?
Architecture Blackwell
Après des semaines pour ne pas dire des mois de rumeurs, les GeForce RTX 50 series se déploient au catalogue de Nvidia. Elles profitent d’une nouvelle architecture connue sous le nom de Blackwell. Le programme est chargé avec des nouveautés dans de nombreux domaines allant de la mémoire au cœur RT en passant par les nuanceurs neuronaux sans oublier l’interface PCIe et bien d’autres choses.
Les GeForce RTX 50 series

La famille des GeForce RTX 50 series débute son existence avec quatre modèles, les GeForce RTX 5090, 5080, 5070 Ti et 5070. La RTX 5090 est la vitrine.

Elle reprend le flambeau de son ainée, la RTX 4090 avec de solides arguments. La mémoire VRAM passe de 24 Go à 32 Go et change de génération au travers de GGDR7 exploitée non pas par un bus 384 bits mais par un bus de 512 bits. Tout ceci permet à la bande passante mémoire de faire un bond en avant en atteignant les 1,8 Go/s. En parallèle, les GPU dispose de 33% de cœurs supplémentaires soit 21760 unités.

Du côté de la RTX 5080, nous retrouvons 16 Go de GDDR7 calibrés à 30 Gbps. Son GPU s’arme de 10 752 cœurs soit une petite progression de 5 % par rapport à sa grande sœur la RTX 4080 Super. La GeForce RTX 5070 Ti dispose de 16 Go de GDDR7 et de 8960 cœurs contre 12 Go de GDDR7 pour la RTX 5070.
Toutes ces nouveautés exploitent une interface PCIe 5.0 et profitent de sortie vidéo DisplayPort 2.1b. Nvidia annonce sa GeForce RTX 5090 à 1999 $, la GeForce RTX 5080 à 999 $, la GeForce RTX 5070 Ti à 750 $ et la GeForce RTX 5070 à 550 $.
L’architecture graphique Blackwell préfigure-t-elle une nouvelle direction dans le développement de solution graphique plus performante. C’est probable car le secteur est de plus en plus confronté à des défis physiques complexes au point de ralentir fortement la loi de Moore. Cette dernière est heureusement empirique. Elle est à considérer comme une prédiction annonçant un doublement du nombre de transistors présents sur une puce tous les deux ans. Si elle s’est révélée exacte dans un premier temps, elle est surtout devenue une sorte de phare guidant, sur l’océan de l’innovation technique, les bateaux de géant de la High Tech. Il est donc logique que Nvidia redouble d’efforts au travers de solutions techniques pour tenter d’accomplir un nouveau bond en matière de performance.

L’une des voies empruntée est le rendu neuronal. Elle n’est pas nouvelle puisque nous la connaissançons depuis plusieurs années au travers de la technologie DLSS (Deep Learning Super Sampling). Le rendu neuronal est un terme générique représentant des techniques exploitant des modèles d’apprentissage automatique pour générer et améliorer des éléments visuels comme les textures, les éclairages, les détails ou encore la définition (mise à l’échelle d’images).
L’idée derrière tout ceci est de proposer des cartes graphiques offrant une qualité d’image Premium en haute définition avec d’imposants Framerates en réduisant le plus possible les charges de calcul.
Une fois tout ceci précisé, il n’est pas surprenant qu’une grande partie des améliorations proposées par l’architecture graphique Blackwell visent des optimisations pour le rendu neuronal. Nous retrouvons une mécanique orientée vers les réseaux neuronaux dans le sens où elle est pensée pour leurs algorithmes tout en réduisant l’empreinte mémoire afin d’augmenter les possibilités de calculs en parallèle et de manière plus globale les performances.
Nvidia explique que Blackwell est aussi censé garantir un juste équilibre entre différentes tâches. En effet si le parallélisme est l’une des clés pour une montée en puissance des performances, tout ne peut pas être traité de cette manière. Malheureusement que l’on parle de rendu ou de tâches d’IA ou encore de simulation physique, la charge de travail est accomplie de manière asynchrone. Il faut donc s’assurer que les processus sont équilibrés et gérés efficacement pour les ressources matérielles afin de limiter les goulots d’étranglement, les files d’attentes et les besoins en ressources.
La VRAM (mémoire vidéo) adopte la norme GDDR7 doublant ainsi la vitesse de la GDDR6 tout en réduisant de moitié sa consommation énergétique. De plus, elle repose sur la signalisation PAM3, une technologie qui améliore l’immunité au bruit, autorisant des fréquences plus élevées. Ce choix se traduit par une bande passante en nette progression et une efficacité énergétique optimisée.
Blackwell s’arme de cœurs Tensor de cinquième génération disposant comme nous venons de le souligner d’optimisation pour le rendu neuronal. Ils gèrent également la précision INT4 et FP4 qui augmente considérablement les transferts de données tout en réduisant les besoins en mémoire. Pourquoi ? Les opérations RT peuvent s’exécuter dans ces formats de données plus petits et de moindre précision ce qui accélère les calculs et diminue les besoins en VRAM. Par contre, une perte de précision est de la partie.
Nous retrouvons des cœurs RT (Ray Tracing) de quatrième génération mieux armée pour la méga géométrie. En clair, leur mécanique assure le traitement des scènes plus grandes et plus complexes tout en garantissant de meilleures performances en géométrie standard et avancée. Pour y parvenir, un moteur d’intersection de clusters triangulaires conçu spécifiquement pour gérer la méga-géométrie débarque. L’idée est d’associer un format de compression de cluster triangulaire et un moteur de décompression sans perte afin d’être plus efficace dans le traitement de géométries complexes. Face à Ada Lovelace (RTX 40 series), le débit triangulaire double et les calculs de ray tracing deviennent plus efficaces.
Les SMs (Multiprocesseurs de shader) ont été optimisés pour les nuanceurs neuronaux au travers d’une bande passante deux fois plus importante et de débits boostés pour la gestion de tâches complexes impliquant par exemple l’apprentissage profond et l’ombrage neuronal. A tout ceci s’ajoute un doublement de la bande passante et du débit INT32 en donnant à tous les cœurs de shader la possibilité d’exécuter INT32 ou FP32. De plus, une nouvelle API est annoncée, DirectX Cooperative Vectors permettant d’accéder aux cœurs Tensor à partir des shaders. Dans le même esprit le SER, l’entité (des shaders en réalité) générant du travail pour d’autres shaders, est deux fois plus efficace.
Sans vraiment s’en rendre compte nous vivons un changement important dans le domaine du jeu vidéo, celui de L’intégration de modèles d’intelligence artificielle. Si l’espoir de plus d’intelligence, d’interaction, d’immersion et bien d ‘autre chose sont là, cette avancée s’accompagne de nouveaux défis pour garantir une expérience fluide et réactive. La première est de mettre de l’ordre dans les calculs au travers d’une planification minutieuse car le rendu des graphismes et les tâches liées à l’IA sont deux choses différentes mais doivent être en accord pour une expérience gaming fluide et agréable. Du coup si les délais dans les réponses de l’IA nommé « temps de première réponse » sont importants la notion d’immersion est fortement compromise, tandis que les interruptions dans le rendu (la fréquence des images par seconde) entraînent des saccades.
Pour répondre à ces défis, NVIDIA introduit l’AMP (AI Management Processor), un processeur de gestion de l’IA. Programmable, il est placé en amont du GPU et son rôle est d’assurer une planification des tâches. Il permet aux processus d’IA, comme la génération de dialogues, de fonctionner sans perturber le rendu des jeux. L’AMP est donc une sorte de contremaitre en charge de planifier les tâches d’IA en même temps que le rendu graphique. Sa mission est de toute faire pour que les charges de travail complexes profitent d’un traitement fluide et performant.
L’architecture Blackwell profite d’optimisation en matière de gestion de l’alimentation. Elles concernent différents aspects comme un deuxième rail de tension permettant aux systèmes de cœur et de mémoire de fonctionner à des tensions différentes. A cela s’ajoutent un réglage de la fréquence plus rapide et dynamique en temps réel ainsi que la mise en œuvre d’états d’alimentation dits « profonds » (modes veilles). Cela signifie que le GPU est censé entrer et sortir de différents états d’économie d’énergie presque instantanément tout en pouvant, selon les circonstances, arrêter certaines de ses parties pour économiser de l’énergie tout en restant réactifs en cas de besoin.
Traitement vidéo
Du côté de l’encodeur et du décodeur, l’architecture Blackwell améliore les traitements vidéo. Nvidia ajoute la prise en charge de l’AV1 Ultra High Quality, de l’AQBC (Adaptive Quality-Based Compression) multi-vues et l’encodage et le décodage 4:2:2 H.264/H265 tandis que le débit est doublé en décodage H.264, une norme de compression vidéo populaire. Tout ceci est possible à l’aide de décodeurs optimisés. Ces derniers assurent aussi le traitement de plusieurs flux 4K simultanément, un atout pour les configurations multi-caméras comme les podcasts ou les événements en direct. Pour un seul flux, les performances bénéficient d’un traitement parallèle des trames, et les nouvelles techniques d’encodage augmentent la qualité vidéo jusqu’à 5 %, tout en optimisant la taille des fichiers.
Blackwell prend en charge DP 2.1 avec UHBR20, soit la possibilité de profiter d’une définition 8K à 60 Hz via un seul câble.
DLSS 4.0 et Reflex 2

Nvidia annonce également le DLSS 4, une avancée de la technologie Deep Learning Super Sampling. Cette version introduit la Génération Multi-Images, capable de générer jusqu’à trois images additionnelles pour chaque image rendue traditionnellement, multipliant ainsi les taux de rafraîchissement jusqu’à 8 fois par rapport à un rendu classique. Cette amélioration promet du gaming en 4K à 240 images par seconde avec du Ray Tracing complet.

Le DLSS 4 bénéficie de nouveaux modèles d’intelligence artificielle basés sur des transformeurs, similaires à ceux utilisés dans des technologies comme ChatGPT. Ces modèles améliorent la stabilité temporelle, réduisent les effets de ghosting et augmentent le niveau de détail en mouvement. De plus, NVIDIA introduit la fonctionnalité DLSS Override, permettant aux utilisateurs d’appliquer DLSS 4 dans des jeux compatibles avec les versions précédentes, même sans mise à jour directe de la part des développeurs.
Au lancement, prévu pour le 30 janvier 2025, plus de 75 jeux et applications prendront en charge la Génération Multi-Images, dont des titres phares comme Alan Wake 2 et Cyberpunk 2077. Les nouvelles cartes graphiques GeForce RTX série 50, telles que la RTX 5090 et la RTX 5080, seront les premières à intégrer pleinement le DLSS 4, offrant normalement des performances doublées par rapport à la génération précédente.
Nvidia a également mis l’accent sur la réduction de la latence, un autre aspect essentiel des performances en jeu. Avec plus de 120 titres intégrant Reflex, il est logique que cette technologie évolue aussi avec l’arrivée de Reflex 2. L’introduction de la fonctionnalité Frame Warp permet de diminuer la latence jusqu’à 75% en actualisant l’image du jeu en fonction du dernier mouvement de la souris, juste avant son affichage à l’écran. Ce Frame Warp fonctionne en calculant la position de la caméra du prochain cadre en se basant sur les entrées récentes du joueur. Cette technique ajuste l’image rendue pour refléter les mouvements les plus récents, améliorant ainsi la réactivité.
Reflex 2 sera initialement disponible avec les GeForce RTX 50 et sera intégré prochainement dans des titres tels que THE FINALS et VALORANT. Un support pour d’autres GPU GeForce RTX est prévu dans une mise à jour future.
IA, l’avenir de l’innovation ?
Nvidia tente d’améliorer les graphiques en temps réel en introduisant plusieurs innovations à travers d’outils et de technologies intégrant des techniques neuronales directement dans le pipeline graphique. Ces nouveautés promettent de redéfinir les possibilités en termes de réalisme visuel et d’efficacité, et ouvrent la voie à des applications plus avancées pour les développeurs.
Jusqu’ici, accéder aux Tensor Cores via une API graphique n’était pas possible. Avec l’introduction des Cooperative Vectors dans l’API DirectX et du nouveau langage d’ombrage, le Slang, NVIDIA permet aux développeurs de tirer parti des capacités neuronales pour remplacer des parties du pipeline graphique classique. Slang facilite la manipulation des fonctions complexes en les divisant en segments modulaires. Cette fonctionnalité étant intégrée à une API standard de DirectX, elle peut être adoptée par AMD et Intel dans leurs pilotes.
Les matériaux neuronaux proposent de remplacer les shaders classiques par une représentation compressée basée sur des réseaux neuronaux. L’objectif est naturellement de réduire les besoins en puissance de calcul. Cette approche permet un taux de compression allant jusqu’à 7:1 tout en proposant des matériaux dit « réalistes » en temps réel en limitant l’impact des ressources.
Le NRC, alias le Neural Radiance Cache, utilise un réseau neuronal entraîné dynamiquement pour estimer l’éclairage indirect avec précision. En retraçant seulement 1 à 2 rayons, il tente de générer un éclairage plus réaliste tout en minimisant l’impact sur les performances. Cette technologie, intégrée au SDK RTX Global Illumination, sera disponible prochainement dans des projets comme Portal with RTX et RTX Remix.
Dans le même esprit, le RTX Neural Faces promet des visages réalistes grâce à l’IA générative. Une nouvelle méthode est proposée pour améliorer le rendu des visages en temps réel grâce à l’IA. En transformant un visage rastérisé et des données de pose 3D, un modèle génératif produit des visages naturels basés sur un entraînement à partir de milliers d’images. Ce pipeline s’enrichit avec le SDK RTX Character Rendering, qui améliore le réalisme de la peau et des cheveux. Ces derniers profitent du LSS alias le Linear-Swept Spheres (LSS) qui remplace les triangles par des sphères, réduisant la complexité géométrique tout en augmentant la précision et les performances en Ray Tracing. Cela participe à réduire l’empreinte mémoire tout en optimisant le rendu des cheveux en temps réel.
Enfin, le RTX Mega Geometry autorise l’utilisation de maillages haute définition directement dans des scènes en Ray Tracing, éliminant le besoin de maillages basse résolution. Cette technologie multiplie par 100 la densité de triangles RT tout en maintenant les performances grâce à des techniques de compression. De son coté, les Opacity Micro-Maps optimisent le rendu des matériaux complexes, facilitant l’intégration de scènes photoréalistes riches en détail avec un éclairage réaliste.
Le dernier algorithme ReSTIR optimise le traçage des chemins lumineux, se concentrant sur les rayons les plus pertinents pour un éclairage dynamique. Associé à RTX Global Illumination, qui utilise l’IA pour réduire les exigences de calcul des rebonds lumineux, il promet un réalisme accru sans sacrifier les performances.
Avec ces innovations, Nvidia promet de transformer la création de contenus graphiques et interactifs en temps réel. Tout ceci annonce sur le papier des possibilités inédites pour les jeux vidéo, la simulation et la production cinématographique.
Information supplémentaire
De manière plus générale, l’IA est aujourd’hui omniprésente. Nous la retrouvons dans la création de contenu, le streaming, la vidéoconférence ou encore les outils de productivité et le gaming. Elle modifie également le développement logiciel. Traditionnellement basé sur du code exécuté par le processeur, ce dernier s’appuie désormais sur des réseaux neuronaux entraînés sur des GPU pour plus de flexibilité et d’adaptabilité. L’émergence de l’IA générative facilite l’accès à ces outils. Avec des solutions low-code ou no-code, des API permettent de développer rapidement des applications intégrant du texte, des images, de la 3D ou de la voix, élargissant l’audience du développement à des profils variés.
Pour accompagner ces évolutions, Nvidia est à l’origine de microservices NIM (NVIDIA Inference Models), des modèles d’IA optimisés pour ses GPU RTX. Disponibles dès février, ces conteneurs Docker simplifient l’intégration des fonctionnalités IA dans les applications (ChatRTX, AnythingLLM, ComfyUI et LM Studio).
Il y a aussi les outils Crew.AI ou ComfyUI pour développer sans expertise avancée. Grâce à Windows Subsystem for Linux (WSL), l’intégration des charges de travail IA sur PC Windows s’harmonise avec le cloud, rendant ces outils accessibles localement et en ligne.
La GeForce RTX 5090

Voici une synthèse des faits marquants de la GeForce RTX 5090 nouvelle vitrine du catalogue Nvidia.
GeForce RTX 5090 FE | GeForce RTX 4090 FE | |
Architecture | Blackwell | Ada Lovelace |
Finesse de gravure | 4N | 4N |
GPU | GB202-300 | AD102-300 |
Nombre de transistors | 92,2 milliards | 76.3 milliards |
Cœurs CUDA | 21 760 | 16 384 |
Cœurs Tensors | 680 | 512 |
Cœurs Ray-Tracing | 170 | 128 |
TMUs | 680 | 512 |
ROPs | 176 | 176 |
Fréquence de base | 2017 MHz | 2235 MHz |
Fréquence Boost | 2407 MHz | 2520 MHz |
Mémoire | GDDR7 | GDDR6X |
Quantité de mémoire | 32 Go | 24 Go |
Fréquence mémoire | 3500 MHz | 2625 MHz |
Bus mémoire | 512-bit | 384-bit |
Performance | ||
Performance FP32 | 104,8 TFLOPs | 82.6 TFLOPs |
Bande passante mémoire | 1792 Go/s | 1008 Go/s |
TDP/TBP | 575 W | 450 W |
Date de lancement | 30 janvier 2025 | 12 octobre 2022 |
Prix recommandé | 1999 $ (à partir de 2329 €) | 1599 $ (à partir de 1949 €) |
Nvidia augmente de 32,8% le nombre de cœurs CUDA, Tensors et Ray Tracing. La VRAM grimpe de 24 à 32 Go et délaisse la GDDR6 pour de la GDDR7. Du coup, la bande passante mémoire fait un bond de 1 To/s à quasiment 1,8 To/s. Malheureusement, l’enveloppe thermique augmente de 27,7% pour atteindre les 575 Watts soit un chiffre proche des limites du connecteur 12V2x6 (600 W) tandis que le prix passe de 1599 $ à 1999 $ soit une hausse de 25 %.
En résumé, la belle s’équipe d’un GPU GB202 gravé en 5 nm exploitant 170 des 192 multiprocesseurs de streaming (SM) de disponible. Cela permet d’activer 21 760 cœurs CUDA accompagnés de 170 cœurs RT, 680 cœurs Tensor, 680 TMU et 192 ROPs. Cet équipement se complète avec 32 Go de GDDR7 cadencés à 28 Gbps et un bus mémoire élargi à 512 bits, offrant ainsi une bande passante de 1,792 To/s.
L’Aorus GeForce RTX 5090 Master 32G
A l’image de sa petite sœur, l’Aorus GeForce RTX 5080 Master, l’Aorus GeForce RTX 5090 Master est une version personnalisée et ultra haut de gamme de la RTX 5090 de Nvidia. Gigabyte déploie tout son savoir-faire dans différents domaines pour proposer une carte d’exception censée proposer des performances « Premium » en Gaming, création et Multimédia au travers d’une robe unique et personnalisable tout en œuvrant à fonctionner de manière inaudible.

La carte s’accompagne d’un bundle très conséquent constitué d’un ventilateur de 120 mm aRGB accompagné d’un système de fixation sans outil, d’un support VGA pour soulager le port PCIe x16 ou encore d’un adaptateur d’alimentation 12V-2×6 vers quatre PCIe 8 broches. Ce dernier permet de conserver une ancienne alimentation mais attention tout de même, Gigabyte conseille au minimum un bloc d’une puissance de 1000 Watts. La carte est massive en raison de son système de refroidissement imposant et d’une robe protégeant l’intégralité de son PCB et ses composants électroniques.
En main, son poids surprend et la présence d’un support VGA en bundle est rassurant. Son installation dans une tour demande de la prudence en raison de ses dimensions de 360 x 150 mm pour une hauteur de 75 mm.
En clair, si 360 mm sont nécessaires pour sa longueur, elle utilise quatre slots d’extension au niveau du boitier. Il faut bien prendre en considération ce format car l’usage d’une carte fille peut poser problème selon la configuration PCIe de la carte mère.
La carte s’arme d’une plaque arrière métallique renforcée, solidement fixée au support d’E/S et associée à un cadre métallique moulé sous pression. L’ensemble offre une intégrité structurelle irréprochable. C’est solide, imposant et conséquent.
Le refroidissement est assuré par un système imposant et évolutif. En effet, le ventilateur de 120 mm fourni en bundle peut être installé à l’extrémité de la carte pour bénéficier d’un mode Push Pull.
Ainsi, bien que la carte soit équipée de trois ventilateurs HAWK FAN par défaut, il est facile d’ajouter un quatrième ventilateur. Il faut néanmoins prendre en compte que cette installation augmente l’épaisseur de la carte. Un boitier en conséquence est nécessaire ! Nous verrons dans la partie test les conséquences sur la température du GPU.
Le système de refroidissement WindForce repose sur une chambre à vapeur, un gel thermique composite métallique pour le GPU et des caloducs supraconducteurs. Ces derniers intègrent différentes structures capillaires pour optimiser le transfert de chaleur. Le gel composite exploite la conductivité élevée du métal liquide tout en conservant la facilité d’application d’une graisse de silicone. Il contient de l’oxyde d’indium et de l’oxyde d’aluminium. Comme le métal liquide est conducteur d’électricité et peut provoquer des courts-circuits en cas de fuite, Gigabyte a mis en place un système de quadruple protection pour garantir sa stabilité tout au long de la durée de vie de la carte.
En complément, un gel thermoconducteur de qualité serveur est utilisé pour refroidir les composants critiques comme la VRAM et les MOSFET. Il est conçu pour offrir un contact optimal sur des surfaces irrégulières et résister aux déformations causées par le transport ou une utilisation prolongée.
Les ventilateurs HAWK FAN bénéficient d’un design inspiré de l’aérodynamisme des ailes d’un aigle. Selon Gigabyte, il réduit la résistance de l’air et les nuisances sonores. Cette conception permet d’augmenter la pression et le volume d’air sans affecter l’acoustique. De plus, le ventilateur central tourne en sens inverse des deux autres afin de limiter les turbulences. Lorsque la carte fonctionne avec une charge légère ou une faible consommation, l’ensemble des ventilateurs peut s’arrêter complètement, rendant la carte totalement silencieuse.
Côté équipement, un écran LCD latéral, le LCD Edge View, affiche diverses informations et animations personnalisables via l’application « Control Center ». Un éclairage RGB Halo, organisé autour de trois anneaux lumineux (un LED en action par ventilateur) ajoute une touche esthétique configurable. Il est aussi présent en latéral de la carte et au niveau de la plaque arrière. Enfin, un double BIOS permet de basculer entre les modes Performance et Silence.
Notons que l’application Control Center n’est pas uniquement dédiée au RGB.
Elle permet aussi d’agir sur la ventilation de la carte en utilisant ses propres courbes et d’optimiser ses performances en ayant accès à plusieurs options d’overclocking (fréquence GPU et mémoire, Power Limit ou encore Température limite). Gigabyte propose aussi la fonction d’OC Scanner afin d’aider l’utilisateur à trouver les meilleurs réglages.
Enfin terminons cette présentation autour des spécifications de cette AORUS GeForce RTX 5090 MASTER 32G. Elle propose en sortie de carton un OC avec un GPU propulsé à 2655 MHz (2407 MHz recommandé par Nvidia) tandis que ses 32 Go de VRAM propose de la GDDR7 calibrée à 28 Gbps.
Protocole de test.
Nous avons utilisé des jeux, plusieurs définitions, plusieurs benchmarks et des applications GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum.
Plateforme de test.
- Carte mère : Asus ROG Maximus Z690 HERO
- Processeur : Intel Core i9-12900K,
- Mémoire vive : Trident Z5 RGB 2 x 16 Go de DDR5-6000 CL28
- Stockage: SSD Kioxia Exceria Pro 2 To,
- Alimentation: C1500 Platinum de NZXT
- Dissipateur : WaterCooling DeepCool LS720
Jeux vidéo
- Metro Exodus,
- Far Cry 6,
- Shadow of Tomb Raider,
- Horizon Zero Dawn,
- Watch Dogs Legion,
- Cyberpunk 2077,
- Kingdom Come Deliverance II
- Star War Outlaws
Benchmarks
- 3DMark Fire Strike (Performance, Extreme),,
- Blender ( Scènes Monster, JunkShop et Classroom),
Puissant outil de développement pour créer des images et animations 3D. Cette version apporte la prise en charge de l’OptiX chez Nvidia soit une accélération matérielle avec une GeForce ou Quadro RTX. Cela concerne le rendu et le viewport. Pour les Radeon RX 6000 Series nous utilisons l’API OpenCL. - LuxMark 3.1
Cette application exploite l’API OpenCL pour exécuter des calculs de rendu 3D. Il est possible de travailler uniquement avec le GPU, le CPU ou encore les deux en même temps (idéal pour se rendre compte de la différence de performance qu’il existe entre un processeur et une solution graphique). Mieux encore, ce benchmark existe sur différents environnements comme Linux, OS X et Windows. Il livre un score et des indices de valeurs Samples/sec et Rays/sec. - V-Ray Benchmark,
- FAHBench exécute un exemple de calcul de dynamique moléculaire pour comparer les performances des GPU en ce qui concerne la recherche en biophysique.
IA
- Procyon – AI Text Generation (modèles PHI 3.5, Mistral-7B, Llama 3-1 et Llama-2)
Nous avons également fait des tests autour des consommations électriques, performances de refroidissement, silence de fonctionnement et stabilité des fréquences.
AORUS GeForce RTX 5090 MASTER ICE 16G, environnement
Performance de refroidissement
L’ensemble du monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier.

Le mode semi fanless garantit une carte inaudible à faible charge, les trois ventilateurs sont à l’arrêt. Dans cette configuration, le GPU se stabilise aux alentours des 50°C (température de la pièce est de 21°C). Après plusieurs minutes de charge à 100%, la température GPU se situe de manière stable à 70°C. Les trois ventilateurs turbinent à 53% de leur vitesse maximale soit environ 1700 trs/mn.
La courbe violette confirme un mode Fanless à faible charge GPU. Les trois ventilateurs sont à l’arrêt et la carte est inaudible. Après une dizaine de minutes, la température du GPU se situe à 36°C ce qui est positif sachant que le refroidissement est uniquement assuré par une convection naturelle de l’air.

Voici à présent le même exercice mais avec cette fois l’utilisation du ventilateur PWM de 120 mm placé en mode Push Pull en terminaison de la carte. Malheureusement, la carte graphique ne le pilote pas. Nous l’avons connecté au Chassis Fan de notre carte mère puis associé sa courbe à la température du GPU et non du CPU (voir capture d’écran). Ensuite, nous l’avons utilisé en mode 12V.
Pour aller à l’essentiel, l’utilisation de ce ventilateur permet de gagner en burn GPU en moyenne 1,7 °C en mode PWM et 2°C en 12V. Son principal avantage à nos yeux est sa capacité à mieux contrôler la montée en température du GPU. Du coup, la ventilation de la carte augmente de manière plus linéaire.
Nuisances sonores.

Comme nous venons de le voir au repos, le mode Fanless rend la carte inaudible, c’est parfait. Avec le ventilateur de 120 mm en PWM, elle reste discrète pour ne pas dire inaudible (33,9 dBA). Avec le ventilateur en 12V, elle devient très présente.
En charge, le souffle de ses trois ventilateurs s’entend mais l’ensemble reste acceptable. Avec 46,8dBa, le profil sonore est plus sage que celui de la Radeon RX 7090 XTX MBA. La GeForce RTX 5080 Master est plus silencieuse.

L’utilisation du ventilateur de 120 mm en mode PWM a un impact assez limité avec des nuisances sonores augmentant de 46,8 à 47,9 dBA. Par contre, la barre des 50 dba est dépassée en mode 12V
Stabilité des fréquences.

Voici un suivi des fréquences GPU et mémoire. Il n’y a absolument rien à dire. Dans les deux cas, les valeurs sont stables. Il n’y a aucune variation au niveau de la fréquence de la VRAM. La fréquence GPU reste également parfaitement son contrôle. En moyenne durant cet exercice, elle est de 2388 MHz.
Consommations électriques

Selon le niveau de charge, la consommation se situe entre 34 et 602 Watts. Ce profil dévoile un RTX 5090 très gourmand en énergie au point de devoir relativiser ses performances. Nous sommes sur un profil demandant une alimentation de 1000 Watts au minimum sans oublier une ventilation de boitier à la hauteur des besoins car l’ensemble de la chaleur de la carte se retrouve dans ce dernier.
La GeForce RTX 5090 est la carte graphique la plus gourmande que GinjFo a testé. Elle bat tous les records dans ce domaine.
Remarque.
Cette mesure de consommation correspond aux besoins minimum et maximum de la carte afin de pouvoir faire une évaluation globale de son coût d’exploitation et son empreinte carbone de fonctionnement. A noter que le TGP est la limite de puissance maximale pour la fréquence boost du GPU. Elle sera optimisée en fonction de cette limite mais également d’autres paramètres comme la température. Cette puissance peut être atteinte avec des applications très gourmandes.
Cout de fonctionnement et empreinte carbone de fonctionnement.
Notre base de travail est une utilisation quotidienne de 6 heures par jour, 365 jours par an avec un tarif de 25,62 cts € TTC le kWh facturé.
L’indicateur EDF, en gramme d’équivalent CO2 pour la production de 1 kWh, est fixé à 11,84 grammes (période de juin 2023 à juin 2024). Il est synonyme du taux de rejet de gaz à effet de serre induit par la production de l’électricité consommée.
EDF – Indicateur mensuel d’émissions de gaz à effet de serre de juin 2023 à Juin 2024 (en g équivalent CO2 par KWh).
Avec une consommation capable de dépasser les 600 Watts, le coût d’exploitation annuel explose ainsi que l’empreinte carbone de fonctionnement. Selon son utilisation, le coût d’exploitation annuel se situe entre 19 et 337 € tandis que son empreinte carbone de fonctionnement se situe entre 0,9 et 15,6 kilogrammes.
Ces deux critères sont intéressants car nous avons ici certaines conséquences directes d’une consommation électrique importante.
AORUS GeForce RTX 5090 MASTER 32G, les performances
Vous trouverez des bilans en Rasterisation, Ray Tracing (mode Ultra) et Ray Tracing (mode Ultra) + DLSS (mode qualité). De plus, nous avons également sollicité le DLSS 3, le DLSS 4 et le MultiFrame Generation sous deux titres pour estimer son impact sur les performances.
Dans ce bilan nous prenons comme référence les performances de cette Aorus GeForce RTX 5090 Master. Nous pouvons ainsi parler de performance relative permettant de repositionner chaque référence face au bilan de cette nouveauté Gigabyte.
La carte est puissante si bien que pour profiter au mieux de ses capacités et de la distinguer de ses ainées, il faut impérativement travailler en haute définition. Nous nous sommes concentrés ici sur le 1440p et le 4K (2160p) avec des options graphiques au maximum.
Performance en Rasterisation

En rasterisation, il n’existe aucune concurrence sur le marché grand public capable de concurrencer notre AORUS GeForce RTX 5090 MASTER ICE 32G. La GeForce RTX 4090 24G assure 88% de ses performances en 1440p et 80% en 2160.

L’analyse des framerate dévoile une carte taillée pour le 1440p et le 4K. Le bilan est parfait tous nos titres puisque le Framerate est toujours supérieur à 90 fps.
3DMark Fire Strike

Performance en Ray Tracing
Voici le bilan sous différents jeux avec l’activation du Ray Tracing (mode ultra). Nous travaillons toujours avec des options graphiques au maximum. Les technologies DLSS et FSR ne sont pas activées pour le moment.

Avec l’activation de cette technologie, l’écart avec la RTX 4090 est de 14% et il grimpe à 23% en 2160p. Nous observons également que le Ray Tracing n’est pas le terrain de prédilection de la Radeon RX 7090 XTX qui se laisse distancer dans les deux définitions. Elle occupe la dernière place avec des indices respectifs de 63 et 54.

Si la barre des 90 fps est toujours atteinte en 1440p ce n’est pas le cas en 4K. Star Wars Outlaws est capable de solliciter notre RTX 5090 au point de ne pas pouvoir dépasser la barre des 60 fps ! Pour tenter de conserver un rendu optimal avec du Ray Tracing sur Ultra en 4K , la solution est d’utiliser une technologie d’upscaling comme le DLSS et plus particulièrement ses dernières évolutions avec le DLSS 4 et le Multi frame Generation.
Le test 3DMark – DLSS Feature propose une évaluation du « boost » proposée par le Multiframe Generation .

Dans ce test, nous enregistrons un framerate moyen de 79 fps (49 pour la RTX 5080 et 58 pour la RTX 4090) ce qui confirme la gourmandise du Ray Tracing. Sans toucher au niveau de rendu, l’usage de la technologie DLSS 2 permet de booster le framerate à 178 fps tandis que le DLSS 3.0 (2x) offre 240 fps et le DLSS 4 avec du Multiframe Generation (x4) grimpe à 435 images par seconde. Un tel chiffre permet de dépasser avec une avance considérable une RTX 4090 exploitant le DLSS 3 ou le DLSS 4.
Performance DLSS 4.0 et Multiframe Generation
Nous sommes cependant devant un benchmark théorique. Voici maintenant la même étude avec deux titres CyberPunk 2077 et Star Wars Outlaws. Nous avons joué en 1440p et 2160p avec, dans les deux cas, du Ray Tracing actif.
Sous Star War Outlaws

La RTX 5090 décroche un framerate de 103 fps en 1440p et 54 fps en 2160p. L’activation du DLSS X2 permet de booster ces framerate à 251 et 165. Le passage du frame Generation au multiframe Generation (DLSS x4) pousse les curseurs à 452 et 296 images par seconde. Le x4 indique que le nombre d’images est quadruplé avec une image produite par le jeu et trois images sont générées. Nous avons en quelque sorte un rendu correspondant à la génération d’image et non issu du moteur du jeu. En x2 le nombre d’image est doublé avec une image produite par le jeu et une image générée. Le multiframe génération n’est pris en charge que par les RTX 50 serie.
Sous Cyberpunk 2077

Cyberpunk 2077 est encore plus intéressant car il permet aussi de choisir entre le DLSS 3.0 et le DLSS 4.0 en plus du Frame Generation ou du Multi Frame Generation. Le bilan est identique avec une envolée du Framerate en mode x4. Par contre en contrepartie d’une amélioration du rendu, le DLSS 4 est légèrement moins rapide que le DLSS 3.0
Performance en Création
Si notre AORUS GeForce RTX 5090 MASTER se dévoile redoutable en gaming, son équipement la destine aussi à la création, la retouche photo et le rendu 3D. De nombreuses applications sont capables d’exploiter son GPU afin de profiter d’une accélération matérielle avec à la clé des gains de temps considérables (amélioration de la productivité).

Il est important de souligner que notre bilan englobe de nombreuses applications et pas uniquement des logiciels 100% optimisés pour des cartes Nvidia. Une nouvelle fois, cette RTX 5090 se positionne comme la référence. Son ainée, la RTX 4090 est 22% moins rapide tandis que l’écart avec la RTX 5080 atteint les 39% !
Voici les détails de quelques tests que nous avons menés.
Blender Benchmark Launcher.

LuxMark v3.1.

V-Ray Benchmark

FAHBench.

IA Text Generation
A l’aide du benchmark Procyon AI Test Generation, nous avons évalué les performances dans un contexte de calculs autour de l’IA en particulier avec plusieurs modèles LLM en local. En prenant une nouvelle fois comme référence le bilan offert par notre RTX 5090 , la RTX 5080 est 25% plus lente contre 19% pour la RTX 4090. La Radeon RX 7900 XTX est ici complètement dépassée avec un bilan à 39%.
Voici les détails

Conclusion

![]() |
AORUS GeForce RTX 5090 MASTER 32G |
3579 € |
AORUS GeForce RTX 5080 MASTER ICE 16G
Performance
Nuisances sonores
Consommation
Prix
L’AORUS GeForce RTX 5090 MASTER 32G se positionne indéniablement comme une carte graphique d’exception, taillée pour les configurations les plus exigeantes. Son design massif, son système de refroidissement avancé et son équipement haut de gamme témoignent du savoir-faire de Gigabyte. Ses performances en Rasterisation et en Ray tracing en font une référence du marché grand public, surpassant largement la RTX 4090, à condition d’exploiter des résolutions élevées comme le 1440p et la 4K. Cependant, cette surpuissance a un coût, et pas uniquement financier. La consommation énergétique atteint des sommets, rendant impératif l’usage d’une alimentation robuste et d’un boîtier bien ventilé. Si le système de refroidissement est efficace, il se montre présent à pleine charge, en particulier avec le ventilateur de 120 mm. Gigabyte a toutefois fait un travail remarquable assurant une stabilité irréprochable des fréquences. Dans l’univers de la création, cette RTX 5090 excelle également, avec des gains importants face à son grande sœur la RTX 4090 confirmant un statut de nouvelle référence. Finalement, cette AORUS RTX 5090 MASTER s’impose comme un monstre de puissance, à la fois impressionnant et exigeant. Elle représente ce qui se fait de mieux en matière de GPU grand public actuellement, mais son profil énergétique et son gabarit en font une carte destinée aux configurations les plus ambitieuses et aux portefeuilles généreux !