Gigabyte est à l’origine de plusieurs versions personnalisées de la GeForce RTX 5080 de Nvidia dont l’AORUS GeForce RTX 5080 MASTER ICE 16G. Cette version disponible à plus de 1600 € promet du Premium et un équipement haut de gamme.
Nous l’avons testé dans différents domaines allant du gaming à la création afin de connaitre son potentiel et ses prestations. Massive, suréquipée et personnalisable, elle promet une mécanique musclée et un overclocking en sortie de carton lui assurant des performances supérieures à celle de la Founders Edition de Nvidia.
A cela s’ajoutent une bundle conséquent, de l’aRGB, un quatrième ventilateur amovible et un écran en latéral. Sommes-nous devant la carte graphique ultime du moment ?
Architecture Blackwell
Après des semaines pour ne pas des mois de rumeurs, les GeForce RTX 50 series se déploient au catalogue de Nvidia. Elles profitent d’une nouvelle architecture connue sous le nom de Blackwell. Le programme est chargé avec des nouveautés dans de nombreux domaines allant de la mémoire au cœur RT en passant par les nuanceurs neuronaux sans oublier l’interface PCIe et bien d’autres choses.
Les GeForce RTX 50 series

La famille des GeForce RTX 50 series débute son existence avec quatre modèles, les GeForce RTX 5090, 5080, 5070 Ti et 5070. La RTX 5090 est la vitrine.

Elle reprend le flambeau de son ainée, la RTX 4090 avec de solides arguments. La mémoire VRAM passe de 24 Go à 32 Go et change de génération au travers de GGDR7 exploitée non pas par un bus 384 bits mais par un bus de 512 bits. Tout ceci permet à la bande passante mémoire de faire un bond en avant en atteignant les 1,8 Go/s. En parallèle, les GPU dispose de 33% de cœurs supplémentaires soit 21760 unités.

Du côté de la RTX 5080, nous retrouvons 16 Go de GDDR7 calibrés à 30 Gbps. Son GPU s’arme de 10 752 cœurs soit une petite progression de 5 % par rapport à sa grande sœur la RTX 4080 Super. La GeForce RTX 5070 Ti dispose de 16 Go de GDDR7 et de 8960 cœurs contre 12 Go de GDDR7 pour la RTX 5070.
Toutes ces nouveautés exploitent une interface PCIe 5.0 et profitent de sortie vidéo DisplayPort 2.1b. Nvidia annonce sa GeForce RTX 5090 à 1999 $, la GeForce RTX 5080 à 999 $, la GeForce RTX 5070 Ti à 750 $ et la GeForce RTX 5070 à 550 $.
L’architecture graphique Blackwell préfigure-t-elle une nouvelle direction dans le développement de solution graphique plus performante. C’est probable car le secteur est de plus en plus confronté à des défis physiques complexes au point de ralentir fortement la loi de Moore. Cette dernière est heureusement empirique. Elle est à considérer comme une prédiction annonçant un doublement du nombre de transistors présents sur une puce tous les deux ans. Si elle s’est révélée exacte dans un premier temps, elle est surtout devenue une sorte de phare guidant, sur l’océan de l’innovation technique, les bateaux de géant de la High Tech. Il est donc logique que Nvidia redouble d’efforts au travers de solutions techniques pour tenter d’accomplir un nouveau bond en matière de performance.

L’une des voies empruntée est le rendu neuronal. Elle n’est pas nouvelle puisque nous la connaissançons depuis plusieurs années au travers de la technologie DLSS (Deep Learning Super Sampling). Le rendu neuronal est un terme générique représentant des techniques exploitant des modèles d’apprentissage automatique pour générer et améliorer des éléments visuels comme les textures, les éclairages, les détails ou encore la définition (mise à l’échelle d’images).
L’idée derrière tout ceci est de proposer des cartes graphiques offrant une qualité d’image Premium en haute définition avec d’imposants Framerates en réduisant le plus possible les charges de calcul.
Une fois tout ceci précisé, il n’est pas surprenant qu’une grande partie des améliorations proposées par l’architecture graphique Blackwell visent des optimisations pour le rendu neuronal. Nous retrouvons une mécanique orientée vers les réseaux neuronaux dans le sens où elle est pensée pour leurs algorithmes tout en réduisant l’empreinte mémoire afin d’augmenter les possibilités de calculs en parallèle et de manière plus globale les performances.
Nvidia explique que Blackwell est aussi censé garantir un juste équilibre entre différentes tâches. En effet si le parallélisme est l’une des clés pour une montée en puissance des performances, tout ne peut pas être traité de cette manière. Malheureusement que l’on parle de rendu ou de tâches d’IA ou encore de simulation physique, la charge de travail est accomplie de manière asynchrone. Il faut donc s’assurer que les processus sont équilibrés et gérés efficacement pour les ressources matérielles afin de limiter les goulots d’étranglement, les files d’attentes et les besoins en ressources.
La VRAM (mémoire vidéo) adopte la norme GDDR7 doublant ainsi la vitesse de la GDDR6 tout en réduisant de moitié sa consommation énergétique. De plus, elle repose sur la signalisation PAM3, une technologie qui améliore l’immunité au bruit, autorisant des fréquences plus élevées. Ce choix se traduit par une bande passante en nette progression et une efficacité énergétique optimisée.
Blackwell s’arme de cœurs Tensor de cinquième génération disposant comme nous venons de le souligner d’optimisation pour le rendu neuronal. Ils gèrent également la précision INT4 et FP4 qui augmente considérablement les transferts de données tout en réduisant les besoins en mémoire. Pourquoi ? Les opérations RT peuvent s’exécuter dans ces formats de données plus petits et de moindre précision ce qui accélère les calculs et diminue les besoins en VRAM. Par contre, une perte de précision est de la partie.
Nous retrouvons des cœurs RT (Ray Tracing) de quatrième génération mieux armée pour la méga géométrie. En clair, leur mécanique assure le traitement des scènes plus grandes et plus complexes tout en garantissant de meilleures performances en géométrie standard et avancée. Pour y parvenir, un moteur d’intersection de clusters triangulaires conçu spécifiquement pour gérer la méga-géométrie débarque. L’idée est d’associer un format de compression de cluster triangulaire et un moteur de décompression sans perte afin d’être plus efficace dans le traitement de géométries complexes. Face à Ada Lovelace (RTX 40 series), le débit triangulaire double et les calculs de ray tracing deviennent plus efficaces.
Les SMs (Multiprocesseurs de shader) ont été optimisés pour les nuanceurs neuronaux au travers d’une bande passante deux fois plus importante et de débits boostés pour la gestion de tâches complexes impliquant par exemple l’apprentissage profond et l’ombrage neuronal. A tout ceci s’ajoute un doublement de la bande passante et du débit INT32 en donnant à tous les cœurs de shader la possibilité d’exécuter INT32 ou FP32. De plus, une nouvelle API est annoncée, DirectX Cooperative Vectors permettant d’accéder aux cœurs Tensor à partir des shaders. Dans le même esprit le SER, l’entité (des shaders en réalité) générant du travail pour d’autres shaders, est deux fois plus efficace.
Sans vraiment s’en rendre compte nous vivons un changement important dans le domaine du jeu vidéo, celui de L’intégration de modèles d’intelligence artificielle. Si l’espoir de plus d’intelligence, d’interaction, d’immersion et bien d ‘autre chose sont là, cette avancée s’accompagne de nouveaux défis pour garantir une expérience fluide et réactive. La première est de mettre de l’ordre dans les calculs au travers d’une planification minutieuse car le rendu des graphismes et les tâches liées à l’IA sont deux choses différentes mais doivent être en accord pour une expérience gaming fluide et agréable. Du coup si les délais dans les réponses de l’IA nommé « temps de première réponse » sont importants la notion d’immersion est fortement compromise, tandis que les interruptions dans le rendu (la fréquence des images par seconde) entraînent des saccades.
Pour répondre à ces défis, NVIDIA introduit l’AMP (AI Management Processor), un processeur de gestion de l’IA. Programmable, il est placé en amont du GPU et son rôle est d’assurer une planification des tâches. Il permet aux processus d’IA, comme la génération de dialogues, de fonctionner sans perturber le rendu des jeux. L’AMP est donc une sorte de contremaitre en charge de planifier les tâches d’IA en même temps que le rendu graphique. Sa mission est de toute faire pour que les charges de travail complexes profitent d’un traitement fluide et performant.
L’architecture Blackwell profite d’optimisation en matière de gestion de l’alimentation. Elles concernent différents aspects comme un deuxième rail de tension permettant aux systèmes de cœur et de mémoire de fonctionner à des tensions différentes. A cela s’ajoutent un réglage de la fréquence plus rapide et dynamique en temps réel ainsi que la mise en œuvre d’états d’alimentation dits « profonds » (modes veilles). Cela signifie que le GPU est censé entrer et sortir de différents états d’économie d’énergie presque instantanément tout en pouvant, selon les circonstances, arrêter certaines de ses parties pour économiser de l’énergie tout en restant réactifs en cas de besoin.
Traitement vidéo
Du côté de l’encodeur et du décodeur, l’architecture Blackwell améliore les traitements vidéo. Nvidia ajoute la prise en charge de l’AV1 Ultra High Quality, de l’AQBC (Adaptive Quality-Based Compression) multi-vues et l’encodage et le décodage 4:2:2 H.264/H265 tandis que le débit est doublé en décodage H.264, une norme de compression vidéo populaire. Tout ceci est possible à l’aide de décodeurs optimisés. Ces derniers assurent aussi le traitement de plusieurs flux 4K simultanément, un atout pour les configurations multi-caméras comme les podcasts ou les événements en direct. Pour un seul flux, les performances bénéficient d’un traitement parallèle des trames, et les nouvelles techniques d’encodage augmentent la qualité vidéo jusqu’à 5 %, tout en optimisant la taille des fichiers.
Blackwell prend en charge DP 2.1 avec UHBR20, soit la possibilité de profiter d’une définition 8K à 60 Hz via un seul câble.
DLSS 4.0 et Reflex 2

Nvidia annonce également le DLSS 4, une avancée de la technologie Deep Learning Super Sampling. Cette version introduit la Génération Multi-Images, capable de générer jusqu’à trois images additionnelles pour chaque image rendue traditionnellement, multipliant ainsi les taux de rafraîchissement jusqu’à 8 fois par rapport à un rendu classique. Cette amélioration promet du gaming en 4K à 240 images par seconde avec du Ray Tracing complet.

Le DLSS 4 bénéficie de nouveaux modèles d’intelligence artificielle basés sur des transformeurs, similaires à ceux utilisés dans des technologies comme ChatGPT. Ces modèles améliorent la stabilité temporelle, réduisent les effets de ghosting et augmentent le niveau de détail en mouvement. De plus, NVIDIA introduit la fonctionnalité DLSS Override, permettant aux utilisateurs d’appliquer DLSS 4 dans des jeux compatibles avec les versions précédentes, même sans mise à jour directe de la part des développeurs.
Au lancement, prévu pour le 30 janvier 2025, plus de 75 jeux et applications prendront en charge la Génération Multi-Images, dont des titres phares comme Alan Wake 2 et Cyberpunk 2077. Les nouvelles cartes graphiques GeForce RTX série 50, telles que la RTX 5090 et la RTX 5080, seront les premières à intégrer pleinement le DLSS 4, offrant normalement des performances doublées par rapport à la génération précédente.
Nvidia a également mis l’accent sur la réduction de la latence, un autre aspect essentiel des performances en jeu. Avec plus de 120 titres intégrant Reflex, il est logique que cette technologie évolue aussi avec l’arrivée de Reflex 2. L’introduction de la fonctionnalité Frame Warp permet de diminuer la latence jusqu’à 75% en actualisant l’image du jeu en fonction du dernier mouvement de la souris, juste avant son affichage à l’écran. Ce Frame Warp fonctionne en calculant la position de la caméra du prochain cadre en se basant sur les entrées récentes du joueur. Cette technique ajuste l’image rendue pour refléter les mouvements les plus récents, améliorant ainsi la réactivité.
Reflex 2 sera initialement disponible avec les GeForce RTX 50 et sera intégré prochainement dans des titres tels que THE FINALS et VALORANT. Un support pour d’autres GPU GeForce RTX est prévu dans une mise à jour future.
IA, l’avenir de l’innovation ?
Nvidia tente d’améliorer les graphiques en temps réel en introduisant plusieurs innovations à travers d’outils et de technologies intégrant des techniques neuronales directement dans le pipeline graphique. Ces nouveautés promettent de redéfinir les possibilités en termes de réalisme visuel et d’efficacité, et ouvrent la voie à des applications plus avancées pour les développeurs.
Jusqu’ici, accéder aux Tensor Cores via une API graphique n’était pas possible. Avec l’introduction des Cooperative Vectors dans l’API DirectX et du nouveau langage d’ombrage, le Slang, NVIDIA permet aux développeurs de tirer parti des capacités neuronales pour remplacer des parties du pipeline graphique classique. Slang facilite la manipulation des fonctions complexes en les divisant en segments modulaires. Cette fonctionnalité étant intégrée à une API standard de DirectX, elle peut être adoptée par AMD et Intel dans leurs pilotes.
Les matériaux neuronaux proposent de remplacer les shaders classiques par une représentation compressée basée sur des réseaux neuronaux. L’objectif est naturellement de réduire les besoins en puissance de calcul. Cette approche permet un taux de compression allant jusqu’à 7:1 tout en proposant des matériaux dit « réalistes » en temps réel en limitant l’impact des ressources.
Le NRC, alias le Neural Radiance Cache, utilise un réseau neuronal entraîné dynamiquement pour estimer l’éclairage indirect avec précision. En retraçant seulement 1 à 2 rayons, il tente de générer un éclairage plus réaliste tout en minimisant l’impact sur les performances. Cette technologie, intégrée au SDK RTX Global Illumination, sera disponible prochainement dans des projets comme Portal with RTX et RTX Remix.
Dans le même esprit, le RTX Neural Faces promet des visages réalistes grâce à l’IA générative. Une nouvelle méthode est proposée pour améliorer le rendu des visages en temps réel grâce à l’IA. En transformant un visage rastérisé et des données de pose 3D, un modèle génératif produit des visages naturels basés sur un entraînement à partir de milliers d’images. Ce pipeline s’enrichit avec le SDK RTX Character Rendering, qui améliore le réalisme de la peau et des cheveux. Ces derniers profitent du LSS alias le Linear-Swept Spheres (LSS) qui remplace les triangles par des sphères, réduisant la complexité géométrique tout en augmentant la précision et les performances en Ray Tracing. Cela participe à réduire l’empreinte mémoire tout en optimisant le rendu des cheveux en temps réel.
Enfin, le RTX Mega Geometry autorise l’utilisation de maillages haute définition directement dans des scènes en Ray Tracing, éliminant le besoin de maillages basse résolution. Cette technologie multiplie par 100 la densité de triangles RT tout en maintenant les performances grâce à des techniques de compression. De son coté, les Opacity Micro-Maps optimisent le rendu des matériaux complexes, facilitant l’intégration de scènes photoréalistes riches en détail avec un éclairage réaliste.
Le dernier algorithme ReSTIR optimise le traçage des chemins lumineux, se concentrant sur les rayons les plus pertinents pour un éclairage dynamique. Associé à RTX Global Illumination, qui utilise l’IA pour réduire les exigences de calcul des rebonds lumineux, il promet un réalisme accru sans sacrifier les performances.
Avec ces innovations, Nvidia promet de transformer la création de contenus graphiques et interactifs en temps réel. Tout ceci annonce sur le papier des possibilités inédites pour les jeux vidéo, la simulation et la production cinématographique.
Information supplémentaire
De manière plus générale, l’IA est aujourd’hui omniprésente. Nous la retrouvons dans la création de contenu, le streaming, la vidéoconférence ou encore les outils de productivité et le gaming. Elle modifie également le développement logiciel. Traditionnellement basé sur du code exécuté par le processeur, ce dernier s’appuie désormais sur des réseaux neuronaux entraînés sur des GPU pour plus de flexibilité et d’adaptabilité. L’émergence de l’IA générative facilite l’accès à ces outils. Avec des solutions low-code ou no-code, des API permettent de développer rapidement des applications intégrant du texte, des images, de la 3D ou de la voix, élargissant l’audience du développement à des profils variés.
Pour accompagner ces évolutions, Nvidia est à l’origine de microservices NIM (NVIDIA Inference Models), des modèles d’IA optimisés pour ses GPU RTX. Disponibles dès février, ces conteneurs Docker simplifient l’intégration des fonctionnalités IA dans les applications (ChatRTX, AnythingLLM, ComfyUI et LM Studio).
Il y a aussi les outils Crew.AI ou ComfyUI pour développer sans expertise avancée. Grâce à Windows Subsystem for Linux (WSL), l’intégration des charges de travail IA sur PC Windows s’harmonise avec le cloud, rendant ces outils accessibles localement et en ligne.
La GeForce RTX 5080
Voici une synthèse des faits marquants de la GeForce RTX 5080. Nous la mettons en comparaison aux coté de sa grande sœur, la GeForce RTX 4080.
GeForce RTX 5080 FE | GeForce RTX 4080 FE | |
Architecture | Blackwell | Ada Lovelace |
Finesse de gravure | 4N | 4N |
GPU | GB203-400 | AD102-300 |
Nombre de transistors | 45,6 milliards | 45,9 milliards |
Cœurs CUDA | 10752 | 9728 |
Cœurs Tensors | 336 | 304 |
Cœurs Ray-Tracing | 84 | 76 |
TMUs | 336 | 304 |
ROPs | 128 | 112 |
Fréquence de base | 2295 MHz | 2205 MHz |
Fréquence Boost | 2617 MHz | 2505 MHz |
Mémoire | GDDR7 | GDDR6X |
Quantité de mémoire | 16 Go | 16 Go |
Fréquence mémoire | 3750 MHz | 2800 MHz |
Bus mémoire | 256-bit | 256-bit |
Performance | ||
Performance FP32 | 56,3 TFLOPs | 48,7 TFLOPs |
Bande passante mémoire | 960 Go/s | 716,8 Go/s |
TDP/TBP | 360 W | 320 W |
Date de lancement | 30 janvier 2025 | 12 octobre 2022 |
Prix recommandé | 999 $ (à partir de 1169 €) | 1199 $ (à partir de 1329 €) |
Nvidia augmente de 10,5 % le nombre de cœurs CUDA, Tensors et Ray Tracing. La VRAM reste à 16 Go mais évolue pour adopter de la GDDR7. Le bus mémoire reste à 256-bit tandis que la bande passante progresse de 34% pour atteindre les 960 Go/s. La puissance FP32 gagne 15,6% tandis que la consommation passe de 320 Watts à 360 Watts soit une hausse de 12,5%. Si le ratio performance consommation ne semble pas s’améliorer, il y a au moins une bonne nouvelle. Nvidia revoit ses prix au travers d’un ajustement vers le bas permettant d’économiser 200 €.

En résumé, la GeForce RTX 5080 inaugure le GB203. Il s’agit d’une puce physiquement plus petite que la GB202 au cœur de la vitrine, la GeForce RTX 5090. A noter que Nvidia exploite une finesse de gravure 4N de TSMC pour Blackwell identique à celle utilisée avec le temps pour Ada Lovelace. Le GB203 a un nombre de transistors et une taille de puce similaire à l’AD103 donnant vie à la GeForce RTX 4080. Ce GB203 dispose physiquement de 84 SMs activés. Cela représente 10 752 cœurs CUDA, soit plus que les 10 240 de la GeForce RTX 4080 SUPER. Nous retrouvons 336 cœurs Tensor et 84 cœurs RT.
Le nombre de TMUs est de 336, tandis que la puce a 112 ROPs. La taille du cache L2 partagé est inchangée par rapport à la génération précédente soit 64 Mo. Par contre, les gros changements se situent du côté de la mémoire. Si le bus mémoire n’évolue pas, l’adoption de la GDDR7 à 30 Gbps permet de profiter de 960 Go/s de bande passante mémoire soit une jolie progression de 34 % par rapport à la RTX 4080. Les moteurs multimédia et d’affichage profitent d’améliorations et deux accélérateurs NVDEC et NVENC accompagné d’un moteur d’affichage proposant du DisplayPort 2.1b avec UHBR20 et HDMI 2.1a.
AORUS GeForce RTX 5080 MASTER ICE 16G
L’AORUS GeForce RTX 5080 MASTER ICE 16G est une version personnalisée de la RTX 5080. Signée Gigabyte, elle s’adresse aux passionnés et aux joueurs ayant un budget conséquent et recherchant une carte graphique haut de gamme et suréquipée.
Son format est très imposant au point de devoir être prudent avec les boitiers compacts où l’espace est compté. Avec des dimensions de 360 x 150 x 75 mm, elle demande de l’espace pour se loger au cœur d’une configuration gaming. Il faut lui réserver quatre slots d’extension. Ces besoins se justifient par son système de refroidissement tout simplement impressionnant. C’est gros, c’est massif et en plus c’est évolutif.
En effet à l’ouverture de la boite, la carte s’accompagne d’un bundle unique avec d’un côté un support VGA pour soulager le port PCIe x16 et de l’autre d’un ventilateur de 120 mm aRGB accompagné d’un système de fixation sans outil.
Le but est de pouvoir l’installer facilement en terminaison de la carte pour profiter d’un mode Push Pull. Ainsi si de base la carte s’arme de trois ventilateurs HAWK FAN il est possible très facilement de passer à une configuration à quatre ventilateurs. Attention toutefois, son installation augmente l’épaisseur de la carte.
Le système de refroidissement WindForce exploite une chambre à vapeur, du gel thermique composite métallique pour le GPU et des caloducs supraconducteurs. Ces derniers utilisent différentes structures capillaires pour améliorer les transferts de chaleur. Les caloducs sont remplis de liquide. Sur le dessus de la chambre à vapeur, la chaleur est captée par le liquide qui se transforme en vapeur qui est transporté vers les zones de dissipation de la chaleur (ailettes). La vapeur refroidie et un état liquide s’écoule vers la section d’évaporation.
Concernant ce gel thermique composite, elle tire partie de la conductivité thermique élevée du métal liquide et de la facilité d’application de la graisse de silicone. Nous retrouvons de l’oxyde d’indium et de l’oxyde d’aluminium. Sachant qu’une seule goutte de métal liquide peut endommager la carte, car il est conducteur d’électricité et peut ainsi créer des courts-circuits, Gigabyte a développé un système de quadruple protection pour garantir que le métal liquide reste en place pendant toute la durée de vie de la carte.
En parallèle, un gel thermoconducteur de qualité serveur est utilisé pour le refroidissement des composants critiques tels que la VRAM et les MOSFET. Ce gel est hautement déformable et non fluide. Il œuvre à garantir un contact optimal pour les surfaces inégales et résiste à la déformation due au transport ou à l’utilisation à long terme, contrairement aux pads thermiques classiques
Les ventilateurs Hawk Fan profitent d’un design de pale unique. Selon Gigabyte, il s’inspire de l’aérodynamisme de l’aile d’un aigle. Cette conception permet de réduire la résistance de l’air et les niveaux de bruit, ce qui entraîne une augmentation de la pression de l’air (jusqu’à 53,6 %) et du volume d’air (jusqu’à 12,5%) sans compromettre l’acoustique. De plus, le ventilateur central tourne en sens opposé des deux autres afin de réduire les turbulences. L’ensemble est capable de se mettre totalement à l’arrêt lorsque le GPU est dans un jeu à faible charge ou à faible consommation. Dans cette situation, la carte est inaudible.
Pour revenir sur l’équipement, la carte propose en latéral un petit écran LCD, le LCD Edge View et du RGB Halo. Il s’organise autour de trois anneaux et une personnalisation est possible via l’application maison « Control Center). Un double BIOS permet de choisir entre les modes Performance et silence.

L’écran LCD affiche non seulement des informations sur le fonctionnement de la carte mais également divers textes, images et GIF préférés. Une nouvelle fois la personnalisation passe par l’application CONTROL CENTER.
Tout ceci est proposé au cœur du structure renforcée à l’aide d’une plaque arrière en métal fixée au support d’E/S et combinée à un cadre en métal moulé sous pression.
En main et suite à différentes manipulations, la carte respire la qualité et la robustesse. Elle inspire confiance dans sa solidité aux regards de son format. Gigabyte apporte également un soin à la robe avec cette édition ICE de très belle facture. C’est bien assemblé et les finitions sont parfaites.
Pour son alimentation, elle puise ses besoins d’un port PCIe x16 et d’un connecteur 16 broches (12V-2×6). Gigabyte conseille l’utilisation d’une alimentation de 850 Watts au minimum et propose en bundle un adaptateur 12v-2×6 vers trois PCIe 8 broches pour les anciennes alimentations.
Sa connectique avant se compose de trois DisplayPort 2.1b et d’un HDMI 2.1b. Enfin la belle profite en sortie de carton d’un overclocking avec une fréquence GPU boost calibrée à 2805 MHz contre 2617 MHz pour la RTX 5080 classique. Il n’y a de changement du côté de la VRAM avec 16 Go de GDDR7 à 30 Gbps.
Protocole de test.
Nous avons utilisé des jeux, plusieurs définitions, plusieurs benchmarks et des applications GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum.
Plateforme de test.
- Carte mère : Asus ROG Maximus Z690 HERO
- Processeur : Intel Core i9-12900K,
- Mémoire vive : Trident Z5 RGB 2 x 16 Go de DDR5-6000 CL28
- Stockage: SSD Kioxia Exceria Pro 2 To,
- Alimentation: C1500 Platinum de NZXT
- Dissipateur : WaterCooling DeepCool LS720
Jeux vidéo
- Metro Exodus,
- Far Cry 6,
- Shadow of Tomb Raider,
- Horizon Zero Dawn,
- Watch Dogs Legion,
- Cyberpunk 2077,
- Kingdom Come Deliverance II
- Star War Outlaws
Benchmarks
- 3DMark Fire Strike (Performance, Extreme),,
- Blender ( Scènes Monster, JunkShop et Classroom),
Puissant outil de développement pour créer des images et animations 3D. Cette version apporte la prise en charge de l’OptiX chez Nvidia soit une accélération matérielle avec une GeForce ou Quadro RTX. Cela concerne le rendu et le viewport. Pour les Radeon RX 6000 Series nous utilisons l’API OpenCL. - LuxMark 3.1
Cette application exploite l’API OpenCL pour exécuter des calculs de rendu 3D. Il est possible de travailler uniquement avec le GPU, le CPU ou encore les deux en même temps (idéal pour se rendre compte de la différence de performance qu’il existe entre un processeur et une solution graphique). Mieux encore, ce benchmark existe sur différents environnements comme Linux, OS X et Windows. Il livre un score et des indices de valeurs Samples/sec et Rays/sec. - V-Ray Benchmark,
- FAHBench exécute un exemple de calcul de dynamique moléculaire pour comparer les performances des GPU en ce qui concerne la recherche en biophysique.
IA
- Procyon – AI Text Generation (modèles PHI 3.5, Mistral-7B, Llama 3-1 et Llama-2)
Nous avons également fait des tests autour des consommations électriques, performances de refroidissement, silence de fonctionnement et stabilité des fréquences.
AORUS GeForce RTX 5080 MASTER ICE 16G et l’environnement
Performance de refroidissement
L’ensemble du monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier.

A faible charge, les trois ventilateurs sont à l’arrêt. L’imposant dissipateur de la carte permet sans difficulté de refroidir le GPU. En charge et rapidement, la température GPU se stabile entre 60 et 61°C. Les trois ventilateurs turbinent à 44% de leur vitesse maximale soit environ 1500 trs/mn.
La courbe violette confirme un mode Fanless à faible charge GPU. Les trois ventilateurs sont à l’arrêt et la carte est inaudible. Après une dizaine de minutes, la température du GPU se situe à 36°C ce qui est positif sachant que le refroidissement est uniquement assuré par une convection naturelle de l’air.
Nuisances sonores.

Comme nous venons de le voir au repos, le mode Fanless rend la carte inaudible, c’est parfait. Il n’y a aucun bruit. En charge, un souffle s’entend mais l’ensemble est assez discret. Avec 43,6 dBa, le profil sonore est proche de celui du RTX 4080 Founders Edition et bien plus silencieux que celui de la GeForce RTX 4090 Gaming OC 24G
Stabilité des fréquences.

Voici un suivi des fréquences GPU et mémoire. Il n’y a absolument rien à dire. Dans les deux cas, les valeurs fluctuent faiblement pour ne pas dire jamais pour la VRAM (GDDR7 à 30 GBps). La fréquence GPU est stable durant l’ensemble de notre test de montée en charge. Sur l’ensemble de l’exercice, la fréquence GPU moyenne est de 2434 MHz.
Consommations électriques

Selon le niveau de charge, la consommation de la AORUS GeForce RTX 5080 MASTER ICE 16G se situe entre 21 et 360 Watts. Il n’y a pas de mauvaise surprise avec une enveloppe thermique correspondante à celle annoncée par Nvidia. Par contre au repos, la carte est trop gourmande face à son ainée, la RTX 4080 qui ne consomme que 4,4 Watts.
Avec ses 360 Watts, la RTX 5080 fait partie des cartes graphiques les plus gourmandes de ce comparatif.
Remarque.
Cette mesure de consommation correspond aux besoins minimum et maximum de la carte afin de pouvoir faire une évaluation globale de son coût d’exploitation et son empreinte carbone de fonctionnement. Dans le détail, ses besoins énergétiques varient énormément selon le type d’exercice.
L’enveloppe thermique (TGP) est une information intéressante mais elle ne permet pas de détailler la consommation d’énergie en fonction des usages. En clair, son bilan énergétique n’est pas universel. Il varie en fonction des besoins. Le TGP est la limite de puissance maximale pour la fréquence boost du GPU. Elle sera optimisée en fonction de cette limite mais également d’autres paramètres comme la température. Cette puissance peut être atteinte avec des applications très gourmandes.
Cout de fonctionnement et empreinte carbone de fonctionnement.
Notre base de travail est une utilisation quotidienne de 6 heures par jour, 365 jours par an avec un tarif de 25,62 cts € TTC le kWh facturé.
L’indicateur EDF, en gramme d’équivalent CO2 pour la production de 1 kWh, est fixé à 11,84 grammes (période de juin 2023 à juin 2024). Il est synonyme du taux de rejet de gaz à effet de serre induit par la production de l’électricité consommée.
EDF – Indicateur mensuel d’émissions de gaz à effet de serre de juin 2023 à Juin 2024 (en g équivalent CO2 par KWh)
Le coût d’exploitation annuel de notre AORUS GeForce RTX 5080 MASTER ICE 16G se situe entre 11,8 et 202 € selon son niveau de sollicitation tandis que son empreinte carbone de fonctionnement se situe entre 0,5 et 9,3 kilogrammes.
Ces deux critères sont intéressants car nous avons ici certaines conséquences directes d’une consommation électrique importante.
AORUS GeForce RTX 5080 MASTER ICE 16G, les performances gaming
Performance en Rasterisation
Nous avons pris comme référence les performances proposées par la ROG Strix Gaming GeForce RTX 4070 Ti SUPER OC. Elle dispose d’un indice 100. Nous avons fonctionné en :
- 1440p,
- 2160p (4K).
Dans tous les cas, les options graphiques sont au maximum. Vous trouverez des bilans en Rasterisation, Ray Tracing (mode Ultra) et Ray Tracing (mode Ultra) + DLSS (mode qualité). De plus, nous avons également sollicité le DLSS 3, le DLSS 4 et le MultiFrame Generation sous Cyberpunk 2077 pour estimer son impact sur les performances.

Avec un indice de 132, la AORUS GeForce RTX 5080 MASTER ICE 16G se positionne comme une carte graphique puissante capable de répondre aux besoins en 4K. Elle se place derrière la RTX 4090 (indice de 146) et devant son ainée, la RTX 4080 avec une avance en moyenne de 18%. Pas de changements en 1440p avec une avance de 18% face à la RTX 4080. La RTX 4090 domine avec un indice de 128.

L’analyse des framerate dévoile une carte taillée pour le 1440p et le 4K. Cependant attention tout de même. Si le bilan est parfait avec d’anciens jeux au travers de framerate dépassant les 90 fps, des titres plus modernes et gourmands sont capables de mettre à rude épreuve sa mécanique. Par exemple le framerate sous Star War Outlaws est à 63 images par seconde (il n’y a pas de Ray Tracing) et à 71 images sous Kingdom Come Deliverance II .
Performance en Ray Tracing
Voici le bilan sous différents jeux avec l’activation du Ray Tracing (mode ultra). Nous travaillons toujours avec des options graphiques au maximum. Les technologies DLSS et FSR n’est pas activée pour le moment.

Avec l’activation de cette technologie l’écart avec la RTX 4080 se réduit. Il chute à 11% en 1440p et se situe à 15% en 4K. La RTX 4090 continue de dominer avec une avance de 9 et 13%. Nous observons également que le Ray Tracing n’est pas le terrain de prédilection de la Radeon RX 7090 XTX qui se laisse distancer dans les deux définitions.

Du coté des framerate, la gourmandise de la technologie Ray Tracing se confirme. Le framerate moyen se situe entre 66 et 173 fps en 1440p et entre 31 et 106 en 2160p (4K). Si la barre des 60 fps est atteinte en 1440p ce n’est pas le cas en 4K avec même une valeur limite de 32 images par seconde sous Star Wars Outlaws. Il devient donc impossible en 4K d’exploiter tout le potentiel de ce titre. Pour tenter de conserver un rendu optimal avec du Ray Tracing sur Ultra en 4K , une solution est d’utiliser une technologie d’upscaling comme le DLSS
Le test 3DMark – DLSS Feature propose une évaluation du « boost » proposée par le DLSS .

Dans ce test, nous enregistrons un framerate moyen de 49 fps (41 pour la RTX 4080) ce qui confirme la gourmandise du Ray Tracing. Sans toucher au niveau de rendu, l’usage de la technologie DLSS 2 permet de booster le framerate à 123 fps tandis que le DLSS 3.0 (2x) offre du 170 fps et le DLSS 4 (4x) avec du Multiframe Generation grimpe à 300 images par seconde. Un tel chiffre permet de dépasser avec une avance considérable une RTX 4090 exploitant le DLSS 3
Nous sommes cependant devant un benchmark théorique. Voici maintenant la même étude avec le titre CyberPunk 2077 en 1440p (Ray Tracing – éclairage sur Spycho) en activant ces différentes versions du DLSS en mode qualité
Le bilan avec la RTX 5080 est impressionnant puisque nous passons de 39 fps à plus de 250 en 4K et de 83 à plus de 410 en 1440p
Voici d’autres tests, avec cette fois différentes versions du DLSS (mode qualité).
Performances en création
L’AORUS GeForce RTX 5080 MASTER ICE 16G Elle peut ainsi trouver une place de choix dans certains contextes comme la création vidéo, la retouche photo et le rendu 3D. De nombreuses applications sont capables d’exploiter son GPU afin de profiter d’une accélération matérielle avec à la clé des gains de temps et de productivité.

Il est important de souligner que ce bilan englobe de nombreuses applications et pas uniquement des logiciels 100% optimisés pour des cartes Nvidia. Avec un indice de 124, l’AORUS GeForce RTX 5080 occupe une nouvelle fois la seconde place juste derrière la RTX 4090 dont l’indice s’envole à 158 points. La RTX 4080 en 12% moins rapide tout comme la Radeon RX 7900 XTX
Voici les détails de différents tests que nous avons menés.
Blender Benchmark Launcher.

V-Ray Benchmark

FAHBench.
IA Text Generation
A l’aide du benchmark Procyon AI Test Generation nous avons évalué les performances dans un contexte de calculs autour de l’IA en particulier avec plusieurs modèles LLM en local. En prenant une nouvelle fois comme référence le bilan offert par la RTX 4070 Ti Super , la RTX 5080 est 29% plus efficace contre 12% pour la RTX 4080 tandis que la RTX 4090 domine avec une avance de 49%. La Radeon RX 7900 XTX est ici complètement dépassée.
Voici les détails

AORUS GeForce RTX 5080 MASTER ICE 16G, conclusion
![]() |
AORUS GeForce RTX 5080 MASTER ICE 16G |
1649 € |
AORUS GeForce RTX 5080 MASTER ICE 16G
Performance
Nuisances sonores
Consommation
Prix
Cette AORUS GeForce RTX 5080 MASTER ICE 16G est une belle surprise signée Gigabyte. Visant les joueurs et des créateurs exigeants et fortunés, elle se distingue par un design massif, un système de refroidissement évolutif et des finitions haut de gamme. A cela s’ajoutent de la personnalisation, du RGB ou encore un petit écran pour afficher des informations, des images et bien d’autres choses. Dans les jeux, elle s’impose comme une alternative sérieuse à la RTX 4090, offrant d’excellentes performances en 1440p et en 4K, bien que certaines limitations en ray tracing à haute définition nécessitent le recours aux technologies d’upscaling. Son fonctionnement assez silencieux et son refroidissement efficace sont d’autres atouts. Cependant, sa consommation énergétique est élevée, notamment au repos. Elle peut aussi trouver sa place dans des usages professionnels, où ses capacités en accélération matérielle et en IA confirment son positionnement premium. Au final, cette RTX 5080 revisitée par Gigabyte au travers de la philosophie AORUS se distingue par sa puissance brute, son système de refroidissement, son équipement et sa qualité de fabrication. Sur le segment du haut de gamme où l’exigence est de rigueur, cette AORUS GeForce RTX 5080 MASTER ICE 16G est un choix pertinent à condition d’y mettre le prix et de disposer de l’espace nécessaire pour l’accueillir.