Cartes graphiques

GPU Nvidia, les prix augmentent en raison des besoins de l’IA

Est-ce une mauvaise nouvelle pour les joueurs ?

Grâce à ses GPU, Nvidia rencontre un important succès sur le segment de l’IA . L’entreprise fait face à une demande explosive à l’origine de nouveaux problèmes dont des prix plus élevés et une offre limitée de puces.

La demande de GPU est instable depuis plusieurs années. La situation a débuté lors de la pandémie de COVID 19 à l’origine d’une énorme demande de GPU sur plusieurs segments clés (gaming, client et cryptographie). Elle a conduit à un marché totalement dérégulé avec des prix ayant atteint des sommets. En 2022 un violent retour de manette a eu lieu.

L’offre plus généreuse pour affronter la demande s’est retrouvée face à une crise économique majeure.  Elle a conduit à une violente contraction du marché. L’inflation, l’augmentation des prix des matériaux et de la fabrication ou encore l’arrêt de la demande en particulier sur le marché de la cryptomonnaie ont engendré de nouvelles instabilités. Nvidia, AMD et Intel ont tenté d’inverser la vapeur avec de nouvelles générations de GPU mais la politique de prix plus élevés n’a pas été acceptée par les consommateurs. A cela s’ajoute un marché de l’occasion que n’a fait que s’enrichir et les stocks d’anciennes références sont toujours présents sur les étagères des détaillants.

Nvidia, tout va bien grâce à l’IA

Dans un tel contexte nous pourrions penser que la situation est compliquée pour Nvidia. En réalité pas du tout. Nvidia rencontre un important succès en raison de l’IA. Que nous parlions de ChatGPT, Generative AI, Stable Diffusion tout ce petit monde est un important consommateur de GPU. Les puces Nvidia sont utilisés pour relever les défis de l’IA, du ML et du DNN dans diverses charges de travail et ce n’est qu’un début.

Actuellement, la tarification de GPU H100 de Nvidia dépasse les 35 000 $ US. Elle devrait atteindre les 50 000 $ US compte tenu de la tendance actuelle du marché. Selon MyDrivers à mesure que la demande continue de croître, les commandes s’accumulent et d’ici 2024, toute nouvelle commande nécessitera des délais de six mois à 12 mois. Il est dit que Nvidia est susceptible de donner la priorité aux gros clients.

Le géant travaille sur plusieurs variantes du H100. Des versions 64 Go et 94 Go ont déjà été repérées. La puce H100 la plus haut de gamme contient 120 Go de VRAM, soit -37,5% de moins que la prochaine AMD Instinct MI300X.

Source

Jerome G

Issu d’une formation scientifique. Aime l'innovation, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Un commentaire

  1. Une bulle AI qui masque la course à l’armement du PCC contournant les
    sanctions américaines sur les supercalculateurs par l’assemblage de
    composants issus de la triade AMD/nVidia/TSMC.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page