Nvidia vendra 550 000 GPU H100 pour l’IA en 2023 : rapport

Le boom de l’IA générative stimule les ventes de serveurs utilisés pour l’intelligence artificielle (IA) et le calcul haute performance (HPC), et des dizaines d’entreprises en bénéficieront. Mais une entreprise en bénéficiera probablement plus que d’autres. On estime que Nvidia vendra plus d’un demi-million de ses GPU de calcul H100 haut de gamme d’une valeur de dizaines de milliards de dollars en 2023, rapporte le Financial Times.

Nvidia devrait expédier environ 550 000 de ses derniers GPU de calcul H100 dans le monde en 2023, la majorité étant destinée à des entreprises technologiques américaines, selon plusieurs initiés liés à Nvidia et TSMC qui se sont entretenus avec le Financial Times. Nvidia a choisi de ne fournir aucune remarque à ce sujet, ce qui est compréhensible compte tenu des règles de la FTC.

Bien que nous ne connaissions pas la combinaison précise de GPU vendus, chaque carte d’extension GPU de calcul Nvidia H100 80 Go HBM2E (14 592 cœurs CUDA, 26 FP64 TFLOPS, 1 513 FP16 TFLOPS) se vend environ 30 000 $ aux États-Unis. la pièce basée sur l’architecture Hopper la plus performante de la société. En fait, c’est le moins cher, du moins pour l’instant. Pendant ce temps, en Chine, une telle carte peut coûter jusqu’à 70 000 dollars.

Les offres haut de gamme alimentées par H100 de Nvidia incluent le H100 SXM 80 Go HBM3 (16 896 cœurs CUDA, 34 FP64 TFLOPS, 1 979 FP16 TFLOPS) et la solution à double carte H100 NVL 188 Go HBM3. Ces pièces sont vendues soit directement aux fabricants de serveurs comme Foxconn et Quanta, soit fournies à l’intérieur des serveurs que Nvidia vend directement. En outre, Nvidia est sur le point de commencer à expédier sa plate-forme GH200 Grace Hopper composée de son processeur Grace à 72 cœurs et d’un GPU de calcul H100 80 Go HBM3E.

Nvidia ne publie pas les prix de ses produits H100 SXM, H100 NVL et GH200 Grace Hopper car ils dépendent du volume et de la relation commerciale entre Nvidia et un client particulier. Pendant ce temps, même si Nvidia vend chacun des produits basés sur H100 pour 30 000 $, cela représenterait encore 16,5 milliards de dollars cette année uniquement sur les GPU de calcul de dernière génération. Mais la société ne vend pas uniquement des GPU de calcul de la série H100.

Certaines entreprises utilisent encore les GPU de calcul A100 de la génération précédente de Nvidia pour dynamiser leurs déploiements existants sans apporter de modifications à leurs logiciels et à leur matériel. Il existe également les modèles A800 et H800 spécifiques à la Chine.

Bien que nous ne puissions pas faire d’estimations précises sur l’endroit où les revenus de Nvidia provenant de la vente de GPU de calcul atterriront, ni sur le nombre précis de GPU de calcul que la société vendra cette année, nous pouvons faire quelques suppositions. L’activité de centre de données de Nvidia a généré 4,284 milliards de dollars au cours du premier trimestre de l’exercice 2024 de la société (clos le 30 avril). Compte tenu de la frénésie actuelle de l’IA, il semble que les ventes des GPU de calcul de Nvidia aient été plus élevées au cours de son deuxième trimestre de l’exercice 2024, qui s’est terminé fin juillet. En d’autres termes, l’exercice 2023 complet devrait battre des records pour l’unité de centre de données de Nvidia.

Il convient de noter que le partenaire de Nvidia, TSMC, peut à peine répondre à la demande de GPU de calcul pour le moment, car ils utilisent tous l’emballage CoWoS et la fonderie a du mal à augmenter la capacité de cette méthode d’emballage de puces. Avec de nombreuses entreprises cherchant à acheter des dizaines de milliers de GPU de calcul à des fins d’IA, l’offre ne correspondra probablement pas à la demande avant un certain temps.

Source-138