Nvidia, qui vient de gagner plus de 10 milliards de dollars en un trimestre grâce à ses GPU de calcul destinés aux centres de données, prévoit de tripler au moins la production de ces produits en 2024, selon le Temps Financier, qui cite des sources connaissant le sujet. Cette décision est très ambitieuse et si Nvidia parvient à y parvenir et que la demande pour ses processeurs A100, H100 et autres processeurs de calcul destinés aux applications d’intelligence artificielle (IA) et de calcul haute performance (HPC) reste forte, cela pourrait signifier des revenus incroyables pour l’entreprise. .
La demande pour le GPU de calcul phare H100 de Nvidia est si élevée qu’ils seront épuisés jusqu’en 2024, rapporte le FT. La société a l’intention de multiplier par au moins trois la production de ses processeurs GH100, affirme le site commercial, citant trois personnes proches des projets de Nvidia. Les livraisons projetées de H100 pour 2024 se situent entre 1,5 million et 2 millions, ce qui marque une augmentation significative par rapport aux 500 000 unités prévues cette année.
Étant donné que le framework CUDA de Nvidia est adapté aux charges de travail IA et HPC, des centaines d’applications ne fonctionnent que sur les GPU de calcul de Nvidia. Bien qu’Amazon Web Services et Google disposent de leurs propres processeurs d’IA personnalisés pour les charges de travail de formation et d’inférence d’IA, ils doivent également acheter des lots de GPU de calcul Nvidia car leurs clients souhaitent y exécuter leurs applications.
Mais augmenter l’offre de GPU de calcul Nvidia H100, de plate-forme de supercalcul GH200 Grace Hopper et de produits sur leur base ne sera pas facile. Le GH100 de Nvidia est un processeur complexe et plutôt difficile à réaliser. Pour tripler sa production, elle doit éliminer plusieurs goulots d’étranglement.
Premièrement, le GPU de calcul GH100 est un énorme morceau de silicium d’une taille de 814 mm^2, il est donc assez difficile à fabriquer en gros volumes. Bien que les rendements du produit soient probablement raisonnablement élevés à l’heure actuelle, Nvidia doit encore s’assurer d’un approvisionnement important en plaquettes 4N auprès de TSMC pour tripler la production de ses produits basés sur GH100. Une estimation approximative suggère que TSMC et Nvidia peuvent obtenir au maximum 65 puces par tranche de 300 mm.
Fabriquer 2 millions de puces de ce type nécessiterait donc près de 31 000 plaquettes – ce qui est certainement possible, mais cela représente une fraction importante de la production totale de plaquettes de classe 5 nm de TSMC, qui est d’environ 150 000 par mois. Et cette capacité est actuellement partagée entre les CPU/GPU AMD, Apple, Nvidia et d’autres sociétés.
Deuxièmement, le GH100 s’appuie sur la mémoire HBM2E ou HBM3 et utilise le packaging CoWoS de TSMC. Nvidia doit donc également sécuriser son approvisionnement sur ce front. À l’heure actuelle, TSMC a du mal à répondre à la demande d’emballages CoWoS.
Troisièmement, étant donné que les appareils basés sur H100 utilisent de la mémoire HBM2E, HBM3 ou HBM3E, Nvidia devra se procurer suffisamment de packages de mémoire HBM auprès de sociétés comme Micron, Samsung et SK Hynix.
Enfin, les cartes de calcul H100 ou les modules SXM de Nvidia doivent être installés quelque part, Nvidia devra donc s’assurer que ses partenaires triplent également au moins la production de leurs serveurs IA, ce qui constitue une autre préoccupation.
Mais si Nvidia peut fournir tous les GPU H100 requis, elle pourrait certainement réaliser d’énormes bénéfices sur cette initiative l’année prochaine.