Nvidia engrange jusqu’à 1 000 % de bénéfices pour chaque accélérateur GPU H100 qu’il vend, selon des estimations faites dans un publication récente sur les réseaux sociaux de l’écrivain principal de Barron, Tae Kim. En termes de dollars, cela signifie que le prix public de Nvidia d’environ 25 000 $ à 30 000 $ pour chacun de ces accélérateurs de calcul haute performance (HPC) (pour la version PCIe la moins chère) couvre plus que le coût estimé de 3 320 $ par puce et périphérique (en- carte) composants. Comme les surfeurs vous le diront, rien de tel que de surfer sur une vague sans aucune autre planche en vue.
Kim cite le coût estimé de 3 320 $ pour chaque puce H100 comme provenant du cabinet de conseil financier Raymond James. Cependant, on ne sait pas jusqu’où va cette analyse des coûts : s’il s’agit de coûts de fabrication purs (en faisant la moyenne du prix par wafer et d’autres composants tout en tenant compte des rendements), alors il y a encore une marge de dépenses importante pour Nvidia à couvrir avec chacun de ses ventes.
Le développement de produits prend du temps et des ressources ; et compte tenu des ingénieurs et des autres participants au cycle de développement d’un produit tel que le H100, les coûts de R&D de Nvidia doivent également être pris en compte avant qu’un coût de développement de produit final et moyen puisse être atteint. Selon Glassdoor, le salaire moyen de Nvidia pour un ingénieur en matériel électronique se situe autour de 202 000 $ par an. Et c’est pour un seul ingénieur – il est probable que le développement de puces telles que le H100 nécessite des milliers d’heures de la part d’un certain nombre de travailleurs spécialisés. Tout cela aussi doit être pris en compte.
Même ainsi, on ne peut nier qu’il y a des avantages à être la société d’affichage pour les charges de travail d’accélération de l’IA. Au dire de tous, les GPU Nvidia s’envolent des étagères sans même devenir personnels avec les racks sur lesquels ils sont empilés. Cet article en particulier semble être le terrain de jeu ultime pour quiconque essaie de comprendre exactement ce que signifie la logistique derrière le boom AI HPC. Cependant, cela se traduit en réalité par le fait qu’il semble que les commandes de produits d’accélération de l’IA de Nvidia soient déjà vendues jusqu’en 2024. Et avec des attentes sur le marché des accélérateurs d’IA d’une valeur d’environ 150 milliards de dollars d’ici 2027, il n’y a apparemment rien d’autre dans le futur. mais vert.
Et bien sûr, ce boom est meilleur pour certains que pour d’autres : en raison de l’explosion de l’intérêt pour les serveurs IA par rapport aux installations HPC plus traditionnelles, les fabricants de DDR5 ont dû revoir leurs attentes quant à la pénétration des nouveaux produits de mémoire sur le marché. On s’attend maintenant à ce que l’adoption de la DDR5 n’atteigne la parité avec la DDR4 qu’au 3e trimestre 2024.
L’entreprise récolte les bénéfices d’avoir construit son infrastructure et sa pile de produits sur le dos de ses outils et parie sur l’IA comme la prochaine grande chose.
Mais partout, les budgets ont tendance à avoir des limites, et il y a aussi la question du coût d’opportunité : investir dans l’accélération de l’IA à ses prix actuels verrouillera les portes de certains acteurs aux investissements dans d’autres espaces, ou limitera les risques qu’ils peuvent prendre en poursuivant des projets moins sûrs. lieux de recherche et de développement.
En fin de compte, les résultats de Nvidia, soutenus par ses ventes de puces AI, pourraient désormais couvrir des quantités insensées de vestes en cuir. Au moins de ce point de vue, le PDG de Nvidia, Jensen Huang, doit rayonner à gauche et à droite.