L’intelligence artificielle (IA) sera l’un des plus gros générateurs de revenus de Nvidia, selon le dernier TrendForce (s’ouvre dans un nouvel onglet) projection. La société de recherche estime que ChatGPT d’OpenAI aura éventuellement besoin de plus de 30 000 cartes graphiques Nvidia. Heureusement, les joueurs n’ont rien à craindre, car ChatGPT ne touchera pas les meilleures cartes graphiques pour les jeux, mais exploitera plutôt les accélérateurs de calcul de Nvidia, tels que l’A100.
Nvidia a toujours eu le don de flairer les ruées vers l’or. Le fabricant de puces était à l’avant-garde du boom de la crypto-monnaie, tirant des revenus record des mineurs. Nvidia se retrouve une fois de plus en première ligne pour ce qui semble être la prochaine meilleure chose : l’IA. Et le boom de l’IA est déjà ICI, comme en témoignent tous les créateurs de texte et d’images alimentés par l’IA qui ont émergé au cours des derniers mois.
En utilisant l’accélérateur A100 (Ampere) comme référence, TrendForce a estimé que ChatGPT nécessitait environ 20 000 unités pour traiter les données de formation. Cependant, le nombre augmentera considérablement, potentiellement plus de 30 000 unités, car OpenAI continue de déployer commercialement ChatGPT et le modèle Generative Pre-Trained Transformer (GPT) de la société. L’A100 coûte entre 10 000 $ et 15 000 $, selon la configuration et le facteur de forme. Par conséquent, à tout le moins, Nvidia envisage un chiffre d’affaires de 300 millions de dollars. Le nombre peut être légèrement inférieur, car Nvidia accordera probablement à OpenAI une remise basée sur le nombre de cartes nécessaires.
Nvidia vend également l’A100 dans le cadre du système DGX A100, qui dispose de huit accélérateurs et se vend pour la modique somme de 199 000 $. Compte tenu de l’ampleur des opérations d’OpenAI, la société achètera probablement l’A100 individuellement et les empilera en grappes. Le DGX A100, en revanche, est une option attrayante pour les petites entreprises qui souhaitent se lancer dans l’IA.
Alors que l’A100 est excellent pour l’IA, Nvidia a déjà commencé à expédier le H100 (Hopper), le remplaçant direct de l’A100. Sur le papier, le H100 offre des performances jusqu’à trois fois supérieures à celles de son prédécesseur. De plus, selon Nvidia, le H100 s’adapte encore mieux que l’A100 et offre un débit jusqu’à neuf fois plus élevé dans la formation à l’IA. Le H100 a cependant un prix nettement plus élevé, car les listes ont montré que l’accélérateur Hopper coûte plus de 32 000 $.
Le dernier rapport sur les revenus de Nvidia a révélé que l’activité des centres de données de la société, y compris les accélérateurs d’IA, s’est améliorée de 11 % par rapport à l’année dernière et a réalisé plus de 3,6 milliards de dollars de ventes au cours du trimestre. Ces chiffres vont probablement monter en flèche bientôt lorsque de grands joueurs comme Microsoft entreront dans le jeu. Microsoft est en train d’intégrer ChatGPT dans Bing et Edge. Compte tenu de la taille de la base d’utilisateurs (essentiellement tous ceux qui utilisent Windows), Microsoft pourrait devoir dépenser des milliards pour évoluer dans les mois et les années à venir.
Nvidia n’est pas la seule option sur le marché de l’IA, car Intel et AMD proposent également des accélérateurs d’IA concurrents. Ensuite, vous avez également des entreprises comme Google et Amazon, avec leurs propres solutions d’IA. Pendant la manne de la crypto-monnaie, les mineurs ont acheté toutes les cartes graphiques en vue, contribuant ainsi à la pénurie de cartes graphiques. Nous ne nous attendons pas à une autre pénurie, mais l’offre de cartes graphiques de jeu GeForce pourrait être affectée si Nvidia décidait soudainement de donner la priorité à la production d’accélérateurs d’IA par rapport à ses offres grand public. Seul le temps nous le dira.