La puissance de traitement mondiale est mieux servie en construisant des applications d’intelligence artificielle comme ChatGPT et Google Bard qu’en minant la crypto-monnaie. C’est selon Nvidia, qui préférerait voir ses GPU utilisés pour les jeux et l’IA.
Michael Kagan, directeur de la technologie de Nvidia, a déclaré que la société n’avait jamais adopté les crypto-monnaies et avait tenté de contraindre ses puces graphiques RTX-30 à limiter leur utilisation pour l’exploitation minière.
« Tout ce truc de crypto, il fallait un traitement parallèle, et [Nvidia] est le meilleur, donc les gens l’ont juste programmé pour l’utiliser à cette fin », a-t-il déclaré au Guardian. (s’ouvre dans un nouvel onglet). « Ils ont acheté beaucoup de choses, et puis finalement ça s’est effondré, parce que ça n’apporte rien d’utile à la société. L’IA le fait.
Malgré la réticence de Nvidia à s’engager avec les passionnés de crypto, la société s’est sans aucun doute bien sortie du marché haussier Bitcoin et Ethereum. Selon toute vraisemblance, il a vendu une bonne quantité de GPU à ceux qui souhaitaient exploiter des devises numériques.
« Je n’ai jamais cru que [crypto] est quelque chose qui fera quelque chose de bien pour l’humanité », a ajouté Kagan. « Vous savez, les gens font des choses folles, mais ils achètent vos trucs, vous leur vendez des trucs. Mais vous ne redirigez pas l’entreprise pour qu’elle soutienne quoi que ce soit.
Alimenter la révolution
Alors que la crypto-monnaie est peut-être en difficulté (Ethereum ne peut plus être miné et les besoins en temps et en énergie pour Bitcoin sont prohibitifs), la révolution de l’IA bat son plein. Cela a été bon pour Nvidia. Selon l’analyste d’UBS Timothy Arcuri, OpenAI (la société derrière ChatGPT), a utilisé 10 000 GPU de la société pour former le modèle.
Posant directement au chatbot la question du nombre de GPU Nvidia utilisés dans son développement, ChatGPT a renvoyé la réponse suivante : « Le nombre et le type exacts de GPU utilisés pendant mon processus de formation ne sont pas divulgués publiquement, mais on sait que l’équipe OpenAI a utilisé une architecture de modèle de langage basée sur un transformateur à grande échelle et m’a formé sur un énorme ensemble de données de texte.
Actuellement, des dizaines de milliers de GPU A100 et H100 Tensor Core de Nvidia gèrent la formation et l’inférence sur des modèles d’IA comme ChatGPT, exécutés via le service cloud Azure de Microsoft.
Pendant ce temps, Jensen Huang, PDG de Nvidia, a déclaré que c’était le moteur qui alimentait « le moment iPhone de l’IA » lors de la conférence annuelle de l’entreprise la semaine dernière.