« J’espère que vous réalisez qu’il ne s’agit pas d’un concert », a déclaré le président de Nvidia, Jensen Huang, devant un public si nombreux qu’il a rempli le SAP Center de San Jose. C’est ainsi qu’il a présenté ce qui est peut-être tout le contraire d’un concert : l’événement GTC de la société. « Vous êtes arrivé à une conférence de développeurs. Il y aura beaucoup d’ouvrages scientifiques décrivant les algorithmes, l’architecture informatique et les mathématiques. Je sens un poids très lourd dans la pièce ; tout d’un coup, vous n’êtes pas au bon endroit.
Ce n’était peut-être pas un concert de rock, mais le PDG de 61 ans, vêtu d’une veste en cuir, de la troisième entreprise la plus valorisée au monde en termes de capitalisation boursière avait certainement un bon nombre de fans dans le public. La société a été lancée en 1993 avec pour mission de pousser l’informatique générale au-delà de ses limites. « L’informatique accélérée » est devenu le cri de ralliement de Nvidia : ne serait-il pas formidable de fabriquer des puces et des cartes spécialisées plutôt que destinées à un usage général ? Les puces Nvidia offrent aux joueurs avides de graphiques les outils dont ils ont besoin pour jouer à des jeux en plus haute résolution, avec une meilleure qualité et des fréquences d’images plus élevées.
Le discours de lundi était, en quelque sorte, un retour à la mission initiale de l’entreprise. « Je veux vous montrer l’âme de Nvidia, l’âme de notre entreprise, à l’intersection de l’infographie, de la physique et de l’intelligence artificielle, le tout se croisant à l’intérieur d’un ordinateur. »
Puis, pendant les deux heures suivantes, Huang a fait une chose rare : il s’est dérangé. Dur. Quiconque est venu au discours s’attendant à ce qu’il fasse un Tim Cook, avec un discours astucieux et axé sur le public, était forcément déçu. Dans l’ensemble, le discours d’ouverture était riche en technologie, criblé d’acronymes et, sans aucune excuse, une conférence de développeurs.
Nous avons besoin de GPU plus gros
Les unités de traitement graphique (GPU) sont le point de départ de Nvidia. Si vous avez déjà construit un ordinateur, vous pensez probablement à une carte graphique qui s’insère dans un emplacement PCI. C’est là que le voyage a commencé, mais nous avons parcouru un long chemin depuis.
La société a annoncé sa toute nouvelle plateforme Blackwell, qui est un monstre absolu. Huang dit que le cœur du processeur «repoussait les limites de la physique quant à la taille d’une puce». Il combine la puissance de deux puces, offrant des vitesses de 10 Tbps.
« Je détiens ici des équipements d’une valeur d’environ 10 milliards de dollars », a déclaré Huang, brandissant un prototype de Blackwell. « Le prochain coûtera 5 milliards de dollars. Heureusement pour vous tous, c’est moins cher à partir de là. Rassembler un tas de ces puces peut générer une puissance vraiment impressionnante.
La génération précédente de GPU optimisé pour l’IA s’appelait Hopper. Blackwell est entre 2 et 30 fois plus rapide, selon la façon dont vous le mesurez. Huang a expliqué qu’il a fallu 8 000 GPU, 15 mégawatts et 90 jours pour créer le modèle GPT-MoE-1.8T. Avec le nouveau système, vous pourriez utiliser seulement 2 000 GPU et utiliser 25 % de la puissance.
Ces GPU transmettent une quantité fantastique de données, ce qui constitue une très bonne transition vers un autre sujet évoqué par Huang.
Et après
Nvidia a déployé un nouvel ensemble d’outils pour les constructeurs automobiles travaillant sur des voitures autonomes. L’entreprise était déjà un acteur majeur dans le domaine de la robotique, mais elle a redoublé d’efforts en proposant de nouveaux outils permettant aux roboticiens de rendre leurs robots plus intelligents.
Huang n’arrêtait pas de répéter l’expression « usine IA » plutôt que centre de données. « Une nouvelle révolution industrielle est en train de se produire dans ces pays. [server] chambres : je les appelle des usines d’IA », a déclaré Huang.
La société a également présenté Nvidia NIM, une plateforme logicielle visant à simplifier le déploiement de modèles d’IA. NIM s’appuie sur le matériel de Nvidia comme base et vise à accélérer les initiatives d’IA des entreprises en fournissant un écosystème de conteneurs prêts pour l’IA. Il prend en charge des modèles provenant de diverses sources, notamment Nvidia, Google et Hugging Face, et s’intègre à des plateformes telles qu’Amazon SageMaker et Microsoft Azure AI. NIM étendra ses capacités au fil du temps, y compris des outils pour les chatbots génératifs d’IA.
« Tout ce que vous pouvez numériser : tant qu’il existe une structure dans laquelle nous pouvons appliquer certains modèles, cela signifie que nous pouvons apprendre les modèles », a déclaré Huang. « Et si nous pouvons apprendre les modèles, nous pouvons en comprendre le sens. Lorsque nous comprenons le sens, nous pouvons également le générer. Et nous voilà dans la révolution de l’IA générative.
Retrouvez le GTC 2024 de Nvidia :
Mise à jour: Cet article a été mis à jour pour inclure de nouvelles informations et une vidéo du discours d’ouverture.