Les GPU NVIDIA ont alimenté la révolution de l’IA. Ses nouvelles puces Blackwell sont jusqu’à 30 fois plus rapides

En moins de deux ans, les puces H100 de NVIDIA, utilisées par presque toutes les sociétés d’IA dans le monde pour former de grands modèles de langage qui alimentent des services comme ChatGPT, en ont fait l’une des sociétés les plus valorisées au monde. Lundi, NVIDIA a annoncé une plate-forme de nouvelle génération appelée Blackwell, dont les puces sont entre sept et 30 fois plus rapides que le H100 et consomment 25 fois moins d’énergie.

« Les GPU Blackwell sont le moteur de cette nouvelle révolution industrielle », a déclaré Jensen Huang, PDG de NVIDIA, lors de l’événement GTC annuel de la société à San Jose, auquel ont participé des milliers de développeurs et que certains ont comparé à un concert de Taylor Swift. « L’IA générative est la technologie déterminante de notre époque. En travaillant avec les entreprises les plus dynamiques au monde, nous réaliserons la promesse de l’IA pour chaque secteur », a ajouté Huang dans un communiqué de presse.

Les puces Blackwell de NVIDIA portent le nom de David Harold Blackwell, un mathématicien spécialisé dans la théorie des jeux et les statistiques. NVIDIA affirme que Blackwell est la puce la plus puissante au monde. Il offre une amélioration significative des performances aux entreprises d’IA avec des vitesses de 20 pétaflops, contre seulement 4 pétaflops fournis par le H100. Une grande partie de cette vitesse est rendue possible grâce aux 208 milliards de transistors des puces Blackwell, contre 80 milliards dans le H100. Pour y parvenir, NVIDIA a connecté deux grandes puces capables de communiquer entre elles à des vitesses allant jusqu’à 10 téraoctets par seconde.

Signe à quel point notre révolution moderne de l’IA dépend des puces NVIDIA, le communiqué de presse de la société comprend les témoignages de sept PDG qui dirigent collectivement des entreprises valant des milliards de dollars. Ils comprennent Sam Altman, PDG d’OpenAI, Satya Nadella, PDG de Microsoft, Sundar Pichai, PDG d’Alphabet, Mark Zuckerberg, PDG de Meta, Demis Hassabis, PDG de Google DeepMind, Larry Ellison, PDG d’Oracle, Michael Dell, PDG de Dell, et Elon Musk, PDG de Tesla.

« Il n’y a actuellement rien de mieux que le matériel NVIDIA pour l’IA », déclare Musk dans le communiqué. « Blackwell offre d’énormes progrès en termes de performances et accélérera notre capacité à proposer des modèles de pointe. Nous sommes ravis de continuer à travailler avec NVIDIA pour améliorer le calcul de l’IA », déclare Altman.

NVIDIA n’a pas révélé combien coûteraient les puces Blackwell. Ses puces H100 coûtent actuellement entre 25 000 et 40 000 dollars par puce, selon CNBCet des systèmes entiers alimentés par ces puces peuvent coûter jusqu’à 200 000 $.

Malgré leur coût, les puces NVIDIA sont très demandées. L’année dernière, les délais de livraison ont atteint 11 mois. Et l’accès aux puces IA de NVIDIA est de plus en plus considéré comme un symbole de statut pour les entreprises technologiques qui cherchent à attirer les talents en IA. Plus tôt cette année, Zuckerberg a vanté les efforts de l’entreprise pour construire « une quantité massive d’infrastructures » pour alimenter les efforts d’IA de Meta. « À la fin de cette année », a écrit Zuckerberg, « nous aurons environ 350 000 Nvidia H100 – et au total environ 600 000 H100 équivalents H100 de calcul si vous incluez d’autres GPU. »

Source-145