Nvidia prend de l’avance et dévoile les puces IA « Rubin » de nouvelle génération dans le discours d’ouverture

Agrandir / Le PDG de Nvidia, Jensen Huang, prononce son discours clé avant le Computex 2024 à Taipei le 2 juin 2024.

Dimanche, le PDG de Nvidia, Jensen Huang, est allé au-delà de Blackwell et a dévoilé la plate-forme GPU d’accélération de l’IA de nouvelle génération de la société lors de son discours au Computex 2024 à Taiwan. Huang a également détaillé ses plans pour un cycle annuel de mise à niveau de type tic-tac de ses plates-formes d’accélération de l’IA, mentionnant une prochaine puce Blackwell Ultra prévue pour 2025 et une plate-forme ultérieure appelée « Rubin » prévue pour 2026.

Les GPU des centres de données de Nvidia alimentent actuellement une grande majorité de modèles d’IA basés sur le cloud, tels que ChatGPT, à la fois dans les phases de développement (formation) et de déploiement (inférence), et les investisseurs surveillent de près l’entreprise, avec l’espoir de maintenir ce fonctionnement. en allant.

Au cours du discours d’ouverture, Huang a semblé quelque peu hésitant à faire l’annonce de Rubin, peut-être hésitant à invoquer ce qu’on appelle l’effet Osborne, selon lequel l’annonce prématurée par une entreprise de la prochaine itération d’un produit technologique ronge les ventes de l’itération en cours. « C’est la toute première fois que ce prochain clic est effectué », a déclaré Huang, brandissant sa télécommande de présentation juste avant l’annonce de Rubin. « Et je ne sais pas encore si je vais le regretter ou non. »

Keynote Nvidia au Computex 2023.

La plateforme Rubin AI, attendue pour 2026, utilisera HBM4 (une nouvelle forme de mémoire à large bande passante) et NVLink 6 Switch, fonctionnant à 3 600 Go/s. Suite à ce lancement, Nvidia publiera une itération tic-tac appelée « Rubin Ultra ». Bien que Huang n’ait pas fourni de spécifications détaillées pour les produits à venir, il a promis des économies de coûts et d’énergie liées aux nouveaux chipsets.

Au cours du discours d’ouverture, Huang a également présenté un nouveau processeur basé sur ARM appelé « Vera », qui sera présenté sur une nouvelle carte accélératrice appelée « Vera Rubin », aux côtés de l’un des GPU Rubin.

Tout comme l’architecture Grace Hopper de Nvidia, qui combine un processeur « Grace » et un GPU « Hopper » pour rendre hommage à l’informaticien pionnier du même nom, Vera Rubin fait référence à Vera Florence Cooper Rubin (1928-2016), une astronome américaine. qui a fait des découvertes dans le domaine de l’astronomie de l’espace lointain. Elle est surtout connue pour ses travaux pionniers sur les taux de rotation des galaxies, qui ont fourni des preuves solides de l’existence de la matière noire.

Un risque calculé

Le PDG de Nvidia, Jensen Huang, révèle le
Agrandir / Le PDG de Nvidia, Jensen Huang, révèle pour la première fois la plateforme d’IA « Rubin » lors de son discours au Computex 2024 le 2 juin 2024.

La révélation de Rubin par Nvidia n’est pas une surprise dans le sens où la plupart des grandes entreprises technologiques travaillent continuellement sur des produits de suivi bien avant leur sortie, mais elle est remarquable car elle survient trois mois seulement après que la société a révélé Blackwell, qui est à peine sorti de La porte et pas encore largement expédiée.

Pour le moment, l’entreprise semble être à l’aise en se dépassant avec de nouvelles annonces et en rattrapant son retard plus tard ; Nvidia vient d’annoncer que son « Superchip » GH200 Grace Hopper, dévoilé il y a un an au Computex 2023, est désormais en pleine production.

Alors que les actions de Nvidia sont en hausse et que la société possède environ 70 à 95 % de part de marché des GPU pour centres de données, la révélation de Rubin est un risque calculé qui semble provenir d’un lieu de confiance. Cette confiance pourrait s’avérer déplacée si une soi-disant « bulle IA » éclate ou si Nvidia évalue mal les capacités de ses concurrents. L’annonce pourrait également provenir de la pression exercée pour poursuivre la croissance astronomique de la capitalisation boursière de Nvidia avec des promesses incessantes d’amélioration technologique.

En conséquence, Huang était impatient de présenter les projets de l’entreprise visant à continuer à pousser la technologie de fabrication du silicium à ses limites et de diffuser largement que Nvidia prévoit de continuer à lancer de nouvelles puces d’IA à un rythme régulier.

« Notre entreprise a un rythme d’un an. Notre philosophie de base est très simple : construire l’ensemble du centre de données, désagréger et vous vendre des pièces au rythme d’un an, et nous poussons tout jusqu’aux limites technologiques », a déclaré Huang lors de la conférence de dimanche. Discours d’ouverture du Computex.

Malgré les récentes performances de Nvidia sur le marché, l’activité de l’entreprise pourrait ne pas se poursuivre indéfiniment. Avec beaucoup d’argent investi dans l’espace IA des centres de données, Nvidia n’est pas le seul à développer des puces accélératrices. Des concurrents comme AMD (avec la série Instinct) et Intel (avec Gaudi 3) veulent également conquérir une part du marché des GPU pour centres de données, loin de la maîtrise actuelle de Nvidia dans le domaine des accélérateurs d’IA. Et Sam Altman d’OpenAI tente d’encourager la production diversifiée de matériel GPU qui alimentera la prochaine génération de modèles d’IA de l’entreprise dans les années à venir.

Source-147