jeudi, mars 20, 2025

Nvidia dévoile ses GPU Rubin pour 2026, avec l’arrivée du Rubin Ultra en 2027 et l’ajout du Feynman à sa feuille de route.

Nvidia a présenté des évolutions de sa feuille de route pour 2026 et 2027, mettant en avant les solutions Rubin, avec des performances remarquables. Le modèle Rubin NVL144 atteindra 3,6 PFLOPS et 1,2 ExaFLOPS pour l’entraînement FP8. La bande passante HBM4e augmentera, et une nouvelle configuration NVL576 permettra d’accueillir jusqu’à 576 GPU, atteignant 15 ExaFLOPS pour le calcul d’inférence. Des améliorations significatives sont attendues dans les interconnexions et la gestion de la bande passante.

Mises à jour de la feuille de route Nvidia pour 2026 et 2027

Nvidia a récemment dévoilé des évolutions passionnantes de sa feuille de route pour les centres de données lors de la conférence GTC 2025. L’entreprise a présenté les configurations des futures solutions Rubin, en l’honneur de l’astronome Vera Rubin, ainsi que du modèle Rubin Ultra. Alors que la production du Blackwell B200 est maintenant achevée et que le Blackwell B300 est attendu pour la seconde moitié de 2025, Nvidia anticipe déjà les avancées des deux prochaines années, facilitant ainsi la transition pour ses partenaires.

Performances et innovations des solutions Rubin

Un point notable est la redéfinition de la nomenclature des produits. Selon le PDG Jensen Huang, le Blackwell B200, qui est en réalité composé de deux dies par GPU, aurait dû être nommé NV144L plutôt que Blackwell B200 NVL72. À l’avenir, les solutions Rubin suivront cette nouvelle approche. Le rack Rubin NVL144 sera conçu pour s’intégrer avec l’infrastructure existante Blackwell NVL72. Pour comparaison, le Blackwell Ultra B300 NVL72 affichera des performances de 1,1 PFLOPS en calcul FP4 dense, tandis que le Rubin NVL144, avec ses 144 dies GPU, atteindra 3,6 PFLOPS. De plus, Rubin offrira 1,2 ExaFLOPS pour l’entraînement FP8, contre 0,36 ExaFLOPS pour le B300, représentant une amélioration significative de 3,3 fois en termes de performances de calcul.

Rubin marquera également le passage à HBM4, avec HBM4e utilisé pour Rubin Ultra. Bien que la capacité mémoire reste à 288 Go par GPU, la bande passante augmentera de manière impressionnante, passant de 8 To/s à 13 To/s. Un nouveau NVLink plus rapide permettra de doubler le débit total à 260 To/s, tandis qu’un lien CX9 entre les racks offrira 28,8 To/s, double de la bande passante précédente. En outre, la famille Rubin sera complétée par le CPU Vera, successeur des CPU Grace, avec 88 cœurs ARM personnalisés et 176 threads, garantissant une connexion efficace avec les GPU Rubin grâce à une interface NVLink core-à-core de 1,8 To/s.

La version Rubin Ultra, prévue pour la seconde moitié de 2027, promet également des avancées majeures. Elle introduira une nouvelle configuration, NVL576, qui pourra accueillir jusqu’à 576 GPU dans un seul rack. Cette solution innovante permettra d’atteindre 15 ExaFLOPS de calcul d’inférence avec FP4 et 5 ExaFLOPS pour l’entraînement FP8, soit environ quatre fois la capacité du Rubin NVL144. Les GPU de cette nouvelle configuration intégreront quatre dies par package, augmentant ainsi la densité de calcul.

Avec 365 To de mémoire par rack et une bande passante HBM4e de 4,6 Po/s, la nouvelle génération semble prometteuse. Cependant, il reste encore des questions sur la gestion de la bande passante par GPU, surtout avec l’augmentation du nombre de dies. Les interconnexions CX9 bénéficieront également d’une amélioration significative, atteignant 115,2 To/s entre les racks, illustrant l’engagement de Nvidia à pousser les limites de la technologie des centres de données.

Alors que des détails supplémentaires sur Rubin et Rubin Ultra sont attendus, Nvidia montre déjà qu’elle est prête à planifier l’avenir des centres de données, un domaine nécessitant une anticipation minutieuse. De plus, après Rubin, la prochaine architecture de centre de données sera nommée d’après le physicien Richard Feynman, suggérant que des CPU Richard et des GPU Feynman pourraient voir le jour si Nvidia suit cette tendance.

- Advertisement -

Latest