La décision de Nvidia de construire sa propre gamme de processeurs de serveur basés sur Arm, surnommés Grace CPU Superchip et Grace Hopper Superchip, a tracé la voie de la société pour créer des systèmes complets avec ses CPU et GPU dans la même boîte. Cette initiative s’est rapprochée de la réalité aujourd’hui alors que Nvidia a annoncé au Computex 2022 que plusieurs grands équipementiers de serveurs offriront des dizaines de systèmes de référence basés sur ses nouveaux processeurs Arm et GPU Hopper au cours du premier semestre 2023.
Nvidia nous dit que ces nouveaux systèmes, que nous décrivons ci-dessous, coexisteront avec sa gamme existante de serveurs de référence, de sorte que la société continuera à prendre en charge les processeurs x86 d’AMD et d’Intel dans un avenir prévisible.
Pour rappel, la puce CPU Grace de Nvidia est la première puce Arm uniquement CPU de la société conçue pour le centre de données et se présente sous la forme de deux puces sur une carte mère, tandis que la super puce CPU Grace Hopper combine un GPU Hopper et le GPU Grace sur la même carte. . Les processeurs basés sur Neoverse prennent en charge le jeu d’instructions Arm v9 et les systèmes sont livrés avec deux puces fusionnées avec la nouvelle technologie d’interconnexion NVLink-C2C de Nvidia.
Dans l’ensemble, Nvidia affirme que le Grace CPU Superchip sera le processeur le plus rapide du marché lorsqu’il sera livré au début de 2023 pour un large éventail d’applications, telles que l’informatique à grande échelle, l’analyse de données et le calcul scientifique. (Vous pouvez lire les détails détaillés sur le silicium ici.)
Un grand nombre d’OEM / ODM de premier ordre, comme Asus, Gigabyte, Supermicro, QCT, Wiwynn et Foxconn, ont des dizaines de nouvelles conceptions de serveurs de référence dont le lancement est prévu au premier semestre 2023, indiquant que Nvidia reste sur la bonne voie avec sa grâce Silicium du processeur. Les OEM créeront chacune des conceptions de serveur à partir de l’une des quatre conceptions de référence de Nvidia qui incluent les plans de serveur et de carte de base. Ces serveurs seront disponibles dans les formats 1U et 2U, les premiers nécessitant un refroidissement liquide.
Le système Nvidia CGX pour les applications graphiques et de jeu dans le cloud est livré avec la puce Grace Superchip à double processeur associée aux GPU A16 de Nvidia. Les serveurs Nvidia OVX sont conçus pour les applications numériques jumelles et omniverses et sont également livrés avec le Dual-CPU Grace, mais ils permettent des couplages plus flexibles avec de nombreux modèles de GPU Nvidia différents.
La plate-forme Nvidia HGX se décline en deux versions. Le premier est conçu pour les charges de travail HPC et n’est fourni qu’avec le double processeur Grace, sans GPU et avec des options d’E/S définies par l’OEM. Pendant ce temps, à l’extrême gauche, nous voyons le système HGX plus complet pour la formation à l’IA, l’inférence et les charges de travail HPC avec le processeur Grace CPU + Hopper GPU Superchip, les E/S définies par l’OEM et la prise en charge de l’option de quatrième génération NVLink pour les connexions en dehors du serveur via des commutateurs NVLink.
Notamment, Nvidia proposera l’option NVLink avec ses modèles CPU + GPU Grace Hopper Superchip, mais pas pour les systèmes alimentés par le double CPU Grace Superchip.
Ici, nous pouvons voir les deux lames 2U différentes qui peuvent alimenter les systèmes HGX. La lame Superchip CPU « HGX Grace » à double processeur a jusqu’à 1 To de mémoire LPDDR5x, fournit jusqu’à 1 To/s de bande passante mémoire, adhère à une enveloppe TDP de 500 W, peut être refroidie avec du liquide ou de l’air, et prend en charge deux lames par nœud pour un maximum de 84 nœuds par rack.
La lame HGX ‘Grace Hopper’ Superchip est livrée avec un seul processeur Grace couplé au GPU Hopper, fournissant 512 Go de mémoire LPDDR5x, 80 Go de HBM3 et jusqu’à un débit de mémoire combiné de 3,5 To/s. Comme vous vous en doutez, compte tenu de l’ajout du GPU, cette lame est livrée avec une enveloppe TDP plus élevée de 1000 W et est livrée avec un refroidissement par air ou par liquide. Cette lame plus grande limite les systèmes HGX Grace Hopper à 42 nœuds par rack.
Sans surprise, Nvidia propose tous ces systèmes avec son autre additif important qui aide l’entreprise à devenir un fournisseur de solutions : les unités de traitement de données (DPU) Bluefield-3 à 400 Gbit/s qui sont le fruit de son acquisition de Mellanox. Ces puces déchargent le travail critique des processeurs, permettant des fonctionnalités rationalisées de mise en réseau, de sécurité, de stockage et de virtualisation/orchestration.
Nvidia a déjà des systèmes CGX, OVX et HGX disponibles avec des processeurs x86 d’Intel et d’AMD, et la société nous dit qu’elle prévoit de continuer à fournir ces serveurs et de développer de nouvelles révisions avec le silicium Intel et AMD.
« x86 est un processeur très important qui représente à peu près tout le marché des GPU Nvidia aujourd’hui. Nous continuerons à prendre en charge x86, et nous continuerons à prendre en charge les processeurs basés sur Arm, offrant à nos clients sur le marché le choix d’où ils veulent déployer l’informatique accélérée », nous a dit Paresh Kharya, directeur principal de la gestion des produits et du marketing chez Nvidia.
Cela ne signifie pas pour autant que Nvidia tirera des coups de poing en termes de performances. La société a récemment présenté son processeur Grace lors d’une prévision météorologique face à Ice Lake d’Intel, affirmant que sa puce Arm est 2 fois plus rapide et 2,3 fois plus efficace. Ces mêmes puces Intel alimentent actuellement les serveurs OVX de Nvidia.
La société n’a pas non plus épargné AMD. Nvidia affirme également que son Grace CPU Superchip est 1,5 fois plus rapide dans le benchmark SPECrate_2017_int_base que les deux processeurs EPYC Rome 7742 à 64 cœurs de la génération précédente qu’il utilise dans ses systèmes DGX A100 actuels.
Nous verrons bientôt si la première incursion de Nvidia dans les processeurs est à la hauteur de ses prétentions. Les systèmes de référence CGX, OVX et HGX seront livrés au premier semestre 2023.