Nvidia a offert de nouvelles informations sur son prochain Grace CPU Superchip, un monstre à 144 cœurs serveur processeur conçu pour accélérer les charges de travail AI et HPC.
Avant sa présentation à Hot Chips 34, la société a révélé le processeur est fabriqué sur une version spécialisée du nœud de processus 4 nm de TSMC qui est réglé pour les caractéristiques spécifiques de ses produits.
Team Green a également publié des chiffres d’efficacité énergétique pour son interconnexion NVLink-C2C (le « pont » qui rend possible la superpuce à double processeur), qui consommerait 5 fois moins d’énergie que l’interface PCIe 5.0 tout en fournissant jusqu’à 900 Go/s de débit, entre autres données de référence.
Grâce CPU Superpuce
Dévoilé au GTC 2022 plus tôt cette année, le Grace CPU Superchip est composé de deux processeurs Grace reliés via une interconnexion NVLink à haut débit, de la même manière que le M1 Ultra d’Apple.
Le résultat est un monstre à 144 cœurs avec 1 To/s de bande passante mémoire et 396 Mo de cache sur puce qui, selon Nvidia, sera le processeur le plus rapide du marché pour les charges de travail allant de l’IA au HPC et plus encore.
« Un nouveau type de centre de données a émergé – des usines d’IA qui traitent et affinent des montagnes de données pour produire de l’intelligence », a déclaré le PDG de Nvidia, Jensen Huang, lors de l’annonce de la nouvelle puce.
« Le Grace CPU Superchip offre les meilleures performances, la bande passante mémoire et les plates-formes logicielles Nvidia dans une seule puce et brillera en tant que CPU de l’infrastructure IA mondiale. »
Bien qu’il ne soit pas clair quand la nouvelle superpuce sera largement disponible, Nvidia a récemment révélé qu’elle figurera dans une gamme de nouveaux serveurs pré-construits lancés au premier semestre 2023. Les nouveaux systèmes – comme Asus, Gigabyte, Supermicro et d’autres – seront basés sur quatre nouvelles conceptions de référence 2U taquinées par Nvidia au Computex 2022.
Les quatre conceptions sont chacune conçues pour répondre à des cas d’utilisation spécifiques, du cloud gaming aux jumeaux numériques, HPC et AI. Nvidia affirme que les conceptions peuvent être modifiées facilement par les partenaires pour « faire rapidement tourner les cartes mères en tirant parti de leurs architectures système existantes ».
L’entrée de Nvidia sur le marché des serveurs va encore accélérer l’avancée des puces basées sur Arm, qui devraient grignoter la part de x86, l’architecture sur laquelle reposent les puces Intel Xeon et AMD EPYC.
L’adoption de puces basées sur Arm dans le centre de données a également été motivée par le développement de silicium basé sur Arm personnalisé parmi nuage fournisseurs et autres géants du web. La Série graviton développé par AWS s’est avéré être un grand succès, la société chinoise AliBaba travaille sur un nouveau processeur 128 cœurset Microsoft et Meta sont selon la rumeur développer également des puces internes.
«De nombreuses startups ont tenté de faire Arm dans le centre de données au fil des ans. Au début, la proposition de valeur concernait la faible consommation d’énergie, mais les opérateurs de centres de données se soucient vraiment des performances. Il s’agit d’emballer autant de calculs que possible dans un rack », Chris Bergey, SVP Infrastructure chez Arm, dit TechRadar Pro plus tôt cette année.
« Avec Arm, les fournisseurs de cloud découvrent qu’ils peuvent obtenir plus de calcul, car ils peuvent mettre plus de cœurs dans une enveloppe de puissance. Et nous ne sommes qu’à la pointe de l’iceberg.
Passant par Le matériel de Tom (s’ouvre dans un nouvel onglet)