Le GPU Hopper GH100 de nouvelle génération de NVIDIA va être un monstre de puce en raison de sa taille de puce et de son nombre de transistors.
Le GPU NVIDIA Hopper GH100 pour les centres de données de nouvelle génération comprendrait plus de 140 milliards de transistors dans un boîtier monstre de 5 nm
Il y a quelques semaines, il a été rapporté dans une rumeur que le GPU phare Hopper GH100 de NVIDIA serait basé sur un nœud de processus de 5 nm avec une taille de puce mesurant près de 900 mm2. Cela en ferait le plus grand GPU jamais produit, non seulement sur le nœud de processus de 5 nm, mais aussi dans toute l’existence. Mais ce n’est pas tout, maintenant une nouvelle rumeur est apparue sur les forums Chiphell qui prétend que le GPU pourrait comporter plus de 140 milliards de transistors.
Eh bien, combien coûtent 140 milliards de transistors ? À titre de comparaison, les puces phares actuelles des centres de données telles que Aldebaran d’AMD pour la série Instinct MI200 et NVIDIA Ampere GA100 pour les accélérateurs A100 ne disposent que de 58,2 et 54,2 milliards de transistors, respectivement. C’est presque une augmentation globale du nombre de transistors de 2,5x pour le GPU Hopper GH100 si la rumeur est vraie.
En termes de densité, le NVIDIA Ampere A100 équivaut à 65,6 millions de transistors par mm2, tandis que le GPU Aldebaran (basé sur sa taille de matrice supposée de 790 mm2) devrait avoir une densité de 73,6 millions de transistors par mm2. En supposant que le GH100 mesure environ 900mm2, sa densité devrait facilement franchir 150M de transistors par mm2. C’est plus du double de l’augmentation de densité sur le nœud de processus de 5 nm.
Mais encore une fois, ce ne sont que des rumeurs et ne seront applicables qu’au GPU monolithique GH100 Hopper. Le GPU MCM est une entité entièrement distincte basée sur des rumeurs et viendra sous le nom de GPU GH102. Nous ne connaissons pas les spécifications exactes, sauf ce que les documents de recherche et les rumeurs nous ont dit. Mais dans l’ensemble, le GPU NVIDIA Hopper, à la fois, sous sa forme monolithique et MCM, offrira une augmentation sérieuse du nombre de transistors et proposera des solutions de conditionnement avancées de 5 nm.
GPU NVIDIA Hopper – Tout ce que nous savons jusqu’à présent
D’après les informations précédentes, nous savons que l’accélérateur GH100 de NVIDIA serait basé sur le nœud de processus 5 nm de TSMC. Hopper est censé avoir deux modules GPU de nouvelle génération, nous envisageons donc 288 unités SM au total.
Nous ne pouvons pas encore donner un aperçu du nombre de cœurs car nous ne connaissons pas le nombre de cœurs présents dans chaque SM, mais si cela doit s’en tenir à 64 cœurs par SM, nous obtenons 18 432 cœurs, soit 2,25 fois plus que le configuration complète du processeur graphique GA100. NVIDIA pourrait également exploiter davantage de cœurs FP64, FP16 et Tensor dans son GPU Hopper, ce qui augmenterait énormément les performances. Et cela va être une nécessité pour rivaliser avec le Ponte Vecchio d’Intel qui devrait comporter 1:1 FP64.
Il est probable que la configuration finale viendra avec 134 des 144 unités SM activées sur chaque module GPU et, à ce titre, nous envisageons probablement un seul dé GH100 en action. Mais il est peu probable que NVIDIA atteigne les mêmes flops FP32 ou FP64 que les MI200 sans utiliser GPU Sparsity.
Mais NVIDIA peut probablement avoir une arme secrète dans ses manches et ce serait l’implémentation GPU de Hopper basée sur la COPA. NVIDIA parle de deux GPU COPA spécialisés par domaine basés sur une architecture de nouvelle génération, un pour le segment HPC et un pour le segment DL. La variante HPC présente une approche très standard qui consiste en une conception de GPU MCM et les chiplets HBM/MC+HBM (IO) respectifs, mais la variante DL est celle où les choses commencent à devenir intéressantes. La variante DL abrite un énorme cache sur une matrice entièrement séparée qui est interconnectée avec les modules GPU.
Architecture | Capacité LLC | DRAM BW | Capacité DRAM |
---|---|---|---|
Configuration | (Mo) | (To/s) | (Go) |
GPU-N | 60 | 2.7 | 100 |
COPA-GPU-1 | 960 | 2.7 | 100 |
COPA-GPU-2 | 960 | 4.5 | 167 |
COPA-GPU-3 | 1 920 | 2.7 | 100 |
COPA-GPU-4 | 1 920 | 4.5 | 167 |
COPA-GPU-5 | 1 920 | 6.3 | 233 |
Parfait L2 | infini | infini | infini |
Différentes variantes ont été décrites avec jusqu’à 960/1920 Mo de LLC (Last-Level-Cache), des capacités de DRAM HBM2e jusqu’à 233 Go et une bande passante jusqu’à 6,3 To/s. Tout cela est théorique, mais étant donné que NVIDIA en a discuté maintenant, nous pourrions probablement voir une variante Hopper avec un tel design lors du dévoilement complet au GTC 2022.
NVIDIA Hopper GH100 ‘Spécifications préliminaires’ :
Carte graphique NVIDIA Tesla | Tesla K40 (PCI-Express) |
Tesla M40 (PCI-Express) |
Tesla P100 (PCI-Express) |
Tesla P100 (SXM2) | Tesla V100 (SXM2) | NVIDIA A100 (SXM4) | NVIDIA H100 (SMX4 ?) |
---|---|---|---|---|---|---|---|
GPU | GK110 (Képler) | GM200 (Maxwell) | GP100 (Pascal) | GP100 (Pascal) | GV100 (Volta) | GA100 (Ampère) | GH100 (Trémie) |
Nœud de processus | 28nm | 28nm | 16nm | 16nm | 12nm | 7nm | 5nm |
Transistors | 7,1 milliards | 8 milliards | 15,3 milliards | 15,3 milliards | 21,1 milliards | 54,2 milliards | À déterminer |
Taille de matrice GPU | 551 mm2 | 601mm2 | 610 mm2 | 610 mm2 | 815mm2 | 826mm2 | ~1000mm2 ? |
SMS | 15 | 24 | 56 | 56 | 80 | 108 | 134 (par module) |
TPC | 15 | 24 | 28 | 28 | 40 | 54 | À déterminer |
Cœurs CUDA FP32 par SM | 192 | 128 | 64 | 64 | 64 | 64 | 64 ? |
Cœurs CUDA FP64 / SM | 64 | 4 | 32 | 32 | 32 | 32 | 32 ? |
Cœurs CUDA FP32 | 2880 | 3072 | 3584 | 3584 | 5120 | 6912 | 8576 (par module) 17152 (complet) |
Cœurs CUDA FP64 | 960 | 96 | 1792 | 1792 | 2560 | 3456 | 4288 (par module) ? 8576 (Complet) ? |
Noyaux tenseurs | N / A | N / A | N / A | N / A | 640 | 432 | À déterminer |
Unités de textures | 240 | 192 | 224 | 224 | 320 | 432 | À déterminer |
Booster l’horloge | 875 MHz | 1114 MHz | 1329MHz | 1480 MHz | 1530 MHz | 1410 MHz | ~1400 MHz |
TOP (DNN/AI) | N / A | N / A | N / A | N / A | 125 TOP | 1248 TOP 2496 TOP avec parcimonie |
À déterminer |
FP16 Calcul | N / A | N / A | 18.7 TFLOP | 21.2 TFLOP | 30.4 TFLOP | 312 TFLOP 624 TFLOP avec parcimonie |
779 TFLOP (par module) ? 1558 TFLOP avec parcimonie (par module) ? |
Calcul FP32 | 5.04 TFLOP | 6.8 TFLOP | 10.0 TFLOP | 10.6 TFLOP | 15.7 TFLOP | 19.4 TFLOP 156 TFLOP avec parcimonie |
24.2 TFLOP (par module) ? 193.6 TFLOP avec parcimonie ? |
Calcul FP64 | 1,68 TFLOP | 0,2 TFLOP | 4.7 TFLOP | 5.30 TFLOP | 7,80 TFLOP | 19.5 TFLOP (norme 9.7 TFLOP) |
24.2 TFLOP (par module) ? (norme 12.1 TFLOP) ? |
Interface mémoire | GDDR5 384 bits | GDDR5 384 bits | HBM2 4096 bits | HBM2 4096 bits | HBM2 4096 bits | HBM2e 6144 bits | HBM2e 6144 bits |
Taille mémoire | 12 Go GDDR5 à 288 Go/s | 24 Go GDDR5 à 288 Go/s | 16 Go HBM2 à 732 Go/s 12 Go HBM2 à 549 Go/s |
16 Go HBM2 à 732 Go/s | 16 Go HBM2 à 900 Go/s | Jusqu’à 40 Go HBM2 à 1,6 To/s Jusqu’à 80 Go HBM2 à 1,6 To/s |
Jusqu’à 100 Go HBM2e à 3,5 Gbit/s |
Taille du cache L2 | 1536 Ko | 3072 Ko | 4096 Ko | 4096 Ko | 6144 Ko | 40960 Ko | 81920 Ko |
PDT | 235W | 250W | 250W | 300W | 300W | 400W | ~450-500W |
Source de nouvelles: HXL (@9550pro)