Selon les rumeurs, le GPU NVIDIA Hopper GH100 hébergerait plus de 140 milliards de transistors dans un boîtier massif de 5 nm

Le GPU Hopper GH100 de nouvelle génération de NVIDIA va être un monstre de puce en raison de sa taille de puce et de son nombre de transistors.

Le GPU NVIDIA Hopper GH100 pour les centres de données de nouvelle génération comprendrait plus de 140 milliards de transistors dans un boîtier monstre de 5 nm

Il y a quelques semaines, il a été rapporté dans une rumeur que le GPU phare Hopper GH100 de NVIDIA serait basé sur un nœud de processus de 5 nm avec une taille de puce mesurant près de 900 mm2. Cela en ferait le plus grand GPU jamais produit, non seulement sur le nœud de processus de 5 nm, mais aussi dans toute l’existence. Mais ce n’est pas tout, maintenant une nouvelle rumeur est apparue sur les forums Chiphell qui prétend que le GPU pourrait comporter plus de 140 milliards de transistors.

NVIDIA ajoute la prise en charge des GPU pour ordinateurs portables GeForce RTX 2050, MX570 et MX550 à Linux via les derniers pilotes

Eh bien, combien coûtent 140 milliards de transistors ? À titre de comparaison, les puces phares actuelles des centres de données telles que Aldebaran d’AMD pour la série Instinct MI200 et NVIDIA Ampere GA100 pour les accélérateurs A100 ne disposent que de 58,2 et 54,2 milliards de transistors, respectivement. C’est presque une augmentation globale du nombre de transistors de 2,5x pour le GPU Hopper GH100 si la rumeur est vraie.

En termes de densité, le NVIDIA Ampere A100 équivaut à 65,6 millions de transistors par mm2, tandis que le GPU Aldebaran (basé sur sa taille de matrice supposée de 790 mm2) devrait avoir une densité de 73,6 millions de transistors par mm2. En supposant que le GH100 mesure environ 900mm2, sa densité devrait facilement franchir 150M de transistors par mm2. C’est plus du double de l’augmentation de densité sur le nœud de processus de 5 nm.

Mais encore une fois, ce ne sont que des rumeurs et ne seront applicables qu’au GPU monolithique GH100 Hopper. Le GPU MCM est une entité entièrement distincte basée sur des rumeurs et viendra sous le nom de GPU GH102. Nous ne connaissons pas les spécifications exactes, sauf ce que les documents de recherche et les rumeurs nous ont dit. Mais dans l’ensemble, le GPU NVIDIA Hopper, à la fois, sous sa forme monolithique et MCM, offrira une augmentation sérieuse du nombre de transistors et proposera des solutions de conditionnement avancées de 5 nm.

GPU NVIDIA Hopper – Tout ce que nous savons jusqu’à présent

D’après les informations précédentes, nous savons que l’accélérateur GH100 de NVIDIA serait basé sur le nœud de processus 5 nm de TSMC. Hopper est censé avoir deux modules GPU de nouvelle génération, nous envisageons donc 288 unités SM au total.

Les blocs d’alimentation ASUS ROG Thor ne sont pas entièrement conformes à la norme PCIe Gen 5

Nous ne pouvons pas encore donner un aperçu du nombre de cœurs car nous ne connaissons pas le nombre de cœurs présents dans chaque SM, mais si cela doit s’en tenir à 64 cœurs par SM, nous obtenons 18 432 cœurs, soit 2,25 fois plus que le configuration complète du processeur graphique GA100. NVIDIA pourrait également exploiter davantage de cœurs FP64, FP16 et Tensor dans son GPU Hopper, ce qui augmenterait énormément les performances. Et cela va être une nécessité pour rivaliser avec le Ponte Vecchio d’Intel qui devrait comporter 1:1 FP64.

Il est probable que la configuration finale viendra avec 134 des 144 unités SM activées sur chaque module GPU et, à ce titre, nous envisageons probablement un seul dé GH100 en action. Mais il est peu probable que NVIDIA atteigne les mêmes flops FP32 ou FP64 que les MI200 sans utiliser GPU Sparsity.

Mais NVIDIA peut probablement avoir une arme secrète dans ses manches et ce serait l’implémentation GPU de Hopper basée sur la COPA. NVIDIA parle de deux GPU COPA spécialisés par domaine basés sur une architecture de nouvelle génération, un pour le segment HPC et un pour le segment DL. La variante HPC présente une approche très standard qui consiste en une conception de GPU MCM et les chiplets HBM/MC+HBM (IO) respectifs, mais la variante DL est celle où les choses commencent à devenir intéressantes. La variante DL abrite un énorme cache sur une matrice entièrement séparée qui est interconnectée avec les modules GPU.

Architecture Capacité LLC DRAM BW Capacité DRAM
Configuration (Mo) (To/s) (Go)
GPU-N 60 2.7 100
COPA-GPU-1 960 2.7 100
COPA-GPU-2 960 4.5 167
COPA-GPU-3 1 920 2.7 100
COPA-GPU-4 1 920 4.5 167
COPA-GPU-5 1 920 6.3 233
Parfait L2 infini infini infini

Différentes variantes ont été décrites avec jusqu’à 960/1920 Mo de LLC (Last-Level-Cache), des capacités de DRAM HBM2e jusqu’à 233 Go et une bande passante jusqu’à 6,3 To/s. Tout cela est théorique, mais étant donné que NVIDIA en a discuté maintenant, nous pourrions probablement voir une variante Hopper avec un tel design lors du dévoilement complet au GTC 2022.

NVIDIA Hopper GH100 ‘Spécifications préliminaires’ :

Carte graphique NVIDIA Tesla Tesla K40
(PCI-Express)
Tesla M40
(PCI-Express)
Tesla P100
(PCI-Express)
Tesla P100 (SXM2) Tesla V100 (SXM2) NVIDIA A100 (SXM4) NVIDIA H100 (SMX4 ?)
GPU GK110 (Képler) GM200 (Maxwell) GP100 (Pascal) GP100 (Pascal) GV100 (Volta) GA100 (Ampère) GH100 (Trémie)
Nœud de processus 28nm 28nm 16nm 16nm 12nm 7nm 5nm
Transistors 7,1 milliards 8 milliards 15,3 milliards 15,3 milliards 21,1 milliards 54,2 milliards À déterminer
Taille de matrice GPU 551 mm2 601mm2 610 mm2 610 mm2 815mm2 826mm2 ~1000mm2 ?
SMS 15 24 56 56 80 108 134 (par module)
TPC 15 24 28 28 40 54 À déterminer
Cœurs CUDA FP32 par SM 192 128 64 64 64 64 64 ?
Cœurs CUDA FP64 / SM 64 4 32 32 32 32 32 ?
Cœurs CUDA FP32 2880 3072 3584 3584 5120 6912 8576 (par module)
17152 (complet)
Cœurs CUDA FP64 960 96 1792 1792 2560 3456 4288 (par module) ?
8576 (Complet) ?
Noyaux tenseurs N / A N / A N / A N / A 640 432 À déterminer
Unités de textures 240 192 224 224 320 432 À déterminer
Booster l’horloge 875 MHz 1114 MHz 1329MHz 1480 MHz 1530 MHz 1410 MHz ~1400 MHz
TOP (DNN/AI) N / A N / A N / A N / A 125 TOP 1248 TOP
2496 TOP avec parcimonie
À déterminer
FP16 Calcul N / A N / A 18.7 TFLOP 21.2 TFLOP 30.4 TFLOP 312 TFLOP
624 TFLOP avec parcimonie
779 TFLOP (par module) ?
1558 TFLOP avec parcimonie (par module) ?
Calcul FP32 5.04 TFLOP 6.8 TFLOP 10.0 TFLOP 10.6 TFLOP 15.7 TFLOP 19.4 TFLOP
156 TFLOP avec parcimonie
24.2 TFLOP (par module) ?
193.6 TFLOP avec parcimonie ?
Calcul FP64 1,68 TFLOP 0,2 TFLOP 4.7 TFLOP 5.30 TFLOP 7,80 TFLOP 19.5 TFLOP
(norme 9.7 TFLOP)
24.2 TFLOP (par module) ?
(norme 12.1 TFLOP) ?
Interface mémoire GDDR5 384 bits GDDR5 384 bits HBM2 4096 bits HBM2 4096 bits HBM2 4096 bits HBM2e 6144 bits HBM2e 6144 bits
Taille mémoire 12 Go GDDR5 à 288 Go/s 24 Go GDDR5 à 288 Go/s 16 Go HBM2 à 732 Go/s
12 Go HBM2 à 549 Go/s
16 Go HBM2 à 732 Go/s 16 Go HBM2 à 900 Go/s Jusqu’à 40 Go HBM2 à 1,6 To/s
Jusqu’à 80 Go HBM2 à 1,6 To/s
Jusqu’à 100 Go HBM2e à 3,5 Gbit/s
Taille du cache L2 1536 Ko 3072 Ko 4096 Ko 4096 Ko 6144 Ko 40960 Ko 81920 Ko
PDT 235W 250W 250W 300W 300W 400W ~450-500W

Source de nouvelles: HXL (@9550pro)

Source-123