AMD a officiellement présenté sa carte accélératrice PCIe Instinct MI210 pour les centres de données, les serveurs et les postes de travail qui ont besoin de performances de calcul. L’Instinct MI210 est basé sur un GPU de calcul CDNA 2 et embarque 64 Go de mémoire HMB2E. Avec cette carte, AMD lance son offensive sur le marché du calcul haute performance (HPC) commercial, où Nvidia prospère depuis plus d’une décennie.
Contrairement aux plus grands MI250/MI250X qui utilisent deux puces, la carte AMD Instinct MI210 utilise une seule matrice de calcul graphique CDNA 2 (GCD) avec 104 unités de calcul (6656 processeurs de flux), et les 64 Go de mémoire HBM2E ECC utilisent une interface 4096 bits. . La carte dispose de connecteurs de tissu Infinity à 2 et 4 voies, de sorte que deux ou quatre cartes peuvent fonctionner ensemble dans un seul système pour doubler ou quadrupler les performances. La carte utilise un système de refroidissement passif à double largeur, elle est donc conçue pour les serveurs montés en rack ou les postes de travail spéciaux et non pour votre ordinateur de bureau typique. Il nécessite un connecteur d’alimentation PCIe auxiliaire à huit broches, ce qui signifie que sa consommation électrique maximale à l’aide de l’emplacement et du connecteur PCIe n’est que de 225 W.
En termes de capacités de calcul, la carte Instinct MI210 prend en charge les mêmes formats de données (vecteur/matrice FP64/FP32, FP16, bfloat16, INT8) que ceux pris en charge par les autres GPU de calcul CDNA 2 de la série Instinct MI200, mais en termes de performances, l’Instinct Le MI210 offre la moitié du punch de l’Instinct MI250 qui a deux GCD, se présente dans un facteur de forme de module d’accélérateur OCP (OAM) et consomme naturellement beaucoup plus d’énergie.
Le concurrent évident de la carte Instinct MI210 d’AMD est la carte PCIe A100 80 Go de Nvidia qui a été lancée il y a environ un an (dans sa version 80 Go). Sur le papier, la solution basée sur CDNA 2 d’AMD dépasse de plus de deux fois son concurrent dans les opérations vectorielles et matricielles FP64/FP32. En revanche, l’A80 de Nvidia est plus rapide avec des formats spécifiques à AI/ML comme FP16, bfloat16 et INT8.
Instinct MI210 | Nvidia A100 80 Go PCIe | Instinct MI250 | Instinct MI250X | |
Unités de calcul | 104 | – | 208 | 220 |
Processeurs de flux | 6 656 | 6 912 | 13 312 | 14 080 |
Vecteur FP64 (tenseur) | 22.6 TFLOPS | 19.5 TFLOPS | 45.3 TFLOPS | 47.9 TFLOPS |
Matrice FP64 | 45.3 TFLOPS | 9.7 TFLOPS | 90,5 TFLOPS | 95,7 TFLOPS |
Vecteur FP32 | 22.6 TFLOPS | 9.7 TFLOPS (?) | 45.3 TFLOPS | 47.9 TFLOPS |
Flotteur Tenseur FP32 | – | 156 | 312 TFLOPS | – | – |
Matrice FP32 | 45.3 TFLOPS | 19.5 TFLOPS | 90,5 TFLOPS | 95,7 TFLOPS |
FP16 | 181 TFLOPS | 312 | 624* TFLOPS | 362.1 TFLOPS | 383 TFLOPS |
bfloat16 | 181 TFLOPS | 312 | 624* TFLOPS | 362.1 HAUTS | 383 TOPS |
INT8 | 181 TOPS | 624 | 1248 HAUTS | 362.1 HAUTS | 383 TOPS |
Mémoire ECC HBM2E | 64 Go | 80 Go | 128 Go | 128 Go |
Bande passante mémoire | 1,6 To/s | 1,935 To/s | 3,2 To/s | 3,2 To/s |
Facteur de forme | carte PCIe | carte PCIe | OAM | OAM |