AMD a confirmé que le département américain du Commerce exige désormais que l’entreprise obtienne une licence d’exportation pour expédier certains de ses GPU de calcul hautes performances en Chine, ce qui affectera marginalement son activité de centre de données. Pendant ce temps, les nouvelles règles d’exportation de processeurs hautes performances imposées par le DoC frapperont sérieusement presque toutes les entreprises chinoises de haute technologie, car elles s’appuient sur l’intelligence artificielle et les GPU de calcul hautes performances de Nvidia.
AMD a notifié à ses opérations chinoises qu’elle devra désormais obtenir une licence d’exportation auprès du département américain du Commerce pour vendre ses GPU de calcul Instinct MI250 et MI250X à des clients chinois, rapporte Nikkei citant deux sources proches du dossier. AMD a confirmé à Nikkei qu’il avait reçu une alerte du DoC concernant une nouvelle exigence d’exportation pour les GPU de calcul haut de gamme. Nvidia a reçu un document similaire fin août.
AMD ne vend pas beaucoup de GPU de calcul ces jours-ci (et la plupart d’entre eux sont destinés aux superordinateurs aux États-Unis et en Europe), de sorte que les nouvelles restrictions à l’exportation en Chine n’auront pas d’impact significatif sur les activités de centre de données de l’entreprise. En revanche, Nvidia vend une cargaison de GPU de calcul à des clients en Chine, c’est pourquoi les ventes de ses centres de données pourraient subir un coup de 400 millions de dollars ce trimestre en raison des nouvelles exigences d’exportation. En outre, le DoC a restreint les ventes des GPU de calcul A100, A100X, H100 et plus puissants de Nvidia, c’est pourquoi la société tentera de détourner certaines des commandes vers les GPU de calcul A30.
Le DoC américain limite les exportations de GPU de calcul hautes performances car il ne veut pas que ces pièces tombent entre les mains de l’armée chinoise ou des agences gouvernementales associées, qui utiliseront des supercalculateurs basés sur ces GPU pour développer de nouveaux types d’armes (ou de nouvelles façons pour optimiser les conceptions de puces pour les armes et/ou le développement d’armements). Pendant ce temps, les supercalculateurs utilisés pour concevoir des armes s’appuient aujourd’hui à la fois sur l’IA pour l’orientation et sur le HPC pour les simulations.
L’A100 de Nvidia et les GPU de calcul plus avancés sont extrêmement puissants dans les charges de travail d’IA, tandis que les GPU de calcul de la série Instinct M200 d’AMD offrent de formidables performances FP64 pour les charges de travail HPC (voir le tableau pour plus de détails). Apparemment, l’Instinct MI210 d’AMD offre des performances FP64 considérablement supérieures à celles de l’A100 de Nvidia et peut même défier le prochain H100 dans les opérations matricielles FP64, mais il accuse un retard considérable en termes de performances AI. Pendant ce temps, le MI210 peut être vendu en Chine sans licence d’exportation, selon Nikkei.
Instinct MI210 | Instinct MI250 | Instinct MI250X | Nvidia A100 | Nvidia H100 | |
Unités de calcul | 104 | 208 | 220 | 108 SMS | 132 SM |
Processeurs de flux | 6 656 | 13 312 | 14 080 | 6 912 | 16 896 |
Vecteur FP64 (tenseur) | 22.6 TFLOPS | 45.3 TFLOPS | 47.9 TFLOPS | 19.5 TFLOPS | 60 TFLOPS |
Matrice FP64 | 45.3 TFLOPS | 90,5 TFLOPS | 95,7 TFLOPS | 9.7 TFLOPS | 30 TFLOPS |
Vecteur FP32 (tenseur) | 22.6 TFLOPS | 45.3 TFLOPS | 47.9 TFLOPS | 156 | 312* TFLOPS | 500 | 1000* TFLOPS |
Matrice FP32 | 45.3 TFLOPS | 90,5 TFLOPS | 95,7 TFLOPS | 19.5 TFLOPS | 60 TFLOPS |
Pic FP16 | 181 TFLOPS | 362.1 TFLOPS | 383 TFLOPS | 312 | 624* TFLOPS | 1000 | 2000* TFLOPS |
Pic bfloat16 | 181 TFLOPS | 362.1 HAUTS | 383 TOPS | 312 | 624* TFLOPS | 1000 | 2000* TFLOPS |
INT8 | 181 TOPS | 362.1 HAUTS | 383 TOPS | 624 | 1248* HAUTS | 2000 | 4000* TOPS |
Mémoire ECC HBM2E | 64 Go | 128 Go | 128 Go | 80 Go | 80 Go |
Bande passante mémoire | 1,6 To/s | 3,2 To/s | 3,2 To/s | 2,039 To/s | 3,0 To/s |
Facteur de forme | carte PCIe | OAM | OAM | SXM4 | SXM5 |
*avec parcimonie
Sur la base des chiffres de performances officiels d’AMD et de Nvidia appliqués aux exigences de licence du DoC pour tout ce qui est égal ou supérieur à l’A100 de Nvidia, il semble que le DoC se préoccupe davantage des performances de l’IA que des performances du HPC.
Mais l’IA est beaucoup plus largement utilisée que pour la recherche basée sur des superordinateurs. Par exemple, de nombreuses sociétés commerciales – telles qu’Alibaba, Baidu et Tencent – utilisent l’intelligence artificielle pour leurs services, donc sans puces Nvidia haut de gamme, elles devront s’en tenir à des GPU de calcul A30 moins performants. Ou ils pourraient utiliser des instances cloud d’IA d’AWS ou de Google, rapporte Reuters.
« C’est un impact sur les ressources », a déclaré un ancien cadre d’AMD Chine lors d’une conversation avec Reuters. « Ils travailleront toujours sur les mêmes projets, ils avanceront toujours; cela les ralentit. »
Pendant ce temps, de nombreuses entreprises chinoises développent des GPU chez elles et les produisent chez TSMC. Certains de ces GPU de calcul ou accélérateurs d’IA, tels que le BR100 de Biren ou le Kunlun II de Baidu, peuvent même défier l’A100 de Nvidia en termes de performances et le H100 en termes de complexité.
Cela dit, bien que les exigences de licence d’exportation pour les GPU comparables ou supérieures à l’A100 de Nvidia puissent ralentir certains projets en Chine (en supposant que le DoC n’approuve pas certains clients), cela ne les arrêtera pas complètement.