Le GPU Nvidia Gimps H100 Hopper sera vendu sous le nom de H800 à la Chine

Vous ne trouverez pas le GPU H100 (Hopper) de Nvidia sur la liste des meilleures cartes graphiques. Cependant, le point fort du H100 réside dans l’intelligence artificielle (IA), ce qui en fait un GPU convoité dans l’industrie de l’IA. Et maintenant que tout le monde saute dans le train de l’IA, le H100 de Nvidia est devenu encore plus populaire.

Nvidia affirme que le H100 offre des performances d’entraînement IA jusqu’à 9 fois plus rapides et des performances d’inférence jusqu’à 30 fois plus rapides que le précédent A100 (Ampere). Avec des performances de ce niveau, il est facile de comprendre pourquoi tout le monde veut mettre la main sur un H100. De plus, Reuters (s’ouvre dans un nouvel onglet) a rapporté que Nvidia avait modifié le H100 pour se conformer aux règles d’exportation afin que le fabricant de puces puisse vendre le H100 modifié en tant que H800 à la Chine.

L’année dernière, les responsables américains ont mis en place plusieurs réglementations pour empêcher Nvidia de vendre ses GPU A100 et H100 à des clients chinois. Les règles limitaient les exportations de GPU avec des taux de transfert de données puce à puce inférieurs à 600 Go/s. La vitesse de transfert est primordiale dans le monde de l’IA, où les systèmes doivent déplacer d’énormes quantités de données pour former les modèles d’IA, tels que ChatGPT. Entraver le taux de transfert de données puce à puce entraîne une baisse significative des performances, car les taux de transfert plus lents augmentent le temps nécessaire au transfert des données, ce qui augmente à son tour le temps de formation.

Avec l’A100, Nvidia a réduit l’interconnexion de 600 Go/s du GPU à 400 Go/s et l’a rebaptisé A800 pour le commercialiser sur le marché chinois. Nvidia adopte une approche identique au H100.

Selon la source chinoise de l’industrie des puces de Reuters, Nvidia a réduit le taux de transfert de données de puce à puce sur le H800 à environ la moitié du H100. Cela laisserait le H800 avec une interconnexion limitée à 300 Go/s. C’est un coup de performance plus important que par rapport à l’A100 et à l’A800, où ce dernier a souffert d’un taux de transfert de données puce à puce inférieur de 33 %. Cependant, le H100 est nettement plus rapide que l’A100, ce qui pourrait expliquer pourquoi Nvidia a imposé une limite de débit de transfert de données puce à puce plus sévère sur le premier.

Reuters a contacté un porte-parole de Nvidia pour savoir ce qui différencie le H800 du H100. Cependant, le représentant de Nvidia a seulement déclaré que « nos produits de la série 800 sont entièrement conformes aux réglementations sur le contrôle des exportations ».

Nvidia compte déjà trois des plus importantes sociétés technologiques chinoises utilisant le H800 : Alibaba Group Holding, Baidu Inc et Tencent Holdings. La Chine a interdit ChatGPT ; par conséquent, les géants de la technologie se font concurrence pour produire un modèle domestique de type ChatGPT pour le marché chinois. Et même si un H800 avec la moitié du taux de transfert puce à puce sera sans aucun doute plus lent que le H100 complet, il ne le sera toujours pas lent. Avec des entreprises utilisant potentiellement des milliers de GPU Hopper, en fin de compte, nous devons nous demander si cela signifiera utiliser plus de H800 pour accomplir le même travail que moins de H100.

Source-138