Suite aux rumeurs selon lesquelles le gouvernement américain pourrait interdire les ventes de GPU de calcul haut de gamme à la Chine, le prix des puces A800 de Nvidia sur le marché chinois a considérablement augmenté. Le prix a bondi de 20% en seulement deux semaines, selon un rapport de DigiTimes.
Le prix standard du GPU de calcul A800 de Nvidia dans le facteur de forme PCIecard était d’environ 90 000 CNY (12 400 USD) par unité il y a à peine deux semaines. À l’heure actuelle, le prix approche les 110 000 CNY (15 000 USD) par unité, soit une augmentation de 20 %.
La question des prix gonflés des puces, ainsi qu’une pénurie pressante de puissance de calcul en Chine, ont attiré l’attention lors de la Conférence mondiale sur l’intelligence artificielle 2023. L’acquisition de puces d’IA haut de gamme via les voies officielles en Chine est devenue de plus en plus difficile. Et par conséquent, les entreprises technologiques chinoises qui ont besoin de puissance de calcul ont eu recours aux services de cloud computing fournis par des sociétés comme Amazon AWS et Microsoft Azure. Ces services sont généralement utilisés pour de grandes tâches de formation de modèles linguistiques, avec des centres de données situés à Singapour ou en Chine.
Chen Pei, vice-président de Vibranium Consulting, a déclaré que la location de puissance de calcul GPU dans le cloud est nettement plus coûteuse que la construction de ses propres clusters de calcul GPU, avec des prix pour les grands fournisseurs de cloud oscillant entre 2 et 3 dollars par heure et par GPU. Faisant écho à cela, Sun Jin de CloudWalk Technology, une société chinoise d’IA et de vision par ordinateur, a révélé que les entreprises chinoises n’ont souvent d’autre choix que de supporter les coûts élevés de la location de puissance de cloud computing. Cela survient malgré le fait que ces coûts sont 50 à 100 % plus élevés que ceux de l’établissement de leurs propres centres de données.
Cependant, la capacité des fournisseurs chinois à continuer d’utiliser à l’avenir des services de cloud computing basés aux États-Unis, tels qu’AWS et Azure, est incertaine, car cela dépendra des mesures réglementaires prises par le gouvernement américain, qui pourraient impliquer la nécessité de licences ou même une interdiction totale.
L’industrie informatique chinoise est confrontée à de multiples défis importants, notamment le processus fastidieux de création de grappes informatiques d’IA, les difficultés à se procurer des puces d’IA haut de gamme à l’étranger et une pénurie de puces d’IA produites dans le pays, telles que les BR104 et BR100 de Biren. À la lumière des limitations potentielles d’accès à la puissance de cloud computing européenne et américaine, on s’attend de plus en plus à ce que les fabricants chinois de semi-conducteurs se concentrent uniquement sur le raffinement de leurs processus de fabrication de puces et progressent progressivement dans l’innovation logicielle.
Ligne 0 – Cellule 0 | Biren BR104 | Nvidia A800 | Nvidia A100 | Nvidia H100 |
Facteur de forme | Carte FHFL | Carte FHFL (?) | SXM4 | SXM5 |
Nombre de transistors | ? | 54,2 milliards | 54,2 milliards | 80 milliards |
Nœud | N7 | N7 | N7 | 4N |
Pouvoir | 300W | ? | 400W | 700W |
FP32 TFLOPS | 128 | 13,7 (?) | 19.5 | 60 |
TF32+ TFLOPS | 256 | ? | ? | ? |
TF32 TFLOPS | ? | 109/218* (?) | 156/312* | 500/1000* |
FP16 TFLOPS | ? | 56 (?) | 78 | 120 |
Tenseur TFLOPS FP16 | ? | 218/437* | 312/624* | 1000/2000* |
BF16 TFLOPS | 512 | 27 | 39 | 120 |
Tenseur BF16 TFLOPS | ? | 218/437* | 312/624* | 1000/2000* |
INT8 | 1024 | ? | ? | ? |
Tenseur INT8 TFLOPS | ? | 437/874* | 624/1248* | 2000/4000* |