Bien que les GPU de calcul comme le H100 de Nvidia appartiennent formellement à la catégorie des unités de traitement graphique, ils peuvent à peine restituer des graphiques car ils ne disposent pas de suffisamment de matériel spécialisé. Il s’avère que le H100 de Nvidia, une carte qui coûte plus de 30 000 $, est moins performant que les GPU intégrés dans des références telles que 3DMark et Red Dead Redemption 2, comme l’a découvert Geekerwan.
La carte H100 de Nvidia est basée sur le processeur GH100 de la société avec 14 592 cœurs CUDA qui prennent en charge une variété de formats de données utilisés pour les charges de travail AI et HPC, notamment FP64, TF32, FP32, FP16, INT8 et FP8. En revanche, les GPU grand public de Nvidia, tels que l’AD102 de Nvidia, ne prennent correctement en charge que le FP32. Pendant ce temps, le GH100 ne dispose que de 24 unités d’exploitation raster (ROP) et n’a pas de moteurs d’affichage ni de sorties d’affichage. De plus, Nvidia n’optimise pas les pilotes Hopper pour les applications de jeu.
Mais apparemment, il est toujours possible de rendre les graphiques de rendu H100 de Nvidia et même de prendre en charge le lancer de rayons. Seulement, il rend les graphiques assez lentement. Une carte H100 marque 2681 points dans 3DMark Time Spy, ce qui est encore plus lent que les performances de la Radeon 680M intégrée d’AMD, qui marque 2710.
Mais faire tourner des jeux sur une carte qui coûte plus de 30 000 $ n’a pas beaucoup de sens et Nvidia n’a certainement pas conçu le GH100 pour le rendu graphique. Bien que le GH100 de Nvidia intègre du matériel graphique spécifique, il n’est pas conçu pour offrir des performances substantielles dans les jeux, c’est pourquoi il est plus lent que la Radeon 680M intégrée d’AMD.
Bien que le GPU de calcul phare de Nvidia ne soit pas destiné aux graphiques, il surpasse tout dans les applications d’IA et de HPC des centres de données et c’est exactement pour cela qu’il est fait.