La GeForce RTX 3090 Ti de Nvidia promet de se disputer une place sur la meilleure carte graphique pour les jeux lorsqu’elle sera disponible dans une semaine ou deux, mais cette carte nécessitera beaucoup de puissance et beaucoup de refroidissement. Les premières images des cartes graphiques GeForce RTX 3090 Ti des partenaires de Nvidia montrent des systèmes de refroidissement massifs de 3,5 à 4 emplacements de large.
La GeForce RTX 3090 Ti de Nvidia utiliserait un GPU GA102 à part entière avec 10 752 cœurs CUDA (contre 10 496 sur la GeForce RTX 3090) couplés à 24 Go de mémoire GDDR6X fonctionnant à 21 Gbit/s sur une interface 384 bits. L’unité a toutes les chances de devenir la carte graphique la plus rapide du monde, mais cela signifie également une consommation d’énergie assez extrême. Les rapports indiquent que GeForce RTX 3090 Ti aura une puissance de carte thermique recommandée (TBP) d’environ 450 W. Pourtant, certains des partenaires de Nvidia peuvent atteindre 480 W (il vaut mieux ne pas penser au coût d’une telle carte et garder à l’esprit que la GeForce RTX 3090 actuelle de Nvidia a une puissance nominale de 350 W).
Mais 450W – 480W ou une puissance thermique nécessite un excellent refroidissement, et avec le refroidissement par air, les choses se compliquent. Le GA102 de Nvidia est un GPU très complexe, et avec ses 28,3 milliards de transistors, il veut de la puissance. Mais la mémoire GDDR6X avec son encodage PAM4 consomme également beaucoup d’énergie, de sorte que la carte émet de grandes quantités de chaleur.
C’est dans cette situation que des systèmes de refroidissement assez importants entrent en jeu. VideoCardz a rassemblé des images des cartes partenaires GeForce RTX 3090 Ti de Nvidia (y compris celles de Colorful et EVGA); ils ont soit 3,5 à 4 emplacements de large, soit un refroidissement liquide hybride.
Un système de refroidissement à quatre emplacements est, sans aucun doute, remarquable. Pourtant, cela nous rappelle d’autres sous-systèmes graphiques que nous avons rencontrés auparavant.
Nous étions en 2006 et la bataille pour le meilleur sous-système graphique entre ATI Technologies et Nvidia faisait rage. Il était alors possible d’augmenter les performances graphiques en ajoutant des GPU dans un sous-système, c’est pourquoi Nvidia et ATI ont introduit leurs technologies GPU bidirectionnelles SLI et CrossFire. Mais ce n’était pas suffisant pour Nvidia, qui pensait qu’il y avait de la place pour des sous-systèmes graphiques ultra haut de gamme impliquant quatre GPU.
Pour rendre ces SLI à 4 voies possibles, Nvidia a développé sa GeForce 7900 GX2 à double GPU (pour les OEM de PC, pour les utilisateurs réguliers, elle a suivi avec la GeForce 7950 GX2). Quad SLI ne fonctionnait pas correctement (pourtant l’intérêt pour cette configuration était extrêmement élevé), mais il a donné le ton pour des performances et une consommation d’énergie extrêmes.
La GeForce 7900 GX2 de Nvidia consommait environ 110 W de puissance et nécessitait un bloc d’alimentation lourd (selon les normes de 2006), et deux de ces cartes nécessitaient 220 W de puissance. Aujourd’hui, une seule puce avec sa configuration supérieure fonctionnant à des horloges élevées peut utiliser environ 450 W ou plus. Amusant, cette consommation électrique avec un seul processeur graphique est comparable à celle de quatre GPU à l’époque.
Là encore, le GA102 de Nvidia est plus rapide et plus performant que presque tous les GPU conçus. Alors peut-être que ça vaut le coup ?