L’architecture GPU Ada de nouvelle génération de Nvidia recevrait une augmentation massive des tailles de cache L2, comme partagé par @harukaze5719 et @xinoassassin1 sur Twitter. La nouvelle fuite allègue que les tailles L2 ont été multipliées par 16 sur la nouvelle architecture par rapport aux GPU actuels de la série GeForce RTX 30 de Nvidia, et sont à égalité avec les GPU de la série Radeon RX 6000 d’AMD avec la technologie Infinity Cache.
Le dé phare Ada, AD102, obtiendrait la plus grande taille de cache de toute la gamme avec un impressionnant 96 Mo (16 Mo par contrôleur de mémoire 64 bits), tandis que les puces AD103 et AD104 pourraient recevoir 64 Mo de cache à la place. AD106 aura 48 Mo et AD107 viendra avec le moins de cache à 32 Mo. Néanmoins, même la taille du cache de l’AD107 éclipse celle des GPU les plus puissants de Nvidia fonctionnant aujourd’hui sur la matrice GA102 qui est livrée avec seulement 6 Mo (512 Ko par contrôleur de mémoire 32 bits).
Alors, résumons Lovelace et Hopper…@kopite7kimi @xinoassassin1 pic.twitter.com/hioRcvn8fb2 mars 2022
Ada aura un énorme L2 @VideoCardz pic.twitter.com/sjMGXttX0Y2 mars 2022
Il n’est pas difficile de comprendre pourquoi Nvidia fait ce choix peu orthodoxe avec son architecture Ada. Les rapports précédents indiquaient qu’Ada pourrait avoir jusqu’à 71 % de cœurs en plus qu’Ampère. Bien sûr, avec plus de cœurs, vous devez augmenter la bande passante mémoire pour vous assurer que chacun est constamment alimenté en données, et sans passer par une interface mémoire plus large, l’amélioration de l’utilisation de la bande passante avec un cache plus grand est une bonne option.
AMD a été la première entreprise à démontrer tout le potentiel des grands caches internes sur les GPU, en présentant ses GPU de la série Radeon RX 6000 basés sur RNDA2. Avec RDNA2, AMD a présenté son Infinity Cache, qui a ajouté un énorme cache L3 au GPU avec les autres caches L0, L1 et L2.
Par rapport aux générations précédentes de GPU Nvidia et AMD, ces caches sont beaucoup plus volumineux, la puce RDNA2 supérieure possédant 128 Mo de cache Infinity. Lors de tests avec des GPU tels que le RX 6800 XT et le RX 6900 XT, il a été constaté que ces énormes tailles de cache pouvaient complètement atténuer les goulots d’étranglement du bus mémoire 256 bits relativement faible du GPU, qui pâlit par rapport au RTX 3080 de Nvidia avec un 320 bits. bus et un bus 384 bits pour le RTX 3090. Les RTX 3080 et 3090 de Nvidia exécutent également une mémoire GDDR6X plus rapide, tandis qu’AMD s’en tient aux circuits intégrés GDDR6 classiques.
Ainsi, malgré la configuration de mémoire apparemment considérablement sous-alimentée des RX 6800 XT et RX 6900 XT, ces GPU ont pu affronter les homologues de Nvidia grâce au grand pool d’Infinity Cache.
Ada sera la première fois que Nvidia retirera vraiment une page du livre de jeu d’AMD et combattra probablement ses exigences plus élevées en matière de nombre de cœurs avec des caches plus grands au lieu d’augmenter purement et simplement la bande passante brute avec des circuits intégrés plus rapides et des largeurs de bus plus grandes. Non seulement Nvidia utilise prétendument de grands caches L2, mais il garde également apparemment la même largeur de bus que les GPU Ampère de la génération actuelle, selon la fuite. Cela signifie que Nvidia s’appuiera davantage sur les caches internes pour maintenir une bande passante mémoire élevée, tout comme AMD.
Nous avons récemment vu l’introduction de modules GDDR6X 21 Gbps et de nouvelles feuilles de route Samsung pour GDDR6 + et GDDR7. Nvidia peut tirer parti de ces circuits intégrés à cadence plus élevée pour gagner encore plus de bande passante mémoire. D’autre part, AMD a choisi de s’en tenir aux modules GDDR6 standard pour l’intégralité de sa gamme RDNA2 – même le 6900 XT LC utilise 18,5 GDDR6.
Des rapports récents indiquent que les matrices RDNA3 pourraient avoir jusqu’à 256 Mo à 512 Mo de cache à l’infini, ce qui serait 2,7x et 5,4x plus grand que les projections de taille de cache L2 actuelles d’Ada. Cependant, comme avec la plupart des architectures de mise en cache, il y a un point de rendements décroissants, et même un cache L3 de 512 Mo peut ne pas améliorer radicalement les performances par rapport à un cache de 128 Mo. Quoi qu’il en soit, les choses s’annoncent assez intéressantes dans l’espace GPU plus tard cette année.