Il y a un peu plus d’une semaine, un brevet AMD intitulé Distributed Geometry a été publié par l’Office américain des brevets. Le brevet lui-même a été déposé par AMD en avril de cette année. Le brevet détaille une approche entièrement chiplet des GPU, dans laquelle la charge de travail de rendu est répartie sur un ensemble de puces, plutôt que d’avoir une seule puce massive gérant tout le traitement. Rien n’indique que nous verrons cela utilisé dans une carte graphique Radeon de si tôt, bien sûr, mais c’est l’évolution naturelle de ce que nous avons déjà vu dans RDNA 3.
J’ai reçu des nouvelles du brevet sur la chaîne YouTube RedGamingTech et c’est une lecture fascinante. Bien que le document soit intitulé « Géométrie distribuée », il s’agit en réalité d’un rendu distribué. Prenez le GPU Navi 31 actuel d’AMD, son plus grand processeur graphique utilisé dans la série Radeon RX 7900. Cela utilise des chipsets, mais ceux-ci ne contiennent que deux interfaces VRAM et une tranche de L3 Infinity Cache ; le reste du GPU réside dans un seul bloc (appelé GCD, matrice de calcul graphique).
Comme pour tous les GPU, il existe un processeur de charge de travail central qui envoie des tâches de rendu à l’un des nombreux blocs de shaders de la puce. Chaque unité reçoit un morceau de géométrie à parcourir, à convertir en pixels, puis à les ombrer. Cela se fait depuis des décennies et AMD et Nvidia ont presque perfectionné le processus dans leurs GPU.
Le brevet d’AMD détaille une approche dans laquelle ce processeur central est abandonné et le seul morceau de silicium est remplacé par un certain nombre de chipsets, chacun gérant ses propres tâches. Les instructions de rendu sont envoyées aux GPU dans une longue séquence appelée liste de commandes et parmi celles-ci se trouvent des éléments appelés appels de dessin.
Ce sont des instructions pour prendre un tas de géométrie (c’est-à-dire des triangles sous la forme d’une collection de sommets et d’indices) et ensuite passer par tout le processus de déplacement, de redimensionnement, etc. avant de finalement le transformer en un bloc de pixels colorés, stockés dans la VRAM.
Chaque chiplet à géométrie distribuée du brevet détermine quels triangles doivent être ombrés, puis s’en va et le fait. Le brevet explique qu’il existe plusieurs façons pour les chiplets de savoir lequel fait quelle géométrie, la méthode la plus simple étant une affaire de tourniquet (c’est-à-dire que chaque chiplet parcourt à tour de rôle la liste des polygones).
Cela semble rendre les choses beaucoup plus compliquées, alors quels sont les avantages potentiels de cette démarche ? Comme nous l’avons vu avec le passage réussi d’AMD aux chipsets pour ses processeurs, il s’agit principalement de réduire les coûts de fabrication du matériel haut de gamme. Les très grands GPU sont moins rentables à fabriquer que les plus petits, car chaque plaquette de silicium produit moins de puces fonctionnelles. Les puces mémoire du Navi 31 sont si petites qu’une plaquette typique de 12 pouces peut en produire plus d’un millier, et même si un grand nombre d’entre elles sont défectueuses, vous disposez toujours d’une petite montagne de puces fonctionnelles.
AMD souhaite clairement adopter la même approche avec le reste du GPU. Les nœuds de processus de pointe sont extrêmement coûteux, donc si un GPU haut de gamme peut être créé en rassemblant simplement une pile de minuscules chipsets dans le même package, le coût global de sa fabrication peut être réduit.
Cependant, de sérieux défis doivent être surmontés pour que ce soit un moyen efficace de construire un GPU. Les premiers sont les exigences internes en matière de bande passante et de latence. Dans un processeur graphique normal, plusieurs téraoctets de données peuvent être lus et écrits entre les caches chaque seconde, ce qui ne prend que quelques nanosecondes pour que chaque transaction ait lieu. En passant aux chipsets, le système utilisé pour tout connecter au cache partagé et aux contrôleurs de mémoire doit être vraiment hardcore.
Heureusement, AMD possède déjà une grande expérience dans cette situation. Les Infinity Fanout Links utilisés dans la série RX 7900, pour connecter le GCD aux chipsets de mémoire, fournissent des masses de bande passante et la latence n’est pas bien pire que celle observée dans un GPU complet, tel que le Navi 21 (RX 6900XT). Ce qui serait nécessaire pour cette conception à géométrie distribuée est un pas en avant, mais si quelqu’un peut le comprendre, ce sera AMD.
L’autre problème qu’il devra résoudre est de s’assurer que tous les chiplets restent aussi occupés que possible. Chacune déterminant sa propre charge de travail, il existe un risque que certaines unités restent inactives parce que les autres peuvent accomplir ce qui est nécessaire assez rapidement. Il y a aussi le problème des blocages de traitement, où un chiplet ne peut pas réellement accomplir complètement une tâche car il nécessite des informations géométriques voisines.
Rien de tout cela n’est abordé dans le brevet, donc pour l’instant, nous devons simplement réfléchir à la question et nous demander quand AMD annoncera la technologie, le cas échéant. Je soupçonne que cela est prévu pour RDNA 5, plutôt que pour la prochaine itération, mais il y a une petite chance que ce ne soit pas le cas. La dernière fois que j’ai vu un brevet technologique radical d’AMD, c’était pour ses unités de texture de lancer de rayons.
Cela a été publié en juin 2019, près de deux ans après la soumission, et la fonctionnalité a été implémentée dans RDNA 2. AMD a commencé à promouvoir cette architecture en 2020 et les premiers produits dotés des nouveaux processeurs sophistiqués à texture RT ont été lancés en novembre de la même année. Il existe donc une possibilité, quoique plutôt faible, qu’AMD nous propose un tout nouveau monde de chipsets GPU l’année prochaine, avec RDNA 4.
Cela ne semble pas être le cas, car les rumeurs générales indiquent qu’AMD se concentrera sur son portefeuille grand public pour 2024. Je serais beaucoup plus heureux d’attendre 2025 ou même 2026 pour voir cela en action, comme ils le donneraient à AMD. plus de temps pour régler tous les problèmes.
Les jeux sur PC ont désespérément besoin du même niveau de concurrence sur le marché des GPU que sur le secteur des CPU, et la seule façon d’y parvenir est que les cartes Radeon soient aussi bonnes que les GeForce mais avec un prix nettement inférieur.
Bien sûr, les GPU d’AMD sont actuellement moins chers que ceux de Nvidia, mais ils restent extrêmement chers. Vous vous souvenez quand Zen a été commercialisé et nous a offert un processeur à huit cœurs et 16 threads pour seulement 329 $, alors qu’Intel vendait encore des modèles à six cœurs pour 370 $ ? Regardez maintenant où en est AMD avec ses processeurs de jeu : c’est également ce dont nous avons besoin de ses GPU.