Nvidia a la forme lorsqu’il s’agit de verrouiller les anciens GPU des nouvelles technologies et fonctionnalités. Ainsi, lorsqu’il a déployé la technologie de mise à l’échelle DLSS, en la limitant à la dernière architecture GPU de l’époque, la question s’est toujours posée de savoir si cela était strictement nécessaire. Si, peut-être, DLSS pouvait fonctionner sur des GPU plus anciens, Nvidia a-t-il simplement préféré aider la génération à vendre en limitant la technologie au matériel plus récent.
Cette suspicion n’est que renforcée par le fait que la mise à l’échelle FSR d’AMD et le XeSS d’Intel peuvent fonctionner sur une gamme beaucoup plus large de GPU, y compris ceux de concurrents (pour plus de clarté, le XeSS d’Intel était disponible en deux versions, l’une largement compatible, l’autre nécessitant Intel GPU Arc). Tout cela se résume donc à la question de savoir si la mise à l’échelle du DLSS s’appuie effectivement fortement sur ces cœurs Tensor qui accélèrent l’IA, comme le prétend Nvidia.
Eh bien, maintenant nous avons apparemment une réponse, en quelque sorte. Et il s’avère que DLSS a vraiment besoin de ces cœurs Tensor.
Une affiche intrépide de Reddit, sous le pseudo Bluedot55, a exploité les outils métriques GPU Nsight Systems de Nvidia pour explorer les charges de travail exécutées sur différentes parties d’un GPU Nvidia RTX 4090.
Bluedot55 a exécuté à la fois des scalers DLSS et tiers sur un Nvidia RTX 4090 et a mesuré l’utilisation du cœur Tensor. En ce qui concerne l’utilisation moyenne du cœur Tensor, les chiffres sous DLSS étaient extrêmement faibles, inférieurs à 1 %.
Les premières enquêtes ont même suggéré que l’utilisation maximale enregistrée était de l’ordre de 4 à 9 %, ce qui implique que même si les cœurs Tensor étaient utilisés, ils n’étaient probablement pas réellement essentiels. Cependant, l’augmentation du taux d’interrogation a révélé que l’utilisation maximale dépasse en fait 90 %, mais seulement pendant de brèves périodes mesurées en microsecondes.
Quand on y pense, cela a du sens. Le processus de mise à l’échelle doit être ultra rapide s’il ne veut pas ralentir la fréquence d’images globale. Il doit prendre une image rendue, la traiter, effectuer tous les calculs requis pour la mise à l’échelle et générer l’image entièrement mise à l’échelle avant que le pipeline 3D n’ait eu le temps de générer une nouvelle image.
Donc, ce que vous vous attendez à trouver est exactement ce que Bluedot55 a observé. Une explosion d’activité incroyablement brève mais intense à l’intérieur des cœurs Tensor lorsque la mise à l’échelle DLSS est activée.
Bien entendu, les GPU de Nvidia proposent des cœurs Tensor depuis trois générations et il faut revenir à la série GTX 10 pour trouver un GPU Nvidia qui ne supporte pas du tout le DLSS. Cependant, à mesure que Nvidia ajoute de nouvelles fonctionnalités au surensemble global DLSS, telles que la génération de trames, le matériel plus récent est laissé de côté.
Ce que montre cette enquête, c’est que même s’il est tentant de douter des motivations de Nvidia chaque fois qu’il semble bloquer les anciens GPU d’une nouvelle fonctionnalité, la réalité est peut-être simplement que les nouveaux GPU peuvent faire des choses que les anciens ne peuvent pas faire. C’est un progrès pour vous.