Êtes-vous prêt pour un nouveau champ de bataille dans la guerre entre AMD et Nvidia ? Eh bien, il s’avère que vous pouvez obtenir des résultats très différents lorsque vous pilotez certains moniteurs HDR selon que vous utilisez du matériel graphique AMD ou Nvidia.
En tant que moniteurs sans boîte (s’ouvre dans un nouvel onglet) explique, les raisons en sont complexes. Ce n’est pas nécessairement qu’AMD ou Nvidia sont meilleurs. Mais cela ajoute certainement une couche de complexité à l’ensemble « quelle carte graphique dois-je acheter? » énigme. Comme si les choses n’étaient pas déjà assez compliquées, qu’en est-il du lancer de rayons, du FSR par rapport au DLSS et de tous les autres éléments que vous devez peser lors du choix d’une nouvelle carte graphique.
L’enquête porte ici sur l’Alienware 34 AW3423DWF. Il s’agit de la version légèrement moins chère du moniteur de jeu OLED 34 pouces d’Alienware qui abandonne la technologie G-Sync de Nvidia pour un rafraîchissement adaptatif plus générique et AMD FreeSync.
L’Alienware 34 AW3423DW non F équipé de G-Sync (s’ouvre dans un nouvel onglet) fonctionne en fait différemment avec le HDR, ce qui vous donne une idée de la complexité de tout cela. Quoi qu’il en soit, le problème concerne les performances de l’AW3423DWF lors de l’utilisation du mode HDR 1000.
C’est le mode que vous devez utiliser pour atteindre la luminosité maximale revendiquée par Alienware de 1000 nits, par opposition au mode True Black HDR, qui ne dépasse pas 400 nits. Par défaut, le mode HDR 1000 augmente simplement la luminosité de tout à l’écran.
Ce n’est pas vraiment idéal. Au lieu de cela, le HDR 1000 devrait augmenter la luminosité des objets les plus brillants, mais laisser les objets plus sombres destinés à atteindre des niveaux de luminosité inférieurs à 400 nits seuls. C’est le but du HDR : augmenter le contraste entre les objets clairs et sombres, pas seulement augmenter la luminosité globale.
La différence entre les GPU AMD et Nvidia survient lorsque vous essayez d’ajuster l’Alienware pour obtenir une luminosité plus précise. Dans le menu des paramètres, il existe une option pour utiliser le « mappage de tonalité source » qui configure essentiellement le moniteur pour utiliser la courbe de luminosité codée dans le contenu source pour dicter la luminosité.
Le problème est que cette option n’est disponible que pour les utilisateurs de GPU Nvidia. La raison pour laquelle? Selon Monitors Unboxed, c’est parce que les GPU AMD utilisent à la place le propre mappage de tonalité d’AMD, qui fait partie de l’ensemble de fonctionnalités FreeSync.
Pour être clair, bien que ce problème ne soit pas universel pour tous les moniteurs HDR, il est révélateur de la complexité de la mise en œuvre du HDR. La façon dont un moniteur donné implémente les pipelines de mappage de tonalité pour le contenu HDR peut à son tour signifier que vous obtenez des résultats très différents selon le GPU utilisé.
Depuis son introduction sur PC, le HDR a été une affaire de hasard. Mais c’est la première fois que nous voyons des rapports de performances HDR radicalement différentes selon le choix du fournisseur de GPU. À tout le moins, nous garderons nos scanners ouverts pour savoir comment la nouvelle génération d’écrans HDR OLED et mini-LED fonctionne avec les GPU AMD et Nvidia lors de l’exécution de contenu HDR.
Vous pouvez regarder la vidéo complète (s’ouvre dans un nouvel onglet) sur Monitors Unboxed si vous voulez en savoir plus.