Un autre lundi, un autre épisode de DF Direct Weekly. Moi-même, John Linneman et Alex Battaglia nous frayons un chemin à travers les sujets de la semaine, y compris les premières réactions aux aperçus de Hellblade 2 de la semaine dernière – mais ce dont je veux parler ici, c’est de la façon dont Alex a passé son temps la semaine dernière. Dans le Direct de cette semaine, vous verrez ses tests avec PresentMon 2.0 d’Intel, qui pourraient bien changer le visage de l’analyse comparative des PC… dans une certaine mesure, au moins.
PresentMon constitue la base de presque tous les outils d’analyse comparative réputés. Intel a été le pionnier et ajoute de nouvelles fonctionnalités (nous en reparlerons sous peu), mais il est utilisé par CapFrameX, AMD OCAT et même Nvidia FrameView. Tous mélangent et assortissent diverses fonctionnalités, mais c’est PresentMon qui est au cœur de celui-ci, ce qui rend les derniers ajouts intéressants. Nous en avons aperçu pour la première fois dans une vidéo réalisée par Gamers Nexus et nous avons également vu les nouvelles fonctionnalités utilisées « avec colère », pour ainsi dire, dans l’excellente évaluation des performances de Dragon’s Dogma 2 par GN.
Tout d’abord, parlons de PresentMon de manière plus globale. C’est un excellent outil. Essentiellement, il donne des lectures précises du temps d’image pour toute exécution de référence donnée, il calcule les fréquences d’images et les différents percentiles utilisés dans la plupart des critiques de GPU et de CPU (à l’exception du nôtre – nous testons toujours sur la base des images réelles qui émergent du PC). Vous obtenez également d’excellentes mesures sur des facteurs importants, notamment la consommation d’énergie, l’utilisation du cœur du processeur, etc. Beaucoup plus. Le premier changement majeur d’Intel a été d’implémenter ce qu’il appelle « CPU Busy » et « GPU Busy ». Plutôt que de simplement vous indiquer combien de temps il faut pour rendre et présenter une image, nous pouvons désormais voir combien de temps est occupé par le CPU et le GPU pour fournir une image donnée – ce qui est inestimable pour déterminer l’équilibre global de votre système.
Avec ces deux variables, vous pouvez viser « l’équilibre », c’est-à-dire maximiser l’utilisation de ces composants pour atteindre des performances optimales. Personnellement, chez DF, nous avons tendance à nous intéresser davantage à la cohérence, soit via un verrouillage plus rigoureux sur une fréquence d’images cible (par exemple 60 ips ou 120 ips), soit en veillant à ce que le jeu soit toujours (ou aussi proche) limité par le GPU. . Toute image donnée a tendance à se présenter de la même manière que celle qui la précède et celle qui la suit, ce qui signifie des durées d’image cohérentes et une expérience perceptuellement plus fluide, ce qui est bon pour les moniteurs VRR. En comparaison, le fait d’être limité en CPU entraîne presque toujours un bégaiement flagrant.
- 0:00:00 Présentation
- 0:01:04 News 01 : les aperçus de Hellblade 2 tombent !
- 0:26:53 News 02 : Piratage du portail PS corrigé avant la sortie
- 0:34:41 News 03 : Le FPS PO’ed des années 90 obtient le remaster de Nightdive
- 0:41:07 News 04 : C-Smash VRS arrive dans Meta Quest
- 0:52:03 News 05 : Les expériences PresentMon d’Alex
- 1:06:57 News 06 : Exigences de la campagne : arrêtez de tuer les jeux !
- 1:16:19 News 07 : Intel met à jour XeSS avec des modes révisés
- 1:22:04 Supporter Q1 : Serait-il plus pratique de cibler le 1440p que le 4K pour les modes performances ?
- 1:28:11 Supporter Q2 : Dragon’s Dogma 2 a une densité de PNJ peu impressionnante, alors pourquoi ne peut-il pas atteindre 60 ips sur les consoles ?
- 1:35:17 Supporter Q3 : Pourquoi certains développeurs implémentent-ils des limites de fréquence d’images incorrectes de 30 ips ?
- 1:43:36 Supporter Q4 : Pourquoi la compensation de faible fréquence d’images n’est-elle pas la valeur par défaut avec 120 Hz et VRR sur PS5 ?
- 1:50:05 Supporter Q5 : La PS5 Pro pourrait-elle être suffisamment puissante pour exécuter des jeux avancés avec trace de chemin ?
- 1:55:04 Supporter Q6 : Alors que Microsoft ouvre potentiellement la Xbox à des tiers, l’approche 3DO était-elle correcte depuis le début ?
- 2:01:21 Supporter Q7 : Aurait-il été préférable de renoncer à la PS5 Pro et de raccourcir cette génération de console ?
Un autre nouveau point de données intéressant est la latence du « clic vers le photon », qui correspond essentiellement au temps nécessaire à la saisie de l’utilisateur pour s’enregistrer à l’écran. Nvidia dispose de cette fonction dans son propre outil FrameView basé sur des « marqueurs » que le développeur doit ajouter à son code (ce qui se produit naturellement si vous utilisez DLSS 3 frame-gen). La solution d’Intel devrait « fonctionner ». La surveillance de la latence est cruciale non seulement pour vous dire pourquoi un jeu semble difficile à contrôler, mais aussi pour lui attribuer un chiffre réel, ce qui prend beaucoup de temps sans métriques internes.
Les arguments en faveur de la mise à niveau de notre analyse comparative basée sur la capture d’images sont donc solides : nous sommes fiers de garantir que nos données sont aussi proches que possible de l’expérience de jeu, ce qui signifie que rien ne peut surpasser les résultats dérivés de la sortie du GPU, acquis via carte de capture. Cependant, la richesse des données de PresentMon plaide fortement en faveur de leur utilisation (ou même de leur fusion avec nos propres outils). En plus de cela, le PresetMon 2.0 récemment publié présente une autre nouvelle innovation : l’erreur d’animation. Il s’agit d’une forme de bégaiement qui peut ou non être présente dans la sortie vidéo.
Dans le Direct de cette semaine, Alex parle du tristement célèbre Star Wars Jedi : Survivor. Même si le jeu est verrouillé à 60 images par seconde, le mouvement semble subjectivement « désactivé ». L’examen de CPU Busy par rapport à GPU Busy montre que même si le GPU fonctionne correctement, le CPU a clairement des problèmes de cohérence. En bref, PresentMon nous donne des données objectives qui expliquent la mauvaise expérience subjective. Et ce n’est qu’un début : avec une vision plus globale de tous les domaines de performances des PC, de nouvelles informations pourraient émerger.
Gérer les paramètres des cookies
Cependant, je dirais également que la quantité de données est potentiellement écrasante pour l’utilisateur final, ce qui signifie que l’utilisation des visualisations actuelles à l’écran de PresentMon n’a qu’une certaine utilité pour le travail que nous effectuons – alors peut-être que la voie à suivre est pour réorganiser nos outils graphiques actuels afin de présenter les nouvelles données plus clairement et nous permettre de choisir les variables à afficher afin de mettre en évidence les points que nous faisons valoir.
Jusqu’à présent, nous avons parlé de critiques de jeux, mais l’aspect « toutes les données, tout le temps » de PresentMon fonctionnant de concert avec notre configuration graphique en temps réel signifie que nous pouvons visualiser toutes les données que nous voulons, mais aussi donc avec plusieurs entrées (différents GPU par exemple). À l’heure actuelle, nous capturons des mesures de durée d’image, mais ce n’est peut-être pas tout. Un GPU AMD et Nvidia peuvent fonctionner de manière identique, mais d’autres aspects tels que la charge du processeur ou la consommation d’énergie peuvent être très différents. Un graphique de fréquence d’images montrant des performances identiques donne une impression différente de celui qui inclut également des mesures de consommation d’énergie en temps réel pouvant montrer qu’une carte a un net avantage sur l’autre.
Ce n’est que le début des conversations que nous avons actuellement chez Digital Foundry alors que nous envisageons de nous éloigner d’un système que nous utilisons (avec diverses mises à niveau) depuis 2013. Notre système de capture d’images actuel s’intègre au système graphique Eurogamer. pour générer dynamiquement des graphiques à barres et des lectures de temps d’image basées sur nos captures, mais avec les données de PresentMon, il n’y a pas de limite en termes d’amélioration des évaluations de composants ou même de proposition de recommandations de produits. Il est encore tôt, mais l’ambition est là et les outils de base ne cessent de s’améliorer.