Nous ne manquons pas de temps en ce moment, mais comme il ne s’agit pas non plus de jouer toute la journée, profitons-en pour revenir sur un point encore flou pour certains d’entre vous à en croire les questions que nous recevons sur le sujet la synchronisation des images PC. Entre les différentes technologies aux noms parfois obscurs, la guéguerre AMD/NVIDIA et l’impact sur nos jeux, il est temps d’y voir plus clair. Synchronisation des montres !
Le nœud du problème
Avant de rentrer dans les détails de la synchronisation, rappelons ce qui se passe à l’écran lorsque la carte graphique et l’écran travaillent chacun de leur côté : le GPU reçoit de l’information et génère un nombre d’images aléatoire et variable.
Imaginez : vous jouez à Borderlands 3 (première erreur, vous feriez mieux de lancer Doom Eternal ^^) l’arène est vide, vous êtes au-delà des 100 images par secondes. Soudain 10 ennemis vous tombent sur le gras, tout s’anime, vous courrez dans tous les sens et votre GPU envoie 70 images en 1 seconde, puis 90 la seconde suivante, votre moniteur non synchronisé n’arrive pas à gérer ces informations, et là, c’est le drame. Un phénomène de tearing apparait à l’écran, sorte de déchirement de l’image due à une superposition de deux frames.
Conscients du problème, les développeurs de jeux ainsi que les fondeurs ont tenté de limiter les cartes vidéo aux capacités du moniteur. Ainsi, vous cochiez V-Sync dans les options de votre jeu et le problème était réglé. Enfin… celui du tearing.
Manque de chance, le GPU se tournant les pouces et retenant quelques images pour lui, les joueurs constataient un phénomène d’input lag, soit un court délai entre la commande envoyée par votre clavier, souris ou manette et l’affichage à l’écran. Cette technologie provoquait aussi parfois du stuttering, soit une saccade de l’image.
Le remède étant aussi pénalisant que le mal, AMD et NVIDIA ont amélioré le système en exploitant de la mémoire tampon (triple buffering), ou en créant des synchronisations telles que l’Adaptive V-Sync (différente de l’Adaptive Sync sur laquelle nous reviendrons plus tard). Il ne s’agissait que de cache-misère et très vite est apparu le besoin de faire une solution propriétaire pour un meilleur résultat.
G-sync, FreeSync, la guerre des formats
Se concentrer sur la seule carte vidéo, quel que soit le moniteur, n’était pas la solution la plus appropriée. Des modèles d’écrans se sont alors vus dotés d’un module calé entre la dalle et votre GeForce ou Radeon. Il permet à l’écran d’afficher exactement le nombre d’images envoyé par le GPU. En somme, les deux éléments se synchronisent. Le tearing est totalement éliminé, tout comme l’input lag. Le stuttering est réduit à la portion congrue. G-Sync et FreeSync sont les noms donnés par NVIDIA et AMD à ces technologies propriétaires, toutes deux efficaces, mais présentant quelques différences.
NVIDIA, largement dominant sur son marché, a créé une solution hardware que chaque constructeur de moniteur doit intégrer à son écran moyennant quelques deniers. Cette « taxe » sur la synchronisation explique le tarif élevé des écrans compatibles.
De son côté, le FreeSync exploite une technologie de fréquence de rafraichissement variable, l’Adaptiv Sync (patience, on va y venir) en réalité disponible depuis 2009 via le eDP (Embedded Display Port). Celle-ci n’était pas forcément consacrée aux jeux vidéo, mais en y apposant sa patte, AMD l’a rendu « gamer compatible » et n’a pas manqué de faire grimper dans une moindre mesure le coût des moniteurs FreeSync.
NVIDIA et AMD ont fait évoluer leur système de VRR afin d’intégrer le HDR, une faible latence quelle que soit la définition, des flous de mouvements quasi imperceptibles etc.
Notez que NVIDIA distribue avec parcimonie l’estampille G-Sync et la consacre à des modèles haut de gamme, ce qui explique aussi les tarifs. Les consommateurs qui ne rechignaient pas à y mettre le prix constataient que le rendu bénéficiait aussi d’un minimum de ghosting (flou de mouvement) ou d’autres aberrations de l’image. De plus, les écrans compensaient les chutes de framerate en deçà de la fréquence plancher, un point qu’AMD aura fini par maitriser en ajoutant à ses pilotes le LFC ou Low Framerate Compensation.
VRR, Adaptiv Sync, l’heure de la trêve
Le Variable Refresh Rate (ou VRR) regroupe les technologies permettant à un moniteur d’afficher un taux de rafraîchissement variable. G-Sync et FreeSync en sont donc 2 représentants auxquels il faut ajouter l’Adaptive-Sync (on y arrive !).
Depuis 2014, la norme VESA Adaptive-Sync est en quelque sorte un concurrent de NVIDIA et la version « ouverte » du FreeSync. La grande différence est qu’il s’agit ici d’une norme, donc non propriétaire et standardisée.
NVIDIA annonce en 2019 l’ouverture tant attendue de son format à l’Adaptive Sync. Un écran FreeSync (par définition, aussi Adaptive-Sync) peut ainsi bénéficier du G-Sync proposé par le GPU sous certaines conditions. Il est nécessaire d’avoir une carte GTX10.. ou RTX 20.. et de connecter votre écran en Display Port, à moins de posséder une GeForce de génération Turing soit GTX 16… et RTX 20.. dont l’interface HDMI 2.1 supporte désormais l’Adaptive-Sync. Les écrans concernés sont dit G-Sync compatible, ils doivent répondre à certains critères tels qu’un intervalle d’image par seconde de 2,4:1, ce qui correspond par exemple à du 60/144 hz. Dans les faits, que NVIDIA ait posé son agrément ou non, la majorité des écrans gamers sortis depuis 2020 ont toutes les chances d’être G-Sync Compatible.
Maintenant que la synchronisation est ouverte à tous, NVIDIA préfère communiquer sur les améliorations de l’image telles que le DLSS, le RTX, l’avantage d’aller au-delà du 144 Hz etc !
Chaque constructeur a fait évoluer ses formats.
Côté AMD, au FreeSync traditionnel, s’ajoute le FreeSync Premium accordé aux écrans d’au moins 120 Hz et supportant le LFC puis le FreeSync Premium Pro se dotant en plus de la compatibilité HDR400 et d’une faible latence sur les définitions standards et hautes.
Chez NVIDIA, vous trouvez désormais le G-Sync compatible pour les écrans pourvus d’une plage VRR de 2,4:1 et assez méritants sur la partie technique pour que NVIDIA accorde ses faveurs. Puis le G-Sync traditionnel, collé sur des modèles ayant subi une batterie de tests afin de garantir une très haute qualité d’image (et une facture idoine), et enfin le G-Sync Ultimate, qui ajoute le HDR 1000, un rétroéclairage multizone, de très hautes résolutions avec un taux de rafraichissement élevé et une étiquette de prix qui donne le vertige.
En résumé, AMD et NVIDIA gardent leurs standards afin de poser une certification sur les écrans moyens et haut de gamme, mais si vous disposez d’une carte vidéo et d’un écran gaming très récent, vous profitez de la synchronisation quel que soit le combo GPU/moniteur choisi et ça c’est une excellente nouvelle !