NVIDIA : je pense donc G-Sync

Par
Le 05 février 2014
 0

NVIDIA : je pense donc G-Sync

Présentée le 18 octobre 2013 à Montréal, la technologie G-Sync de NVIDIA n'a pas encore été intégrée nativement dans un moniteur déjà commercialisé. Il y a eu des annonces de faites au CES, mais pour l'heure, afin de tester le G-Sync, c'est un Asus VG248QE customisé avec un module G-Sync que NVIDIA nous a prêté. Grabuge ou gruge ?

Choisir entre déchirements ou saccades


0064000007129398-photo-g-sync.jpg
NVIDIA pose ainsi la problématique, que les joueurs par ailleurs connaissent bien. Quand on joue sans V-Sync, on obtient la cadence d'image la plus élevée que la carte graphique sache traiter mais on souffre alors du phénomène de déchirement (tearing dans le jargon). Et quand on active le V-Sync, on réduit fortement ce tearing mais on récolte des saccades (stutter) et des retards d'affichage (lag). La peste d'un côté, le choléra de l'autre. NVIDIA se présente ainsi en messie avec son G-Sync, supposé réunir le meilleur des deux mondes. Toute la démonstration du constructeur repose sur le postulat que les joueurs PC disposent majoritairement d'un écran limité à une fréquence de rafraîchissement de 60 Hz.

Dans la pratique, le fait qui sème la zizanie c'est que toutes les images ne sont pas traitées à la même vitesse par la carte graphique. Cette cadence (les fps) variable à la source peine en toute logique à se caler sur le rafraîchissement constant de l'écran (60 fois par seconde pour un 60 Hz). Une incompatibilité que NVIDIA résume très bien en trois schémas.

0280000007110988-photo-v-sync-off.jpg
Avec la V-Sync désactivée, les images envoyées par le GPU s'enchaînent à leur rythme, variable mais naturel. A chaque cycle de rafraîchissement d'écran où plusieurs images s'afficheront, l'utilisateur verra du tearing


V sync on
Clubic.com En activant la V-Sync, la carte graphique se voit contrainte de se caler sur le tempo de l'écran. Il n'y a donc plus de tearing. Mais lorsque le temps de rendu d'une image est plus long qu'un cycle de rafraîchissement (et moins long que deux cycles), il se produit une saccade puisque c'est l'image précédente qui est affichée à nouveau (ici la "Frame (1)"). Par ailleurs, la livraison de l'image suivante ("Frame (3)") est retardée.


0280000007110986-photo-g-sync-on.jpg
Avec le G-Sync, le rafraîchissement de l'écran se cale sur le rendu d'image du GPU : ça supprime en théorie le tearing et le stutter, et ça compresse le lag au minimum



G-Sync : que faut-il pour jouer ?


00c8000007129404-photo-g-sync-moniteur2.jpg
La réponse est simple : une carte graphique NVIDIA (GTX 650 Ti Boost ou supérieure) et un écran G-Sync. Ecrans qui comme nous l'avons dit en tête d'article n'existent pas encore, à l'exception de l'Asus VG248QE édition G-Sync qu'on trouve chez Top Achat, pour 200 € de plus que le modèle de base. Un delta qui correspond au prix du kit G-Sync à monter soi-même que NVIDIA met en vente outre-Atlantique. Mais qu'y a-t-il donc dans ce kit ?

C'est en fait un remplacement intégral de la carte mère Asus d'origine que le kit NVIDIA entreprend. La carte d'époxy embarque principalement un circuit logique programmable (le cœur de G-Sync), de la DDR3 et différents connecteurs (alimentation, rétro-éclairage, DisplayPort, etc.). Le changement visible c'est la disparition des ports VGA et HDMI au profit de l'unique DisplayPort 1.2. Notez que le pass-through audio n'est pas géré, les haut-parleurs de l'écran sont donc condamnés. Egalement, l'OSD est réduit à sa plus simple expression : afficher le statut de l'écran et adapter la luminosité. Tous les autres paramètres seront pilotés depuis une application PC, non fournie nous dit-on sur le site de NVIDIA. Fâcheux, puisque le rendu pâlichon délavé de l'écran mériterait quelques réglages, plus en profondeur.

012c000007129412-photo-inside-asus-mb2.jpg
012c000007129414-photo-inside-g-sync.jpg

L'électronique d'origine, et le kit G-Sync

00c8000007129400-photo-g-sync1.jpg
Du côté des spécifications, les taux de rafraîchissement établis par la technologie G-Sync s'étalent de 30 Hz (33,3 ms) à 144 Hz (6,94 ms). Toutes les images que le GPU pourra traiter dans cette fourchette de vitesses seront en théorie parfaitement synchronisées avec le rafraîchissement de l'écran. Pourquoi ce dernier ne descend pas en dessous de 30 Hz ? Parce qu'il s'agit de la limite physique du rafraîchissement du panneau LCD. Les autres caractéristiques demeurent inchangées (résolution en 1080p, temps de réponse de 1 ms, affichage de 16,7 millions de couleurs, etc.).

Pour nos tests, nous avons utilisé une GTX 780, un modèle haut de gamme chez NVIDIA, avec bien sûr la dernière version des pilotes (332.21). Notez que la fonction G-Sync est prise en charge en standard depuis la version 331.58. Pour profiter au mieux de G-Sync, il suffit de régler le rafraîchissement sur 144 Hz dans les pilotes, cocher la case activer la fréquence de rafraîchissement variable (FRV) sous l'entrée éponyme et d'imposer la FRV sous l'entrée Synchronisation verticale de l'onglet Gérer les paramètres 3D. Il faut également tourner sous Windows 7 ou 8.1, exécuter ses jeux en plein écran et bien sûr, avoir activé G-Sync au préalable. Car G-Sync ne se lance pas à la volée (il n'y a pour l'heure pas de hotkey). Certains moteurs de jeu doivent de toute façon être redémarrés si vous passez d'une séquence de jeu sans G-Sync à une séquence avec.

012c000007130176-photo-nvidia-geforce-experience.jpg

NVIDIA ajoute trois consignes supplémentaires, pour faire le test dans les meilleures conditions : utiliser une bonne souris (pour constater la fluidité, c'est mieux), passer les jeux par la moulinette de l'utilitaire Geforce Experience pour optimiser les réglages, et bien se mettre en 144 Hz pour G-Sync et 60 Hz avec les autres modes (avec et sans V-Sync). L'idée, c'est de se placer dans la configuration la plus représentative des conditions réelles d'une majorité de joueurs.

00c8000007129420-photo-nvidia-pilote3.jpg
00c8000007129418-photo-nvidia-pilote2.jpg
00c8000007129416-photo-nvidia-pilote1.jpg

Nous trouvons cette dernière consigne un peu étrange, compte tenu du nombre important de moniteurs 120 Hz commercialisés. Aussi, nous comparerons également G-Sync à du 120 Hz et 144 Hz, sans G-Sync.

G-Sync : est-ce que ça marche ?


Première étape avant de se lancer dans du jeu vidéo : essayer la démo fournie par NVIDIA. Vous savez, celle du pendule qui a déjà beaucoup fait le tour de la toile mais sans que personne ne puisse vraiment constater l'impact. En effet, filmer du tearing sur un écran, ça ne rend rien... si le mal n'est pas visible, le remède non plus. Il va donc falloir nous croire sur parole ! Pour cette séquence, l'écran doit être réglé sur 60 Hz. L'utilisateur peut faire varier six paramètres : sans V-Sync, avec V-Sync et avec G-Sync d'un côté, et 60 fps, 40 à 60 fps et 30 fps de l'autre. Pendant ce temps, le pendule continue son mouvement de balancier.

01c2000007129392-photo-demo.jpg

On constate effectivement ce qui est attendu en théorie, c'est-à-dire que sans V-Sync on voit du tearing, d'autant plus que le framerate s'écarte du rafraîchissement de l'écran (plus à 30 fps donc qu'à 60). Avec le V-Sync, le tearing disparaît. Et à 60 fps, on note très peu de saccades puisqu'on est en phase avec l'écran (la différence avec le G-Sync est alors quasi-imperceptible). En revanche, plus on descend en cadence d'image, plus le rendu saccade. Enfin en G-Sync, l'affichage est parfait à tous les réglages. Quid des jeux ? Nous avons fait trois tests : un peu gourmand (Dirt 3), un assez exigeant (BattleField 4) et un très exigeant (Crysis 3).

Avec Dirt 3


En dépit de paramètres poussés à fond, notre GTX 780 fait tourner Dirt 3 toujours à bloc. Fraps nous indique environ 170 fps quand on désactive la V-Sync. Là, ça ira vite : la G-Sync n'apporte rien par rapport à la V-Sync ou même l'absence de V-Sync. On note une toute petite perte de fluidité avec la V-Sync à 60 Hz mais c'est tout. Et quasiment pas de tearing, même sans V-Sync. Il faut dire que la progression arrière - avant des jeux de course est clairement moins encline à produire du tearing que les balayages latéraux des FPS. La seule différence flagrante, c'est la fluidité qu'apporte le 120 Hz, et plus encore le 144 Hz, par rapport au 60 Hz.

012c000007130190-photo-dirt3-setup.jpg
012c000007130188-photo-dirt3-best.jpg

Avec BattleField 4


Ici, on se rapproche du cas d'école évoqué par NVIDIA. Pour ne pas trop excéder les 60 fps, il nous faut pousser l'échelle de résolution à 120 % : on oscille alors entre 45 et 70 fps. Ecran à 60 Hz et tous paramètres désactivés, le jeu apparaît fluide, mais le tearing est assez violent. Si ça reste supportable, les conditions de jeu ne sont à l'évidence pas optimales. En activant la V-Sync, le tearing disparaît. On note toutefois que la fluidité globale du jeu baisse d'un cran. Les balayages d'horizon un peu trop rapides brouillent l'affichage, et des micro-saccades gâchent l'expérience ici et là, de manière ponctuelle.

012c000007130182-photo-bf4-setup.jpg
012c000007130180-photo-bf4-best.jpg

En passant en 144 Hz avec G-Sync, tout rentre dans l'ordre : l'expérience de jeu devient effectivement idéale. Les mouvements de tête se font en douceur, même à 40 fps. En dessous de 40 fps et à proximité des 30 fps (il nous faut pousser l'échelle de résolution à 150 % au minimum), le G-Sync atteint en revanche ses limites : l'image n'est plus fluide du tout. Mais à ce framerate de toute façon, il ne fallait pas attendre de miracle.

Maintenant, si on reste à 144 Hz et désactive le G-Sync, le rendu ne se dégrade pas outre-mesure. On perd un tout petit peu de fluidité mais ça n'est pas évident et donc encore moins dramatique.

Avec Crysis 3


Plus redoutable encore : Crysis 3. Ici notre GTX 780 reste toujours entre 36 et 60 fps grand maximum (tout en extrême, antialiasing en TXAA 4X). C'est la configuration idéale pour mesurer les bienfaits de G-Sync. Et force est de constater qu'ils sont bien réels. A 60 Hz, avec et sans V-Sync, on observe à peu près les même schémas de rendu que sur BF4, avec peut-être un peu moins de déchirement de base.

012c000007130186-photo-crysis3-setup.jpg
012c000007130184-photo-crysis3-best.jpg

Le 120 Hz avec V-Sync constitue une belle amélioration mais sur certaines scènes du jeu, on constate en fixant son regard sur des textures précises que les déplacements ne sont pas tout à fait fluides. Avec le G-Sync en 144 Hz, le rendu est effectivement impressionnant de netteté. Même entre 40 et 50 fps, les balayages d'horizon s'exécutent selon une progression constante. Les plans se meuvent au quart de tour, sans la moindre saccade, c'est aérien ! Et si on reste en 144 Hz et qu'on désactive le G-Sync ? En scrutant attentivement l'image, on note une perte de fluidité : des micro-à-coups dans les déplacements, visibles sur les textures. Ça reste certes discret mais indéniable. Et si on laisse le choix au joueur, avec ou sans G-Sync, il préférera avec, à coup sûr.

Conclusion


00a0000005507329-photo-award-choix-technique.jpg
G-Sync est-elle la technologie que tous les gamers attendaient depuis longtemps ? Si nous ne nous risquerons pas à répondre par un oui franc et massif à cette question, il est indéniable que NVIDIA apporte ici une solution pertinente et efficace aux problèmes de déchirement, de saccades et de latence. Problèmes dont souffrent de nombreux joueurs depuis la nuit de temps. La mise en œuvre est simple et même totalement transparente, à partir du moment où l'on dispose d'un écran compatible et d'une carte graphique NVIDIA assez puissante. Si l'on s'en tient au cas de figure « écran 60 Hz et frame rate moyen entre 40 et 60 fps » évoqué par NVIDIA, cas de figure supposé représenter la majorité des joueurs, oui le G-Sync éradique bien les problèmes mentionnés plus haut, alors fréquents. Le passage à cet écran G-Sync constitue alors un progrès majeur.

012c000007129402-photo-g-sync-moniteur.jpg

Maintenant, d'autres cas de figure sont aussi possibles. Et là le bénéfice est un peu moins flagrant, même si toujours réel. Le joueur qui possède un écran 120 Hz, et il s'en vend quelques-uns sur le marché, souffre en effet un peu moins du déchirement et des saccades. Celui qui joue à des jeux où la puissance graphique l'emporte régulièrement au-delà de 120 fps n'aura pas non plus grand intérêt à investir dans cette technologie. A plus forte raison s'il s'agit de jeu de course.

Car si le G-Sync constitue une avancée de plus à mettre au crédit de NVIDIA, la solution FreeSync d'AMD risquant de ne pas voir le jour avant un ou deux ans, elle est tout sauf insignifiante en termes d'investissement. Qu'on opte pour le kit de mise à jour ou pour un écran neuf G-Sync, il faut compter un surcoût de 150 à 200 € environ, par rapport à une alternative sans G-Sync. Quitte à renouveler leur équipement, certains utilisateurs préféreront peut-être acheter un écran 120 Hz ou 144 Hz qu'ils payeront 150-200 € moins cher et mettre l'argent économisé dans une nouvelle carte graphique plus puissante.

006e000007129398-photo-g-sync.jpg
Et pour les joueurs sur ordinateur portable ? Comme nous l'avons écrit dans cette actualité, et comme nous l'a rappelé Bill Lempesis, Directeur général du consortium VESA que nous avons interrogé sur le sujet, le DisplayPort interne (eDP) prend déjà en charge les fréquences de rafraîchissement variables. L'eDP étant précisément le standard qu'utilise de plus en plus les portables et tablettes. NVIDIA nous a indiqué qu'il ferait prochainement des annonces à destination des gamers nomades... sans en dire plus.

Si on peut critiquer la stratégie « il faut encore cracher au bassinet » de NVIDIA, on ne peut qu'applaudir le progrès accompli. Le joueur qui veut ce qu'il se fait de mieux et sans attendre devra se tourner vers G-Sync. Car l'avantage de la solution NVIDIA par rapport au FreeSync d'AMD, c'est que le G-Sync, ça existe et c'est disponible tout de suite. Il faudra voir comment se comporte G-Sync sur un écran en résolution supérieure, comme l'Asus ROG PG278Q annoncé au CES. Si G-Sync peut permettre de jouer en 2 560 x 1 440 pixels sans perdre en confort, à carte graphique constante, ça deviendra vraiment intéressant !
Modifié le 01/06/2018 à 15h36

Les dernières actualités Technologie

scroll top