AMD FreeSync : la réponse à G-Sync en test

Par
Le 19 mars 2015
 0
Dévoilé il y a un peu plus d'un an par AMD, le Project FreeSync arrive à son aboutissement : le lancement officiel. Accompagné d'une première salve de moniteurs compatibles, FreeSync est le pendant de G-Sync chez le concurrent NVIDIA, à savoir une technologie qui synchronise le rafraîchissement de l'affichage avec le débit de la carte graphique. Est-ce aussi efficace ? La stratégie d'ouverture choisie par AMD (implémentation gratuite pour qui le veut) sera-t-elle payante ?

Au royaume des désagréments, le déchirement est roi


AMD énonce les données du problème exactement dans les mêmes termes que NVIDIA. Il divulgue d'ailleurs un schéma explicatif très ressemblant à celui de la marque au caméléon. Oui, la relation entre carte graphique et écran n'est pas toujours idyllique, c'est bien connu. Quand la carte graphique s'en donne à cœur joie, on obtient une image fluide, mais aussi, de temps en temps, du déchirement. L'absence de synchronisation entre le rafraîchissement des moniteurs (vitesse fixe, le plus souvent à 60 Hz) et le traitement des images par la carte graphique (débit variable) fait que, parfois, l'écran va recevoir une nouvelle image alors qu'il n'aura pas fini de rafraîchir celle en cours. L'écran semble coupé en deux dans la hauteur, c'est le déchirement ou tearing. Très désagréable, notamment dans les jeux de type FPS comme Battlefield 4, Far Cry 4 ou Crysis 3.

0280000007962083-photo-tearing.jpg
Exemple de déchirement ou tearing sur Battlefield 4

... ou la saccade est reine

Pendant très longtemps, le seul remède que les joueurs avaient à disposition, c'était la synchronisation verticale (ou V-Sync). Un mode de fonctionnement où la carte graphique se bride à la fréquence de rafraîchissement maximum de l'écran (60 Hz à 144 Hz selon les modèles) pour supprimer le déchirement. Ça marche bien, sauf que si le débit du GPU tombe sous le seuil maximum (60 images par seconde pour un 60 Hz, 144 images par seconde pour un 144 Hz), la V-Sync engendre des saccades et des ralentissements. Pourquoi ? Parce que le moniteur affiche à nouveau l'image en cours s'il n'a pas reçu la nouvelle image à temps. La solution, de NVIDIA comme d'AMD, consiste donc à inverser les rôles : ce n'est plus la carte graphique qui doit s'adapter à l'écran mais l'écran qui va se plier à la carte graphique. Comment ? En lui laissant piloter sa fréquence de rafraîchissement. Il faut toutefois un écran capable de faire varier sa fréquence de rafraîchissement.

0280000007961729-photo-sch-ma-freesync.jpg
Le schéma fourni par AMD

G-Sync ou FreeSync : tout est dans la méthode


NVIDIA, qui a pris les devants dans cette bataille, a opté pour la méthode du tout propriétaire. Les constructeurs voulant réaliser un écran compatible doivent intégrer un contrôleur d'écran spécifique, de conception NVIDIA. A date, et depuis un peu plus d'un an que G-Sync existe, les listings les plus généreux référencent huit modèles de moniteurs G-Sync. La réalité des boutiques en France ramène ce chiffre à cinq ou six produits. A rien, pour l'heure, en matière d'ordinateurs portables, même si on sait de différentes sources que ça ne saurait tarder (et que la technologie serait même déjà activable avec les bons pilotes).

01c2000007961781-photo-g-sync.jpg

0096000007962087-photo-vesa-logo.jpg
AMD qui semblait alors en retard sur ce sujet a finalement fait le coup de la tortue au lièvre NVIDIA. Robert Hallock, responsable des communications techniques chez AMD, affirme avoir initié le Project FreeSync avant que NVIDIA ne dégaine G-Sync (il faut dire que la marque avait les plus grandes peines à proposer une expérience de jeu fluide avec un certain Far Cry 3 notamment en CrossFire). Quoi qu'il en soit, il y a une différence de stratégie. Là où NVIDIA a voulu faire cavalier seul, AMD a misé sur l'élaboration d'un standard, plus lente dans sa mise en œuvre, mais possiblement payante sur le long terme.

Dans cette optique, l'ex-fondeur a travaillé main dans la main avec le consortium VESA (Video Electronics Standards Association) pour lui suggérer une évolution de l'interface DisplayPort 1.2a. VESA a alors ajouté une nouvelle brique dans les spécifications de l'interface DisplayPort 1.2a, brique inspirée de spécifications déjà existantes de l'embedded DisplayPort 1.0 (l'équivalent interne du DisplayPort dans les ordinateurs portables), pour accoucher en mai 2014 du standard DisplayPort Adaptative-Sync. Le précieux sésame qui permet à la carte graphique de contrôler le taux de rafraîchissement d'un écran via la connectique DisplayPort, et qui sert de terreau à la technologie FreeSync.

Les constructeurs désireux de mettre au point un moniteur FreeSync n'auront pas de droit à payer à AMD. Ils devront juste veiller à intégrer la bonne connectique DisplayPort 1.2a avec Adaptative-Sync : certes, ça se traduira par un contrôleur d'écran embarqué de nouvelle génération, mais ils pourront s'approvisionner auprès des fournisseurs habituels, qui ont déjà, pour certains, assuré leur soutien à AMD (MStar, Novatek ou Realtek).

01c2000007962169-photo-g-sync-module.jpg
NVIDIA et son module propriétaire

Au-delà de l'aspect stratégique ou politique, y a-t-il une différence technique entre FreeSync et G-Sync ? D'après Robert Hallock, FreeSync n'entraîne pas d'overhead ou de surcharge dans la communication. « C'est particulièrement important du point de vue des performances, puisque FreeSync n'a pas besoin d'interroger le moniteur ou d'attendre son retour pour savoir quand il est opportun de lui envoyer la prochaine image. FreeSync utilise le protocole DisplayPort Adaptative-Sync pour déterminer en amont, lors du branchement, les taux de rafraîchissement minimum et maximum supportés par l'écran, ce qui signifie que l'affichage de l'image n'est jamais retardé ou décalé par des allers-retours chronophages d'information entre la carte et l'écran ».

AMD évoque en fait la vérification de statut que le GPU NVIDIA opère auprès de l'écran G-Sync, pour savoir si celui-ci est dans un intervalle VBLANK ou non, donc s'il peut envoyer l'image ou non. « Polling » qui prend 1 ms et diminue les performances de 3 à 5 % selon les sources et les cartes. AMD, qui produit également le rafraîchissement variable par une manipulation de la durée de l'intervalle VBLANK, n'effectue donc pas cette vérification supplémentaire.

L'autre différence, c'est que FreeSync digère sur le papier un panel plus large de fréquences de rafraîchissement, de 9 à 240 Hz alors que G-Sync opère dans une fourchette de 30 à 144 Hz. Ceci reste très théorique, et pour du jeu, 30 à 144 Hz suffisent. Sans compter qu'il n'existe pas d'écran capable de dépasser 144 Hz pour l'heure.

0280000007961779-photo-amd-freesync.jpg

Maintenant, qu'on soit AMD ou NVIDIA, dans les deux cas, les cartes graphiques du constructeur sont obligatoires. Donc la belle ouverture que met en avant AMD a tout de même ses limites...

Quelles configurations matérielles pour FreeSync ?


00c8000007962063-photo-carte-graphique-msi-radeon-r9-290x-gaming-8go.jpg
Outre les bons pilotes graphiques Catalyst (Windows 7 à 8.1) qu'AMD doit officialiser ce jour, le système FreeSync repose sur un écran compatible et les cartes graphiques élues. Quels sont ces GPU chanceux ? Les Radeon R9 (295X, 290X, 290 et 285) et R7 (260X et 260), mais aussi les APU Kaveri A10-7850K, A10-7800, A10-7700K, A8-7600 et A6-7400K. En ouvrant FreeSync à des solutions entrée de gamme comme ses APU (GPU intégrés aux processeurs) ou à de la carte milieu de gamme (R7 260), AMD semble décidé à pousser sa technologie dans un maximum de chaumières.

NVIDIA, pour qui le ticket d'entrée est une GTX 650 TI Boost, se montre un peu plus élitiste du strict point de vue tarifaire. Cela dit, dès sa sortie, G-Sync était compatible avec davantage de références de GPU, notamment la quasi-totalité de la gamme existante avec architecture Kepler. AMD impose sa dernière génération de cartes, et il n'y en a que six pour le moment. Et la question des APU n'est pas majeure : en réalité, même si FreeSync présente également un intérêt en bureautique mobile ou en multimédia (nous reviendrons dessus), son réel potentiel demeure le jeu vidéo. Aussi, ce sont plutôt les cartes graphiques haut de gamme du constructeur qui exploiteront vraiment FreeSync.

07962061-photo-carte-graph.jpg

Côté écran, AMD arrive d'emblée avec une liste de onze moniteurs, déclinés dans des tailles et résolutions variées : 24 à 34 pouces, 1080 à 2160p. Les prix communiqués par AMD démarrent à 449 $ pour le LG 29UM67, un moniteur en 29 pouces et 2560x1080 pixels disposant d'une plage de fréquences de rafraîchissement (DRR pour Dynamic Refresh Range) de 48 à 75 Hz. Le modèle que nous avons eu en test, l'Acer XG270HU, est lui annoncé à 499 $. Le plus cher selon les chiffres d'AMD sera le LG 34UM67, l'équivalent de l'autre LG mais en 34 pouces, à 649 $. Il faut dans l'ensemble s'attendre à une tarification plutôt élevée compte tenu de l'aspect assez haut de gamme des modèles.

00c8000007962075-photo-lg-he-34um67-high-resolution-image-01.jpg
00c8000007962179-photo-benq-xl2730.jpg
00c8000007962181-photo-acer-xg270hu.jpg

Les LG 34UM67, BenQ XL2730 et Acer XG270HU

Reste la grande question : « Est-ce qu'à caractéristiques équivalentes le moniteur FreeSync sera effectivement moins cher que le G-Sync ? » En théorie, ça devrait être le cas, puisque les constructeurs n'ont pas à payer le module propriétaire G-Sync. Mais dans la pratique, les fabricants n'ont pas spécialement intérêt à avantager AMD, d'autant que NVIDIA dispose de parts de marché plus importantes en matière de GPU gamer. Il se peut donc qu'ils profitent (fabricants ou même distributeurs) de l'aubaine pour marger un peu plus...

0280000007962079-photo-monitors.jpg

L'exemple du BenQ XL2730Z nous fait en partie mentir et c'est tant mieux. FreeSync et déjà répertorié à 649,95 € chez LDLC, il est moins cher que son homologue Asus PG278Q G-Sync, vendu 719,95 € chez le même vendeur mais sorti à 799 €. Sauf que le document d'AMD évoque normalement 599 $. Quand on voit que Materiel.net le vend lui à 699,90 €, on constate que certains en profitent déjà. Et que dire du cas LG ? Le prédécesseur de l'écran sud-coréen de 34 pouces, le 34UM65, est vendu à 500 € aujourd'hui, alors que son pendant FreeSync est attendu à 649 $. Il sera donc intéressant et important de guetter les premières mises sur le marché d'écran FreeSync et de voir comment réagira NVIDIA. En attendant, AMD qui avait évoqué par le passé la possibilité de mettre à jour certains moniteurs existants est resté mué sur ce sujet. Il y a bien le cas du Iiyama B2888UHSU mais retourner un 28 pouces à ses frais chez le fabricant, ça n'a rien d'engageant.

0280000007962073-photo-lg-screen.jpg
A gauche le nouveau modèle FreeSync, à droite l'ancien, non FreeSync

Les pilotes FreeSync à la loupe


AMD nous a envoyé les pilotes Catalyst 15.3.1 bêta. Après installation et une fois l'ordinateur redémarré, une fenêtre apparaît immédiatement, indiquant qu'un écran FreeSync a été connecté et nous invitant à le configurer. Du côté des pilotes, pas de changement particulier sinon dans la section Mes écrans plats numériques/Propriétés où l'entrée AMD FreeSync technology (ou DP Adaptative-Sync) fait son apparition. On notera que partout où AMD évoque FreeSync, il précise « (ou DisplayPort Adaptative-Sync) ». Bref, c'est le seul paramétrage à effectuer, avec l'activation des 144 Hz dans les réglages de résolution.

En jeu, que donne FreeSync ?


Pour tester le rendu de FreeSync, nous nous sommes exercés sur trois jeux : Battlefield 4, FarCry 4 et Assassin's Creed Unity. La bonne nouvelle, c'est que FreeSync fait bien disparaître le déchirement. La mauvaise nouvelle, c'est que dans tous ces jeux, FreeSync occasionne un effet de rémanence, du moins avec cet écran. Certes, la gêne procurée reste variable. Les traînées fantômes sont surtout visibles dans les zones contrastées (une cheminée dans le ciel blafard de Paris sur Assassin's Creed par exemple) et lorsqu'on effectue des mouvements latéraux. Beaucoup moins dans les gratte-ciel obscurs d'un Battlefield 4. Cependant, cette rémanence rend également brouillonnes les zones riches en textures fines. Dans le village rebelle haut en couleurs du Kyrat sur Far Cry 4, les occasions de le constater ne manquent pas.

012c000007962271-photo-capture-acu.jpg
012c000007962269-photo-capture-bf4.jpg

Assassin's Creed Unity et Battlefield 4

Tant et si bien que sur Assassin's Creed Unity et FarCry 4, on préfère presque activer la V-Sync : l'image n'est pas spécialement plus saccadée (merci les 144 Hz) et elle apparaît plus nette puisque dépourvue de la rémanence produite par FreeSync. Battlefield 4, lui, accuse davantage le coup avec la V-Sync : on préfèrera la désactiver pour se débarrasser des saccades et retrouver la belle fluidité apportée par FreeSync. Comment expliquer ce phénomène de rémanence ?

0262000007919497-photo-fc4-high.jpg
FarCry 4

NVIDIA, qui s'est tenu sur le pied de guerre cette semaine, a organisé une petite conférence téléphonique pour contrecarrer le lancement d'AMD. Le sujet de discussion tournait clairement autour de FreeSync. Et monsieur G-Sync de NVIDIA (Tom Petersen) s'est étonnamment mis à parler d'une technologie « anti-ghostery ». Pur coïncidence... Tom nous a alors expliqué que le rafraîchissement dynamique d'un écran accentuait le phénomène de rémanence naturel du LCD, exigeant alors un dosage et un équilibre de l'overdrive très pointus. Chose que NVIDIA saurait implémenter grâce à son contrôleur d'écran maison. Autrement dit, la stratégie du tout propriétaire où le constructeur maîtrise ses composants serait plus payante que celle du standard ouvert où personne ne sait trop qui fait quoi. Impossible d'être sûr que cette explication plausible soit la bonne, ni la seule. En revanche, il y a d'autres couacs à souligner dans cette jeune technologie qu'est FreeSync.

Faut pas prendre les V-Sync pour des lanternes

D'abord, si la technologie FreeSync est supposée supporter une plage de fréquences de rafraîchissement supérieure à G-Sync (9 - 240 Hz versus 30 - 144 Hz), la limitation de la dalle employée demeure. Et dans notre cas concret, l'Acer XG270HU ne descend pas sous 40 Hz. C'est embêtant, puisqu'à chaque baisse de régime du GPU entre 35 et 40 fps, alors que le jeu est encore à peu près jouable, on voit réapparaître du déchirement et/ou des saccades selon qu'on ait activé FreeSync seul ou FreeSync et V-Sync. Et à vrai dire pour l'instant, aucun des moniteurs annoncés par AMD ne descend sous 40 Hz, certains bloquent même à 48 Hz. Avec ses 30 Hz plus faibles sur le plan théorique mais bien réels, G-Sync assure un rendu efficace jusqu'aux limites de la jouabilité.

000000a007962231-photo-acu-framerate.jpg
000000a007962235-photo-ecran-lg-refresh.jpg

Lorsque le framerate tombe, le rafraîchissement ne suit pas. Et comme on le voit sur cette slide d'AMD, certains écrans seront encore plus limités

Par ailleurs, il nous est arrivé de constater des variations inexpliquées de la vitesse de rafraîchissement retourné par l'OSD, pas en phase avec le framerate indiqué par Fraps. Visuellement, ça se traduit par des saccades ou du scintillement. Ce dernier phénomène a pu être constaté sur une séquence cinématique de Battlefield 4 mais surtout sur les écrans de démarrage, d'extinction ou de verrouillage de session de Windows. Le rafraîchissement fait un yoyo permanent entre 41 Hz et 144 Hz. Plus étrange encore, l'OSD nous retourne parfois 35 Hz, alors que la dalle n'est pas supposée descendre sous les 40 Hz (et qu'elle ne le fait jamais en jeu).

012c000007962069-photo-freesync-refresh-bug.jpg
012c000007962071-photo-freesync-refresh-bug2.jpg

Ici le rafraîchissement fait du yoyo alors que le framerate reste constant : l'écran scintille.

Maintenant, AMD nous recommande d'activer à la fois FreeSync et la V-Sync. L'explication officielle c'est que FreeSync sert à adapter la vitesse de rafraîchissement de l'écran au débit du GPU quand celui-ci est inférieur, tandis que la V-Sync va éviter que le GPU s'emballe au-delà de la vitesse maximum de rafraîchissement de l'écran s'il en a les capacités. Autrement dit, FreeSync cale ensemble le taux de rafraîchissement de l'écran sur le GPU entre 40 et 144 Hz (dans notre cas), mais il ne plafonne pas le GPU. S'il peut dépasser les 144 FPS, on va de nouveau obtenir un décalage entre la source et l'écran, donc potentiellement du déchirement. D'où la V-Sync pour brider le GPU.

Soit, mais deux choses nous échappent. D'abord, comment peut-on faire cohabiter deux technologies qui ont des modes opératoires contraires ? FreeSync laisse le GPU maîtriser le rafraîchissement de l'écran, V-Sync permet à l'écran de dicter la bonne vitesse au GPU. Qui gagne ? Lors de nos tests, cette cohabitation ne s'est pas toujours bien passée. Sans incidence sur FarCry4 ou Assassin's Creed Unity, le mélange des deux occasionne de vilaines saccades sur Battlefield 4.

Ensuite, l'idée d'allier la V-Sync à FreeSync n'est pas raccord avec la caractéristique mise en avant par AMD de communication efficace du DisplayPort Adaptative-Sync. La carte graphique est supposée récupérer les fréquences de rafraîchissement minimum et maximum de l'écran auprès de son EDID (identifiant électronique) au moment du branchement. Si tel était le cas, pourquoi faudrait-il activer la V-Sync ? La carte devrait savoir quelle fréquence maximum ne pas dépasser. Bref, tout cela nous paraît encore mal ficelé.

Bons joueurs, nous avons donc lancé un titre peu exigeant où l'on sait que le framerate va aisément s'envoler au-delà des 144 FPS : Dirt 3. Malheureusement, et comme avec G-Sync à l'époque de nos tests, quand on a une carte qui sort pas loin de 200 FPS avec un écran qui rafraîchit à 144 Hz, les problèmes de déchirement ou de fluidité ne sont pas une préoccupation majeure... Le domaine de prédilection de FreeSync, comme G-Sync, c'est les faibles débits de GPU, là où du déchirement et des saccades se produisent. Ces technologies sont d'ailleurs plus salvatrices sur des écrans 60 Hz. Ou moins percutantes sur des dalles à 144 Hz, question de point de vue.

0280000007130188-photo-dirt3-best.jpg
Dirt3


Quoi d'autre ?


Parmi les points forts prétendus de FreeSync, il y a l'absence d'impact sur les performances. Nous avons effectivement pu vérifier que FreeSync semble ne rien consommer. Sur Battlefield 4 et Assassin's Creed Unity nos benchmarks ont mis en évidence des nombres de FPS identiques entre les séquences sans et avec FreeSync (respectivement 41 et 48 FPS, en Ultra sur BF4 et en élevé sur ACU). Un tout petit plus face à G-Sync, qui consomme, mais très peu (de l'ordre de 3 à 5% d'après nos confrères de Hardware.fr). Ce à quoi NVIDIA répondra que G-Sync prend en charge le SLI (plusieurs cartes graphiques) alors que FreeSync n'est pour l'instant pas compatible avec les systèmes CrossFire.

Enfin, AMD évoquait également le rôle de FreeSync en vidéo, où la technologie allait permettre de caler le rafraîchissement de l'écran sur le débit d'encodage de la vidéo (souvent autour des 24 à 30 images par seconde) afin d'éviter les tremblements d'image. Dans l'absolu, c'est intéressant. Mais dans la pratique, cette fonction n'est prise en charge que par le lecteur vidéo de l'interface Modern UI de Windows 8.1 ! Avec VLC ou MediaPlayer Classic, ça ne fonctionne pas.

Conclusion


0096000007962279-photo-amd-freesync.jpg
Après une expérience G-Sync techniquement concluante mais restreinte sur le choix des moniteurs et onéreuse, nous attendions avec impatience la réponse d'AMD. L'idée d'une solution standardisée que la firme de Sunnyvale a fait miroiter début 2014 annonçait la possible démocratisation d'une technologie similaire à celle que NVIDIA voulait garder pour lui. Le principe est le même, permettre à la carte graphique de piloter la fréquence de rafraîchissement de l'écran en fonction de sa vitesse de calcul.

Mais les stratégies diffèrent : là où NVIDIA prône la méthode propriétaire, en argumentant que seul un contrôle accru sur l'ensemble de la chaîne permet la maîtrise des résultats, AMD revendique l'ouverture, meilleur moyen pour obtenir des développements rapides et moins coûteux. Son action concertée avec la puissante VESA est une belle manœuvre dans ce sens. Cependant, l'ouverture n'est que relative : les constructeurs pourront certes s'approvisionner où bon leur semble en contrôleurs d'écran (alors que NVIDIA impose les siens), mais pour le consommateur, il faudra acheter un écran FreeSync et utiliser une carte graphique AMD. Comme chez NVIDIA... Ces écrans seront-ils vraiment moins chers que ceux G-Sync ? Pour l'instant, il est permis d'en douter.

Malheureusement à l'usage, la technologie FreeSync ne semble pas encore bien maîtrisée. Oui, FreeSync fait bien disparaître le déchirement dans les jeux vidéo. Mais côté fluidité, le gain n'est pas équitablement perceptible dans tous les jeux. Et surtout, AMD a un problème de rémanence qu'il ne semble pas trop savoir comment résoudre pour l'instant, au vu des échanges que nous avons eus sur ce sujet avec différentes personnes responsables du projet. On nous a dit que c'était un problème de moniteur (ce qui n'est pas le cas), qu'il fallait bien le régler en 144 Hz (ce que nous avions déjà fait), qu'il fallait penser à activer FreeSync et la V-Sync (ce que nous avons testé en dépit du bon sens)...

01c2000007962289-photo-acer-xg270hu.jpg


NVIDIA dit que son module propriétaire est réglé et dosé de manière très fine pour faire fonctionner sa technologie d'overdrive Anti-Ghostery. S'il y a une technologie anti, c'est bien que le rafraîchissement dynamique d'un écran pose un problème particulier de rémanence. Aux dires de NVIDIA, la marque au caméléon ne se contente pas de vendre ses modules propriétaire, elle s'assurerait également de leur bon réglage pour obtenir la validation G-Sync. C'est peut-être ce qu'il manque à AMD : un système ouvert c'est bien, mais si on ne maîtrise pas le hardware ça compromet l'efficacité du dispositif. AMD prévoit bien de certifier des moniteurs FreeSync, mais les contours du processus restent flous. Si AMD se contente de s'assurer que l'écran est bien compatible avec le DisplayPort Adaptative-Sync, il risque d'avoir des surprises.

En l'état, FreeSync n'impressionne pas. Maintenant, c'est une technologie jeune qui devrait évoluer rapidement, et nous n'avons pu tester qu'un seul écran, certes, envoyé par AMD. Il est donc délicat d'émettre un jugement aujourd'hui, sans tomber dans le hâtif ou le péremptoire. NVIDIA a montré des signes d'inquiétudes à l'approche du lancement, c'est bien qu'il y a du potentiel dans FreeSync. Il semble juste pour l'heure mal exploité.
Modifié le 01/06/2018 à 15h36

Les dernières actualités Cartes graphiques AMD

scroll top