Les pros comme les joueurs du dimanche ont tous plus ou moins entendu parler de ces termes, mais à quoi correspondent-ils vraiment et en quoi ces technologies sont-elles utiles ? Place au décryptage.

La quête de performances
L'industrie vidéoludique ne cesse de repousser les limites techniques pour permettre aux joueurs de profiter pleinement des titres les plus récents, qu’il s’agisse de blockbusters AAA ou de productions plus modestes. Tandis que les graphismes continuent de gagner en réalisme grâce au ray tracing, à l'HDR ou à l’utilisation généralisée de moteurs physiques avancés, la quête de performances ne se résume plus à la qualité d’image brute. Elle englobe désormais des considérations de fluidité, de réactivité et de confort visuel.
Ce confort est devenu un enjeu central dans l’univers gaming, aussi bien pour NVIDIA, AMD que pour les constructeurs de moniteurs et de téléviseurs. En plus des critères classiques — taille, type de dalle (TN, IPS, VA, QD-OLED, etc.), résolution, contraste ou uniformité — d’autres facteurs sont aujourd’hui scrutés de près : la gestion du rétroéclairage (local dimming, MiniLED, QD-Mini LED), le temps de réponse, ou encore le support du VRR (Variable Refresh Rate), qui permet une synchronisation dynamique avec le GPU.

La vitesse de rafraîchissement de l’écran s’est aussi imposée comme un critère déterminant, notamment pour les joueurs compétitifs ou adeptes d’e-sport. La progression a été rapide : après les écrans 144 Hz et 240 Hz, les modèles 360 Hz sont devenus monnaie courante, et en 2025, des écrans 480 Hz, voire 540 Hz ont été présentés par Asus, Alienware, LG, Sony et d'autres. On parle même, plus récemment, d'écrans 720 Hz… Une frénésie technologique soutenue par des cartes graphiques de plus en plus puissantes et des jeux dans lesquels il est possible de tirer parti de ces hautes fréquences.
Petite parenthèse : si la pertinence d’aller au-delà de 240 Hz fait débat, plusieurs études récentes confirment qu’un nombre croissant de joueurs perçoivent une amélioration de la fluidité jusqu’à environ 300-360 fps, même si le gain décroît au-delà. L’œil humain n’a pas une limite stricte, mais la sensation de confort et de réactivité peut continuer de s’améliorer avec des framerates élevés.
Le secteur gaming est donc en constante évolution, et le marketing ne manque pas d’en rajouter, avec des valeurs parfois optimistes sur le temps de réponse (GtG, MPRT) ou des taux de contraste ambigus. Mais parmi les avancées réellement pertinentes, le VRR s’impose comme un élément clé de l’expérience, soutenu par NVIDIA (G-Sync), AMD (FreeSync) et maintenant Intel (Adaptive Sync sur Xe Graphics), sans oublier la standardisation récente via les certifications VESA Adaptive-Sync Display.
Enfin, si des marques comme ASUS, AOC, LG, Samsung, MSI, Acer ou Gigabyte se livrent une rude bataille pour proposer les meilleures spécifications à chaque gamme de prix, la confrontation entre NVIDIA et AMD autour des technologies de synchronisation est restée l’une des plus structurantes. Une guerre technologique dont les règles ont beaucoup évolué ces dernières années, et que nous allons explorer en détail dans les sections suivantes.
Input lag, stuttering, tearing : une histoire de synchronisation
Le passage d’un écran 60 Hz à un modèle à haute fréquence de rafraîchissement (HFR) a marqué un tournant pour de nombreux joueurs. En effet, même à configuration matérielle équivalente, la fluidité perçue et la netteté des mouvements à l’écran sont décuplées dès que l’on passe à 120, 144, voire 240 Hz. Pourtant, même au-delà de 60 images par seconde, un problème fondamental persiste : la synchronisation entre la carte graphique (GPU) et l’écran.
Le fonctionnement d’un écran est par nature cyclique et régulier : un modèle 60 Hz rafraîchit son image toutes les 16,67 millisecondes, interrogeant le GPU à cette cadence fixe. Mais la carte graphique, elle, ne fonctionne pas de manière linéaire. Son rythme de production d’images dépend d’un ensemble de facteurs dynamiques : la complexité des scènes affichées, les effets visuels actifs (ombres, particules, post-processing), le niveau de détail, ou encore les mouvements de caméra.
Plus la scène est dense et exigeante, plus le temps de calcul de chaque frame varie. Ce déséquilibre de cadence entre un affichage fixe côté écran et une production irrégulière côté GPU crée une discordance structurelle.
Lorsque le GPU calcule une image plus vite que le moniteur ne peut l’afficher, ou inversement, deux images peuvent se superposer à l’écran : c’est le fameux phénomène de tearing (ou déchirement d’image). Concrètement, cela se manifeste par une ou plusieurs lignes horizontales qui fractionnent l’image, en particulier lors des déplacements latéraux rapides dans les jeux.
À l’opposé, lorsque le GPU met plus de temps que prévu à livrer une nouvelle image, le moniteur peut alors répéter la dernière image disponible, ce qui génère du stuttering (ou bégaiement). Cela se traduit par des micro-saccades et une sensation de jeu saccadé, parfois très perceptible, même avec une configuration puissante.
Enfin, certains traitements vidéo intégrés aux écrans (mise à l’échelle, amélioration du contraste dynamique, interpolation, etc.) peuvent aussi introduire de la latence d’affichage, plus connue sous le nom d’input lag. Ce délai entre l’action du joueur (clic, touche, joystick) et la répercussion à l’écran nuit particulièrement aux jeux rapides et compétitifs (FPS, jeux de combat ou de course).
Toutes ces problématiques ont en commun un défaut de synchronisation entre les deux composants clés de l’affichage : le GPU et l’écran. Avant même de penser à augmenter la résolution ou le taux de rafraîchissement, il est donc indispensable de s’assurer que ces deux éléments travaillent de concert. C’est précisément à ce besoin que répondent les technologies VRR, que nous allons aborder dans la suite de cet article.
V-Sync : une solution imparfaite
Pour éviter ce phénomène, les fabricants de GPU ont d'abord voulu s'attaquer à sa source : la carte graphique. Ils ont ainsi déployé la technologie de synchronisation verticale, ou V-Sync. Généralement accessible dans les paramètres graphiques de nos jeux, la V-Sync permet à la carte graphique de se synchroniser avec le taux de rafraichissement du moniteur. Ainsi, le GPU ne produira pas plus de 60 images par seconde si nous utilisons un écran de 60 Hz.
Cette fonctionnalité préventive permet d'éviter le tearing grâce à une limitation des FPS. Le GPU attend en effet le signal de l'écran, appelé vblank (vertical blanking interval), pour lui transmettre la dernière image produite. V-Sync implique cependant d'autres problèmes, le retard de calcul généré par l'attente du GPU entraine ainsi de l'input lag, et pire puisque si votre carte graphique peine à maintenir un taux d'image égal à la fréquence de rafraichissement de l'écran, vous aurez affaire au stuttering, des micro-saccades ou « bégaiement » affichant plusieurs fois la même image et réduisant donc considérablement l'impression de netteté et de fluidité.
Bien conscients du problème, AMD et NVIDIA ont chacun tenté d'améliorer cette technologie avec l'Adaptive V-Sync et la FastSync d'un côté et l'Enhanced Sync de l'autre. Sans entrer dans le détail, ces technologies permettent d'activer ou de désactiver automatiquement la V-Sync en fonction de la fréquence d'image en jeu, ou encore de combiner cette synchronisation dynamique avec l'utilisation de la triple mémoire tampon — triple buffering.
Malheureusement, aucune de ces solutions n'offre un résultat parfait, car il dépend grandement des jeux, de la puissance de votre machine et aussi de vos préférences en fonction du type de jeu.
G-Sync et FreeSync au secours des joueurs
À partir de 2013, NVIDIA et AMD ont décidé de prendre le problème à contre-pied. Au lieu de s'attaquer une nouvelle fois aux problèmes posés par la V-Sync, ils ont proposé une solution radicalement différente : faire en sorte que ce soit désormais l’écran qui s’adapte au framerate du GPU. C’est le principe du rafraîchissement variable, ou VRR (Variable Refresh Rate).
Désormais, l'écran s'adaptera en temps réel à ce que la carte graphique est en mesure de produire. En clair, si le GPU ne produit que 82 FPS, l'écran fonctionnera à 82 Hz ! Lors de scènes moins complexes à calculer, votre GPU produit 125 FPS ? Alors l'écran se calera à la fréquence de 125 Hz, c'est aussi simple que ça. L’image est ainsi toujours affichée de manière fluide, sans tearing ni stuttering, car chaque frame arrive dans le bon timing, sans conflit ni duplication.
Cette idée simple mais puissante a bouleversé le marché. NVIDIA a lancé G-Sync, avec une approche initialement fermée, basée sur un module propriétaire intégré à certains écrans. AMD a répliqué avec FreeSync, une technologie ouverte s’appuyant sur le standard VESA Adaptive-Sync, introduit dans la norme DisplayPort 1.2a, puis étendu plus tard au HDMI 2.1.
Le résultat a été une véritable révolution pour le confort visuel dans les jeux vidéo, que ce soit sur PC ou sur console. Aujourd’hui, le VRR est non seulement disponible sur la majorité des moniteurs, mais aussi sur un grand nombre de téléviseurs récents (LG, Samsung, Sony, TCL, etc.), ainsi que sur les consoles Xbox Series X/S et PS5, toutes deux compatibles VRR via HDMI 2.1.
Sur Xbox, le support de FreeSync (grâce au GPU AMD intégré) est même actif depuis la génération précédente, et Microsoft a contribué à vulgariser cette technologie auprès d’un large public. Sony, plus tardif, a intégré le VRR via une mise à jour firmware sur PS5 en 2022. Depuis, de nombreux titres en tirent pleinement parti, offrant des performances plus stables sur les scènes exigeantes.
Le VRR n’est donc plus un luxe réservé à quelques initiés. Il est devenu un standard incontournable dans le jeu vidéo moderne, porté initialement par G-Sync et FreeSync, et désormais intégré dans la quasi-totalité des plateformes et affichages conçus pour le gaming.
La guerre des Syncs
Si G-Sync et FreeSync reposent sur le même principe — celui du rafraîchissement variable en temps réel — leurs approches techniques et commerciales diffèrent profondément. Toutes deux permettent de profiter d’un gameplay fluide, sans tearing ni stuttering, mais le chemin emprunté par NVIDIA et AMD n’a pas été le même.
NVIDIA G-Sync : un module propriétaire haut de gamme
À ses débuts, G-Sync reposait sur un système propriétaire strictement contrôlé par NVIDIA. Chaque écran certifié devait intégrer un module hardware G-Sync, développé et fourni exclusivement par la marque au caméléon. Ce module assurait une gestion très fine de la synchronisation, avec une plage VRR étendue, un calibrage usine, une gestion intelligente de l’overdrive, et parfois le support du ULMB (Ultra Low Motion Blur).
Mais cette qualité avait un coût. Outre les composants additionnels, les fabricants devaient verser des redevances à NVIDIA pour intégrer G-Sync dans leurs moniteurs, ce qui se traduisait par un surcoût moyen de 20 à 30 % par rapport aux modèles équivalents en FreeSync. À une époque où près de 80 % des cartes graphiques dédiées du marché étaient signées NVIDIA, ce verrouillage avait tout du cercle fermé rentable. Mais il a aussi limité la diffusion initiale de G-Sync, les fabricants hésitant à industrialiser des modèles plus chers et moins flexibles.
AMD FreeSync : la voie ouverte
À l’inverse, AMD a opté pour une solution ouverte dès le départ. FreeSync repose sur le standard VESA Adaptive-Sync, lui-même dérivé d’une spécification initialement conçue pour économiser de l’énergie sur les écrans d’ordinateurs portables. Ce standard a été officiellement intégré au DisplayPort 1.2a en 2014, puis au HDMI 2.1 à partir de 2020.
FreeSync ne nécessite aucun module matériel spécifique, ce qui a permis à de nombreux constructeurs d’adopter rapidement la technologie sans alourdir les coûts de production. AMD a conservé l’appellation FreeSync pour désigner les écrans validés selon ses propres exigences, à condition d’utiliser une carte Radeon compatible.
Aujourd’hui, FreeSync est massivement répandu, bien au-delà du marché PC : les téléviseurs de LG, Samsung, Philips, TCL ou Hisense intègrent désormais cette technologie, tout comme les consoles Xbox Series S/X, équipées de GPU AMD.
Une bataille de normes à double tranchant
Pendant des années, cette dualité a joué contre le consommateur. Les écrans G-Sync affichaient souvent les meilleures performances en matière de stabilité VRR et de réactivité, mais à un prix largement supérieur. En parallèle, de nombreux écrans FreeSync abordables n’offraient qu’une compatibilité minimale, avec des plages VRR réduites et une gestion perfectible des chutes de framerate.
Le fossé qualitatif s’est toutefois comblé progressivement. L’un des tournants majeurs est intervenu en 2016 avec l’introduction du LFC (Low Framerate Compensation) dans l’écosystème FreeSync. Ce mécanisme permet de dupliquer les images lorsque le framerate descend en dessous de la plage minimale VRR de l’écran, évitant ainsi les retours brutaux à une fréquence fixe et les effets de tearing qui en découlaient.
G-Sync : toujours synonyme de qualité
Il reste vrai qu’en pratique, les écrans G-Sync « modulaires » se sont distingués pendant longtemps par une excellente gestion du ghosting, une latence minimale, et une stabilité VRR sur une plage très large (souvent de 1 Hz à 240 Hz). Même aujourd’hui, G-Sync Ultimate conserve cette philosophie haut de gamme, en ajoutant des contraintes supplémentaires comme une compatibilité HDR1000, un rétroéclairage multizone, et une couverture DCI-P3 étendue.
Mais ce modèle est en net déclin en 2025. De nombreux constructeurs privilégient aujourd’hui la certification G-Sync Compatible (que nous aborderons ensuite), bien plus souple et accessible, ou s’en tiennent à VESA AdaptiveSync Display, qui standardise désormais les exigences minimales de qualité VRR à l’échelle de l’industrie.
G-Sync Compatible : la fin d'une rude bataille ?
Comme nous l’avons vu, l’avènement du VRR a donné lieu à une véritable guerre des normes entre NVIDIA et AMD, chacune poussant sa solution propriétaire — G-Sync pour l’un, FreeSync pour l’autre. Mais cette opposition frontale a connu un tournant majeur en janvier 2019, lorsque NVIDIA a annoncé l’ouverture partielle de son écosystème à la norme VESA Adaptive-Sync.
Ce changement de cap a permis, pour la première fois, à des écrans FreeSync de fonctionner avec des cartes graphiques NVIDIA, sans nécessiter de module G-Sync intégré. Pour encadrer cette compatibilité nouvelle, NVIDIA a introduit une certification spécifique : G-Sync Compatible.
Une certification stricte mais inclusive
L’idée était simple : tester un maximum d’écrans Adaptive-Sync existants, et leur accorder le label G-Sync Compatible s’ils répondaient à un certain niveau de qualité. Au moment de l’annonce, seulement 12 écrans sur 400 testés avaient reçu l’aval de NVIDIA. Ce chiffre a ensuite grimpé rapidement, avec plus de 80 modèles validés dans les mois suivants.
En 2025, plus de 400 moniteurs sont désormais certifiés G-Sync Compatible, couvrant aussi bien des modèles bureautiques que des moniteurs gaming très haut de gamme. Une avancée majeure, puisque cela signifie que la grande majorité des écrans FreeSync récents fonctionnent parfaitement avec une carte NVIDIA, qu’ils soient officiellement validés ou activés manuellement.
Des exigences minimales clairement définies
Pour qu’un écran obtienne la certification G-Sync Compatible, NVIDIA impose plusieurs critères techniques précis :
Aucune présence d’artefacts visuels, tels que le blanking (écran noir momentané), flickering (clignotement), pulsing (luminosité fluctuante) ou ghosting trop marqué.
Une plage VRR minimale de 2,4:1. Par exemple, un écran 144 Hz doit être capable de descendre à 60 Hz minimum sans désactiver le VRR.
Une expérience utilisateur stable et sans intervention manuelle, notamment au niveau de la détection automatique dans les pilotes NVIDIA GeForce.
Les écrans qui ne répondent pas à tous ces critères peuvent néanmoins fonctionner en VRR si l’utilisateur active manuellement G-Sync dans le panneau de configuration NVIDIA. Cette option, bien connue des joueurs PC, permet de bénéficier du VRR même sans certification officielle — avec, parfois, un léger risque d’instabilité.
Certification | Plage VRR typique | HDR requis | Compatible HDMI | Compatible DisplayPort | LFC obligatoire | Produits certifiés (≈2025) |
G-Sync Compatible | Min. 2,4:1 (ex : 60–144 Hz) | Non* | Oui | Oui | Non (souvent présent) | 400+ |
G-Sync | Dès 1 Hz | Non* | Oui¹ | Oui | Oui | ~60 |
G-Sync Ultimate | Dès 1 Hz | Oui (HDR1000) | Oui¹ | Oui | Oui | ~10 |
FreeSync | A partir de 48 Hz | Non* | Oui | Oui | Non | 550+ |
FreeSync Premium | Min. 2:1 (>120 Hz ; FHD mini) | Non* | Oui | Oui | Oui | 380+ |
FreeSync Premium Pro | Min. 2:1 (>120 Hz ; FHD mini) | Oui (HDR400) | Oui | Oui | Oui | ~25 |
Notes :
HDR : la prise en charge du HDR n’est pas exigée sauf pour FreeSync Premium Pro et G-Sync Ultimate.
¹ HDMI avec G-Sync (modulaire) : certains écrans récents G-Sync sont compatibles HDMI 2.1, mais ce n’est pas systématique.
LFC : la Low Framerate Compensation permet au VRR de rester actif en dessous de la plage minimale via duplication d’images.
Vers une convergence des labels
Depuis cette ouverture, les différences entre les technologies G-Sync et FreeSync se sont largement estompées, du moins dans les gammes standard. NVIDIA propose désormais trois niveaux de certification :
- G-Sync Compatible : pour les écrans Adaptive-Sync sans module NVIDIA, validés par tests internes.
- G-Sync : écrans intégrant le module propriétaire NVIDIA, avec exigences accrues.
- G-Sync Ultimate : version haut de gamme avec HDR1000, rétroéclairage local (FALD/MiniLED), faible latence HDR et calibration avancée.
Côté AMD, on distingue également trois niveaux de FreeSync :
- FreeSync : élimine le tearing de base, sans garantie de LFC ni HDR.
- FreeSync Premium : exige au minimum du Full HD 120 Hz avec LFC.
- FreeSync Premium Pro : ajoute la prise en charge HDR (HDR400 ou plus) et une faible latence en HDR/SDR.
À noter que contrairement à G-Sync, les certifications FreeSync sont déclaratives : elles ne passent pas systématiquement par des tests de validation par AMD, ce qui explique des variations de qualité plus marquées selon les références.
En 2025, la plupart des nouveaux écrans gaming certifiés FreeSync Premium ou VESA AdaptiveSync Display peuvent prétendre à la compatibilité G-Sync, même sans validation officielle. Cette convergence technique marque la fin effective de la guerre des Syncs, au profit d’une expérience fluide et accessible quel que soit le camp graphique choisi.
Liens utiles
Pour conclure, voici quelques ressources pour aller plus loin, ou bien choisir votre écran ou téléviseur compatible VRR :
🔍 Notre guide d’achat des meilleurs écrans gaming : il intègre des modèles certifiés G-Sync, FreeSync, AdaptiveSync ou multi-compatibles, ainsi que celui des meilleurs TV 4K.
✅ La liste officielle des moniteurs G-Sync / G-Sync Compatible / G-Sync Ultimate est mise à jour régulièrement sur le site de NVIDIA.
🔴 La base de données FreeSync d’AMD contient plus d’un millier de références, avec options de tri par type de dalle, HDR, VRR, etc.
🧪 Tutoriel pour activer manuellement G-Sync sur un écran FreeSync : notre guide explique comment tester la compatibilité sur un écran non certifié.
13 novembre 2024 à 17h38