G-Sync, FreeSync, Adaptive Sync, VRR : quelles sont les différentes technologies de rafraîchissement variable ?

24
FreeSync vs G-Sync

Les pros comme les joueurs du dimanche ont tous plus ou moins entendu parler de ces termes, mais à quoi correspondent-ils vraiment et en quoi ces technologies sont-elles utiles ? Place au décryptage.

La quête de performances

L'industrie vidéoludique ne lésine pas sur les efforts pour proposer aux joueurs des technologies leur permettant de profiter pleinement des derniers jeux sortis et de ceux à venir. Alors que les jeux améliorent sans cesse leurs graphismes, nous offrant toujours plus d'immersion et de réalisme en tirant parti de technologies comme le Ray Tracing et le HDR, la quête de performances ne s'arrête pas à la qualité des graphismes.

Le confort visuel est ainsi une préoccupation majeure dans l'univers gaming, aussi bien pour NVIDIA et AMD que pour les constructeurs d'écrans. On peut dès lors évoquer des paramètres comme la taille et le type de la dalle (TN, IPS, VA, etc.), sa résolution, ou encore les techniques de rétroéclairage comme le local dimming ou le miniLED, en attendant que la très prometteuse technologie OLED (encore très marginale et onéreuse) émerge et se fasse une place parmi les moniteurs gaming.

La vitesse de rafraichissement de l'écran est également devenue un critère de choix pour les gamers, du moins pour ceux qui optent pour une résolution autre que 4K et qui souhaitent profiter de l'expérience de jeu la plus fluide possible. Une véritable course au taux de rafraichissement s'opère chez les fabricants, de 60 Hz à 120 Hz, nous avons vu apparaitre des moniteurs de plus en plus véloces en mesure d'atteindre des taux de 144 Hz, puis 180 Hz pour aller jusqu'à 240 Hz. Plus récemment, lors du CES 2020, Asus a dévoilé un nouveau moniteur ROG Swift, capable de grimper jusqu'à 360 Hz et donc d'afficher, potentiellement 360 images par seconde.

Fréquence de rafraichissement
Le web fourmille d'images comparatives comme celle-ci. Ici c'est Samsung qui tente de nous démontrer le gain que procure un écran avec une fréquence de rafraichissement élevée.

Petite parenthèse : nous ne discuterons pas ici de la pertinence de bénéficier d'un taux d'images par seconde aussi élevé, mais si l'acuité visuelle de l'œil humain est une question qui vous intéresse, sachez qu'une étude japonaise s'est penché sur les bénéfices du HFR et a mis en évidence un plafonnement de la perception de fluidité au-delà de 240 ips.

Le secteur gaming fait l'objet d'une véritable course à la performance ! Le marketing y joue un rôle important avec des valeurs floues et discutables concernant le temps de réponse d'une dalle ou son taux de contraste. Malgré tout, les fréquences élevées et le taux de rafraichissement variable (VRR) apparaissent aujourd'hui comme l'une des évolutions prégnantes de ce marché porté par NVIDIA et AMD avec leurs solutions respectives (G-Sync et FreeSync).

Si des noms comme Asus, Acer, Samsung, AORUS, et autres MSI se livrent une rude bataille sur ce marché en pleine croissance, la confrontation entre NVIDIA et AMD est d'autant plus rigoureuse qu'il s'agit, pour l'heure, d'un duel. Et comme nous le verrons un peu plus tard, les deux géants ont récemment révisé et fait évoluer leur technologie d'affichage, l'occasion pour nous de se pencher sur le sujet et faire le point.

Input lag, stuttering, tearing : une histoire de synchronisation

Pour beaucoup d'entre nous, le passage d'un écran de 60 Hz à un modèle HFR (avec un taux de rafraichissement supérieur à 60 Hz) a considérablement changé la donne, améliorant le sentiment de fluidité et la netteté des images. Seulement, à 60 ips - images par seconde - comme au-delà, il reste un problème de taille : celui de la synchronisation entre votre carte graphique et votre écran !

Le constat est simple : l'écran rafraichit les images de manière fixe. Prenons l'exemple d'un moniteur de 60 Hz. Celui-ci interroge le GPU 60 fois par seconde, plus précisément toutes les 16,67 millisecondes, son fonctionnement est donc régulier ce qui n'est évidemment pas le cas de la carte graphique. Alors que l'écran se contente d'effectuer un balayage régulier de l'image, le GPU est sollicité de manière plus ou moins grande pour produire l'image à afficher. Le volume de données qu'il traite est variable et irrégulier, en fonction des mouvements de caméra, des effets visuels et des scènes générées par le jeu, etc. Par conséquent, le temps nécessaire aux calculs de l'image dépend de plusieurs facteurs, à commencer par le volume variable de données à traiter, mais aussi de la puissance de votre machine.

Screen tearing
Un bel exemple de déchirement d'image (tearing)

Écran et carte graphique font leur travail indépendamment et c'est problématique. Sans aucune synchronisation à l'œuvre le GPU fournit plus d'images que l'écran est en mesure d'en afficher, ou pas suffisamment. Une plaie puisque c'est lors de ces instabilités que le tearing (déchirement) fait son apparition. Pour faire simple, un déchirement de l'image se fait voir lorsque le temps de calcul du GPU est trop instable et en décalage avec le rafraichissement de l'écran.

V-Sync : une solution imparfaite

Pour éviter ce phénomène, les fabricants de GPU ont d'abord voulu s'attaquer à sa source : la carte graphique. Ils ont ainsi déployé la technologie de synchronisation verticale, ou V-Sync. Généralement accessible dans les paramètres graphiques de nos jeux, la V-Sync permet à la carte graphique de se synchroniser avec le taux de rafraichissement du moniteur. Ainsi, le GPU ne produira pas plus de 60 images par seconde si nous utilisons un écran de 60 Hz.

Cette fonctionnalité préventive permet d'éviter le tearing grâce à une limitation des FPS. Le GPU attend en effet le signal de l'écran, appelé vblank, pour lui transmettre la dernière image produite. V-Sync implique cependant d'autres problèmes, le retard de calcul généré par l'attente du GPU entraine ainsi de l'input lag, et pire puisque si votre carte graphique peine à maintenir un taux d'image égal à la fréquence de rafraichissement de l'écran, vous aurez à faire au stuttering, des micro-saccades ou « bégaiement » affichant plusieurs fois la même image et réduisant donc considérablement l'impression de netteté et de fluidité.

V-Sync Stuttering

Bien conscients du problème, AMD et NVIDIA ont chacun tenté d'améliorer cette technologie avec l'Adaptive V-Sync et la FastSync d'un côté et l'Enhanced Sync de l'autre. Sans entrer dans le détail, ces technologies permettent d'activer ou de désactiver automatiquement la V-Sync en fonction de la fréquence d'image en jeu, ou encore de combiner cette synchronisation dynamique avec l'utilisation de la triple mémoire tampon - triple buffering.

Malheureusement aucune de ces solutions n'offre un résultat parfait, car il dépend grandement des jeux, de la puissance de votre machine et aussi de vos préférences en fonction du type de jeu.

G-Sync et FreeSync au secours des joueurs

NVIDIA et AMD ont littéralement inversé la tendance à partir de 2013. Au lieu de s'attaquer une nouvelle fois aux problèmes posés par la V-Sync, les deux géants ont proposé leur solution respective pour que ce ne soit plus le moniteur qui dicte la vitesse du rafraichissement.

Désormais, l'écran s'adaptera en temps réel à ce que la carte graphique est en mesure de produire. En clair, si le GPU ne produit que 82 FPS, l'écran fonctionnera à 82 Hz ! Lors de scène moins complexe à calculer, votre GPU produit 125 FPS ? Alors l'écran se calera à la fréquence de 125 Hz, c'est aussi simple que ça.



Le taux de rafraichissement variable est né, porté par G-Sync et FreeSync ! C'est un véritable coup de force de l'industrie vidéoludique que d'avoir réussi à imposer cette technologie aux fabricants d'écrans, qu'il s'agisse de moniteurs PC ou de TV puisque certains téléviseurs embarquent maintenant cette technologie, tout comme la Xbox (qui, on le rappelle, est équipée d'un GPU AMD).

La guerre des Syncs

Si les deux technologies fonctionnent selon le même principe et permettent d'obtenir un gameplay fluide, sans aucun lag, tearing ou stuttering, elles sont toutefois différentes sur plusieurs points.

01F4000007113802-photo-g-sync.jpg
NVIDIA G-Sync : un module couteux et sous licence

NVIDIA a en effet conçu un système propriétaire fermé, nécessitant d'intégrer un module hardware G-Sync à chaque écran. Malheureusement cette technologie propriétaire a un coût, qui est d'autant plus élevé que le caméléon exige sa part de royalties sur chaque produit commercialisé, un positionnement qui a certainement été influencé par le monopole que détient l'entreprise sur le secteur gaming. Après tout, si 80 % des joueurs sont équipés d'une carte graphique NVIDIA, pourquoi ne pas en profiter ? C'est à partir de cette politique lucrative qu'une nouvelle bataille des normes a débuté.

De son côté, la solution d'AMD ne fait appel à aucun hardware à intégrer à l'écran, elle repose sur un standard VESA qui était déjà en place depuis 2009 et dont le but était d'économiser de l'énergie en réduisant la fréquence d'affichage lorsque cela est possible sur les écrans d'ordinateurs portables. Intégré à la norme d'interface vidéo DisplayPort 1.2a en 2014, l'Adaptive Sync (à ne pas confondre avec l'Adaptive V-Sync) ne demande qu'un support logiciel adapté pour fonctionner sur les écrans compatibles. AMD a malgré tout conservé l'appellation FreeSync pour désigner les écrans qui prendront en charge l'Adaptive Sync à l'aide d'une Radeon compatible.

V-Sync vs Adaptive Sync - Intel
Illustration comparative entre V-Sync ON / OFF et Adaptive Sync. Notons que, depuis peu, les iGPU Gen11 d'Intel supportent l'Adaptive Sync

Les conséquences de cette guerre des Syncs entre les rouges et les verts ont surtout été préjudiciables pour le consommateur. Si les écrans FreeSync sont déjà plus couteux que la plupart, les produits estampillés G-Sync sont quant à eux près de 30 % plus chers que les moniteurs affichant une compatibilité avec la solution rouge. Au final la complexité du G-Sync a eu un résultat quelque peu contradictoire : alors que NVIDIA est leader sur le marché, les écrans G-Sync ont mis du temps à apparaitre et ne sont pas sortis en nombre des usines, contrairement aux modèles compatibles FreeSync. Cette politique discutable a très certainement eu pour effet de convaincre certains joueurs à se passer de cette technologie, ou même à choisir un écran gaming compatible FreeSync en se basant sur d'autres critères (taille, résolution, temps de réponse) alors qu'ils possèdent un GPU NVIDIA.

Il faut toutefois reconnaitre que la G-Sync a plus souvent reçu l'éloge des critiques pour sa qualité de mise en œuvre et ses performances. C'est d'ailleurs là un argument repris par le fabricant californien qui souhaite que l'appellation G-Sync soit synonyme de qualité.

LFC - Low Frame Compensation
La technologie FreeSync a commencé à réellement être viable avec l'arrivée du LFC en 2016, comblant ainsi le fossé qui la séparait de la G-Sync

Dans les faits, le module G-Sync effectue des tâches supplémentaires en vue de réduire le ghosting (flou de mouvement) et optimise l'affichage lors de chutes de FPS. Jusqu'à l'arrivée des pilotes supportant le LFC (Low Framerate Compensation), le FreeSync gérait relativement mal les chutes de FPS en dessous de la limite basse de la plage de fréquences de l'écran, alors que le module de NVIDIA permet une synchronisation sur des intervalles plus larges. Il aura fallu plus de deux ans à AMD pour s'attaquer à ce problème épineux et faire en sorte que l'écran ne retombe pas à une fréquence fixe obligeant les joueurs à retomber dans les travers de la V-Sync.

G-Sync Compatible : la fin d'une rude bataille ?

Comme nous l'avons vu, l'opposition entre NVIDIA et AMD s'est renforcée avec l'avènement du VRR débouchant sur une énième guerre des normes. Les deux certifications ont toutefois bien évolué depuis leur lancement, notamment avec le support du LFC du côté d'AMD, mais aussi avec la prise en charge du HDR dans les deux camps avec FreeSync 2 et G-Sync HDR.

VESA_logo

Les lignes ont cependant (enfin) bougé en 2019 lorsque NVIDIA a annoncé son ouverture à la norme VESA Adaptive-Sync, ce qui signifie que le module G-Sync n'est plus forcément nécessaire à un écran pour profiter du VRR et de la bénédiction du caméléon. Autrement dit : les écrans FreeSync vont pouvoir fonctionner avec une carte graphique NVIDIA !

Pour ce faire NVIDIA a lancé une nouvelle certification "G-Sync Compatible". Au moment de cette annonce, seuls 12 écrans sur 400 testés ont reçu l'aval de l'entreprise et obtenu cette certification. Depuis janvier 2019, 72 références supplémentaires ont été approuvées, portant ainsi le nombre total d'écrans G-Sync Compatible à 84.

Pour récapituler avant de détailler les caractéristiques des différentes certifications G-Sync / FreeSync, ce tableau nous montre dans l'ensemble à quoi l'on peut s'attendre en choisissant parmi les trois catégories de chaque fabricant :

Tableau récap' G-Sync/FreeSync
* Hormis avec FreeSync Premium Pro et G-Sync Ultimate, la présence de l'HDR n'est pas obligatoire pour obtenir une certification. Il en va de même concernant le LFC, qui est une technologie propre à AMD et dont la présence n'est obligatoire que sur les deux plus hauts niveaux de certification.

Dans l'absolu un grand nombre de moniteurs FreeSync récents pourraient se voir accoler la mention G-Sync Compatible, mais NVIDIA impose une série de tests pour qu'un tel écran soit mentionné comme étant compatible.

nvidia-freesync-compatibilité.jpg

Le fabricant demande en effet un seuil de qualité minimum et veut s'assurer de l'absence d'artefact visuel, notamment de blanking, flickering, pulsing et ghosting. En outre, NVIDIA impose une plage VRR d'au minimum 2,4 : 1, ce qui correspond, par exemple, à un intervalle de fonctionnement compris entre 60 et 144 Hz. C'est en raison de ces règles strictes que le nombre d'écrans certifiés est encore faible à l'heure actuelle. Malgré tout, les propriétaires d'écrans reconnus comme non compatibles ou pas encore testés peuvent tenter leur chance en activant manuellement la G-Sync, chose que nous verrons dans un prochain article.

Évolution des nomenclatures : on fait le point

Cette surprise que l'on attendait plus de la part de NVIDIA a entrainé quelques changements d'un côté comme de l'autre. Forts des centaines de moniteurs et des dizaines de TV prenant en charge FreeSync, les rouges ont clarifié les choses en présentant trois catégories FreeSync dont le FreeSync Premium, une nouveauté dévoilée lors du CES 2020.

Pour résumé, chez AMD on retrouve donc des moniteurs :

  • FreeSync : ils sont testés pour garantir un temps de latence inférieure à 100 ms et l'absence de tearing.
  • FreeSync Premium : Ces moniteurs reprennent les exigences du FreeSync en y ajoutant la compatibilité LFC sur des dalles Full HD avec une fréquence d'au moins 120 Hz.
  • FreeSync Premium Pro : elle remplace la certification FreeSync 2 HDR et requiert une dalle FHD de 120 Hz et HDR 400, la compatibilité LFC et une faible latence en HDR comme en SDR.

  • Nomenclature AMD FreeSync

    En ce qui concerne NVIDIA, on retrouve des moniteurs :

  • G-Sync Compatible : dépourvu de module hardware, ces moniteurs doivent disposer d'une plage VRR d'au moins 2,4 pour 1 et subir une batterie de tests garantissant l'absence d'artefacts.
  • G-Sync : c'est la solution matérielle de NVIDIA. Elle doit répondre à un cahier des charges strict avec plus de 300 tests de qualité d'image. L'écran doit pouvoir fonctionner sur une large plage VRR qui débute à 1 Hz et proposer des fonctionnalités comme l'overdrive variable, et (optionnellement) l'overclocking du taux de rafraichissement ou l'Ultra-Low Motion Blur (ULMB). Enfin, tous les modèles G-Sync sont calibrés en usine.
  • G-Sync Ultimate : c'est l'offre haut de gamme de NVIDIA avec des écrans qui reprennent les exigences G-Sync en y ajoutant une compatibilité HDR 1000, une résolution et un taux de rafraichissement élevé, une faible latence, un rétroéclairage multizone et une plage colorimétrique complète comme le DCI-P3.

  • G-Sync product categories.JPG

    Liens utiles

    Avant de conclure cet article par un petit lexique regroupant des termes parfois mal compris, nous avons jugé pertinent de vous fournir quelques liens utiles qui vous permettront d'en savoir plus et peut-être à vous aider à choisir votre prochain écran gaming.

    Tout d'abord, vous pouvez consulter notre comparatif des meilleurs modèles d'écrans PC gamer avec une sélection qui contient aussi bien des écrans G-Sync, FreeSync, ou compatibles avec les deux technologies.

    Si jamais vous avez un doute ou attendez la compatibilité ou la venue d'un nouvel écran du côté de NVIDIA, les caméléons tiennent une liste complète des moniteurs compatibles, toutes catégories confondues (G-Sync, G-Sync Compatible et G-Sync Ultimate).

    AMD tient également une liste à jour des moniteurs compatibles FreeSync. Il sera cependant nécessaire de bien affiner la recherche, car les références présentent dans cette liste atteignent aujourd'hui un total qui se rapproche du millier. Si vous cherchez à connaitre les jeux HDR optimisés pour FreeSync Premium Pro, AMD en dresse une liste sur son site.

    Enfin, pour savoir comment profiter de la VRR sur un écran FreeSync alors que vous êtes équipé d'une carte graphique NVIDIA, nous avons réalisé un tutoriel dédié qui lève le voile sur cette question. Nous vous y montrons notamment la marche à suivre pour tester un écran qui n'a pas été reconnu comme G-Sync Compatible par NVIDIA.

    Lexique : apprenez à bien parler la langue des Sync

    Comme promis nous avons concocté un petit lexique pour détailler les quelques acronymes cités dans cet article, mais aussi pour succinctement revenir sur des termes qui ne sont pas toujours simples à saisir.

    VRR - Variable Refresh Rate : ce terme fait référence aux différentes technologies qui permettent à un écran de disposer d'un taux de rafraichissement variable. On parle aussi de plage VRR lorsqu'il s'agit de l'intervalle de rafraichissement variable couvert par l'écran, par exemple entre 60 et 144 Hz. G-Sync, FreeSync et Adaptive Sync sont des technologies VRR, on y trouve également l'HDMI 2.1 VRR.

    Input lag : le « retard à l'entrée » est le délai nécessaire à un moniteur pour traiter et afficher les informations qu'il reçoit. Il dépend des tâches exécutées par l'écran pour traiter les signaux (ajustement du contraste, mise à l'échelle, HDR, etc.), c'est pour cette raison qu'il est souvent bien plus élevé sur les téléviseurs, le traitement de l'image y étant plus complexe. Un input lag élevé influe fortement sur l'expérience de jeu surtout s'il s'agit de jeux rapides et compétitifs comme les FPS. Il entraine inévitablement un délai entre vos commandes de claviers, souris et autres, et le fait de voir les répercussions à l'écran. Attention à ne pas confondre l'input lag avec la réactivité d'un écran (son temps de réponse).

    Le tearing ou screen tearing est un déchirement d'image qui se produit lorsque le flux vidéo n'est pas synchronisé avec le taux de rafraichissement de l'écran. Un écran sans VRR rafraichissant son image à une fréquence fixe de 60 Hz interroge le GPU toutes les 16,67 ms, il est alors courant qu'il envoie son signal lorsque le GPU échange son back buffer et son front buffer, autrement dit ses zones de mémoires où il stocke la dernière image calculée et l'image en cours de calcul. Deux images distinctes constituent alors l'image affichée, faisant apparaitre une ou plusieurs lignes horizontales à l'écran.

    Le stuttering est un terme générique qui désigne des ralentissements et des freeze et qui s'apparente à des saccades d'images lorsque le phénomène est visible, d'où son nom de stuttering (bégaiement). C'est un problème courant que l'on rencontre même sur des configurations de jeux véloces, contrairement au tearing il existe de nombreuses causes de stuttering qui peuvent aussi bien être liées à des problèmes logiciels que matériel.

    LFC - Low Framerate Compensation : cette technologie vient corriger l'un des grands défauts de la FreeSync avec des écrans compatibles qui ont souvent une plage VRR restreinte. Le LFC permet de dupliquer des images lors de chutes de FPS pour ainsi faire en sorte de maintenir FreeSync activé en ne tombant pas en dessous de la limite basse de la plage VRR de l'écran. Sans le LFC, il est courant que FreeSync s'active et se désactive, perturbant ainsi la fluidité du jeu avec tous les problèmes que cela implique (tearing, blanking, etc.).

    IPS : acronyme d'images par seconde, que l'on rencontre plus souvent sous le terme anglophone FPS - Frames per second.
    Haut de page

    Les derniers tutoriels

    Carte graphique : tous les tutoriels
    Rejoignez la communauté Clubic S'inscrire

    Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

    S'inscrire

    Commentaires (24)

    Dahita
    Excellent, merci pour l’article
    St_uf
    Ces technologies doivent être très agréables sur la majorité des jeux.<br /> Par contre sur un fast-fps par exemple, si le framerate fait le yoyo entre 85 et 125, le feeling de la souris sera quand même dégueulasse. Dans un souci de consistance, le joueur aura tout intérêt de brider ses fps à 85.<br /> Le pire étant d’avoir la v-sync activée alors que le matos ne peux pas générer assez de fps, ce qui fait ramer encore plus le jeu.<br /> Très bon article.
    Cleindori
    Héhé j’ai un freesync premium pro 8)<br /> C27HG70<br /> https://www.amd.com/en/products/freesync-monitors
    Cleindori
    Par contre j’aimerais comprendre un truc.<br /> Quand j’active le HDR, une surcouche blanco-grisâtre se superpose à l’écran. C’est dégueulasse, tant en jeu que sous Windows. De plus ça affine vachement les polices d’écriture. Ce point-là pourrait être positif une fois habitué, mais la qualité visuelle de l’affichage, non c’est juste pas possible.<br /> Wtf ?
    Matthieu_Legouge
    Cleindori:<br /> C27HG70<br /> Hello, et en GPU tu as quoi ?
    Cleindori
    Une 1080
    Matthieu_Legouge
    @Cleindori Je suppose que ton écran est connecté via un câble DP ?<br /> Seul le DisplayPort 1.4 prend en charge l’HDR, si ton câble est plus ancien que cette norme alors le problème vient surement de là (superbe écran au passage !)<br /> image.png878×496 26.9 KB<br />
    Cleindori
    C’est le câble fourni avec l’écran, et je suis en « version displayport 1.2↑ ». J’ai rien au-dessus de sélectionnable. C’est ça le pb ?<br /> Merci
    St_uf
    La chaîne à l’air super intéressante, mais perso je me vois pas jouer à QW avec seulement 120 ou même 140 fps. Sans parler du fait que les fps et le netcode sont intimement lié sur ce genre de jeu, les fluctuations c’est pas top. Je joue à quake depuis 97 j’ai donc eu le temps de me faire mon opinion sur le sujet.<br /> Après je donne mes conseils de papy pour des jeux sur lesquels presque plus personne ne joue … mais je veux bien volontiers croire que ça ne représente plus trop la réalité en 2020 sur des jeux récents avec ce super matos que j’ai jamais testé ^^
    danix3005
    Il faut déjà du bon matos pour faire tourner des jeux à plus de 140fps. J ai toujours tendance a privilégier la qualité des textures et tourner à 60fps. Erreur de ma part ou c est chacun ses préférences d apres vous ?
    St_uf
    Sur un jeu qui à presque 25ans ça va, tu peux même le faire tourner à 1k fps si tu veux ^^<br /> Pour les textures chez la majorité des joueurs de quake, le jeu ressemble à ca :<br /> 78259-shot0015.jpg840×525 122 KB<br /> Les gros joueurs sur ces jeux en ont pas grand chose à faire de la qualité à part pour monter des vidéos<br /> Après même si je pense qu’on voit mieux les gars en low qu’en high sur un bf ou un cod… je trouve quand même ce style de jeu plus sympa quand c’est pas une bouillie de pixel
    Peter_Vilmen
    Non mais les gars vous êtes à la traine, l’oeil humain ne peut voir qu’à 30 hz, donc tout ce qui est au dessus de 30-40 hz est inutile.
    danix3005
    Houla…non. il semblerait que « TU » sois en retard. Je le croyais aussi. Je t invite à regarder ça : https://hitek.fr/actualite/frame-rate-jeux-videos-oeil_6959<br /> Et à regarder des video à 30, 60 hz . Je trouve que l on y trouve quand même un confort et un rendu beaucoup plus agréable en augmentant le nombre d images par seconde. Au-delà je ne sais pas…
    Goodbye
    Je pense que c’était du troll hein ^^<br /> C’est un flux continu l’oeil de toute façon, plus il y aura d’image, plus ce sera agréable et net.
    Ubwi
    Si tu ne vois pas les différences entre 40 et 100 Hz il faut aller voir un ophtalmo direct Ce n’est pas surfait. Au delà des 200 oui, là c’est très commercial, mais tout cela dépend quand même aussi du type de jeux affiché tout simplement.
    Peter_Vilmen
    Désolé c’était un troll, cette rumeur était vraiment en vogue chez les joueurs de AAA pendant un moment vu que la plupart d’entre eux étaient joués à 30 fps, il fallait avoir joué sur un écran CRT 100 hz pour savoir que sur des rendus bruts le 100 hz est largement différent du 60 hz.
    St_uf
    La rumeur doit venir de l’amalgame entre la fluidité et pouvoir distinguer clairement une image dans un flux.
    frigo
    Pour moi un Vrai FPS en Esport,avec la puissance actuelle des cartes graphiques,c’est un jeux photos-réalistes avec de la végétation,des arbres,des ombres,des lumiéres,des textures réalistes…<br /> Si on part dans votre logique, pourquoi ne pas enlever les murs ? ,les obstacles ?<br /> Ou pourquoi ne pas faire tout simplement une MAP Aréne,dans un désert sans les dunes,un terrain totalement plat ?<br /> Pour moi ce n’est pas de l’Esport ! L’esport sur les jeux type Fps doit se calquer sur la réalité d’un vrai combat Militaire avec toutes ses contraintes !
    younglord
    Bonsoir, je suis vraiment nouveau à ces technologies et je me demande peut etre naivement si avoir un moniteur avec un balayage supérieur à 100Hz est d’une quelconque utilité pour une PS4 qui a environ 60 Hz ?<br /> Merci beaucoup pour votre aide !
    Matthieu_Legouge
    Bonsoir. En effet ça n’est d’aucune utilité d’investir dans un écran qui monte au delà de 60 Hz avec la PS4 ! Mais si vous comptez changer prochainement de console, ou connecter votre écran à un PC capable de fournir plus de 60 images par seconde, alors l’investissement peut en valoir la peine.
    Yorgmald
    Mais il reste un débat : quand on est en g-sync/freesync, faut-il activer la vsync?
    Goodbye
    Tu peux l’activer ou non ça changera rien si tu as la G Sync deja active par exemple. (En gros c’est pas pris en compte , pas de limite de fps non plus)
    Pernel
    Pour avoir du GSync, c’est effectivement un gain de confort. Est-ce parfait ? Pas du tout.<br /> Mais c’est quand même sacrément agréable pour qui déteste le tearing (et donc qui vivait en VSync), mais qui déteste l’inconfort. Alors par moment c’est pas aussi bon que ce qu’on dit, mais c’est très rare. Ça me permet de bien profiter des jeux mal optimisé (CP2077 si tu m’entends …) alors que j’ai une grosse machine, ja.<br /> Même sur les config de M. Toutlemonde ça offre un confort non négligeable, encore une fois, ça révolutionnera pas la façon de jouer mais c’est pas mal, même si c’est beaucoup trop cher pour ce que c’est.<br /> Pour qui joue sur console, XBox One ou Serie (je crois que c’est pas compatible PS5), mieux vaut prendre du FreeSync, déjà ça coûte beaucoup moins cher et c’est compatible avec vos machines contrairement au GSync et quand un jeu ne tourne pas a 60FPS ou pas de manière constante, c’est moins désagréable.
    bafue
    C’est tout a fait normal,le HDR 400 600 est juste une bouze imfame ,ça fait beau sur la boite et et la fiche technique,en dessous de 1400 passe ton chemin,j’ai le même écran que toi c’est inutilisable ,et sur beaucoup d’autre ecran aussi rassure toi …<br /> C’est comme beaucoup d’écran Freesync qui ne fonctionne pas du tout dans ce mode …<br /> Ça s’appelle du marketing…<br /> L’avantage d’un ecran G-sync c’est que tu est sur que cela fonctionne et en plus il le fait extrêmement bien …<br /> Ton Samsung est un excellent écran ,faut juste oublier l’HDR…Son Freesync premium pro fonctionne très bien lui aussi même avec une carte Nvidia.
    Voir tous les messages sur le forum