NVIDIA Reflex : peut-on dire adieu à l'input lag ?

03 septembre 2020 à 13h38
33
Nvidia Reflex © Nvidia

Lors de sa conférence de mardi, NVIDIA a révélé pléthore de nouvelles cartes graphiques, et ne s'est pas privée de quelques surprises comme sa nouvelle technologie de réduction de latence : Reflex.

La réduction de la latence a toujours été un point clé pour les amateurs de jeux compétitifs. NVIDIA, avec l'introduction de la technologie G-Sync, avait déjà de quoi plaire à cette frange de potentiels utilisateurs. Aujourd'hui, l'entreprise fait un pas de plus dans cette direction avec Reflex, qui vient s'ajouter aux services déjà proposés aux possesseurs de cartes Geforce.

So long l'input lag

Durant sa présentation, puis en vidéo, NVIDIA a expliqué comment les joueurs pourraient profiter de cette amélioration substantielle de leurs sessions de jeu en ligne.

Reflex va ainsi synchroniser le processeur et le GPU GeForce pour se débarrasser d'une partie du processus de rendu des frames qui nécessite la communication de ces deux composants. De par son fonctionnement, cette technologie est donc compatible avec d'anciennes cartes NVIDIA et pas seulement les derniers modèles RTX.

Cependant, à l'instar du DLSS et du Ray-Tracing les développeurs de jeu devront intégrer la technologie dans leurs jeux, notamment grâce à des API fournies par NVIDIA. Il ne fait cependant aucun doute que les cadors du FPS compétitif comme Call Of Duty, CS : GO ou Overwatch ont déjà intégré Reflex à leur code.

Une communauté de joueurs PC toujours plus segmentée

Reflex s'accompagnera d'un nouveau module dans les écrans G-Sync visant à mesurer l'input lag. Comme montré dans la vidéo ci-dessus, l'outil fournit des données très précises et il ne fait aucun doute qu'il s'adressera avant tout aux joueurs professionnels, pour lesquels chaque milliseconde compte.

Il faut tout de même se demander quand s'arrêtera cette course à la fonctionnalité, notamment pour des développeurs qui se retrouvent déjà à devoir intégrer la synchronisation verticale (utilisée pour les technologies G-Sync et Free-sync), le DLSS, le Ray-Tracing. L'adoption de ces deux derniers est d'ailleurs encore timide chez les développeurs de AAA… Qu'en sera-t-il de Reflex sur le marché du jeu compétitif ?

Source : Engadget,NVIDIA

Naïm Bada

Éclectique vidéoludique, je me passionne aussi pour les nouvelles technologies et plus particulièrement la cybersecurité et l'applicatif, autant de sujets sur lesquels j'ai l'occasion d'écrire ici....

Lire d'autres articles

Éclectique vidéoludique, je me passionne aussi pour les nouvelles technologies et plus particulièrement la cybersecurité et l'applicatif, autant de sujets sur lesquels j'ai l'occasion d'écrire ici. Aux petits soins avec la logithèque, je m'assure presque tous les jours de proposer la meilleure expérience à nos utilisateurs avides de nouvelles apps. À une lettre près d'être naïf.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (33)

kenjiamo
Notamment pour des développeurs qui se retrouvent déjà à devoir intégrer synchronisation verticale g-sync et free-sync.<br /> Il n’y a aucun développement nécessaire pour la prise en charge de ces technologies dans les jeux vidéo.
Kriz4liD
nvidia devra rendre des technologies aussi utiles gratuites pour tous , comme le fait AMD avec freesync et autre. ce ne sera qu’à ce moment là qu’nVidia remontera dans mon estime .<br /> Oui ils sont tres forts pour faire des CG qui pètent le feux , les GTX 30xx sont franchement époustouflant , pour le reste …
Bombing_Basta
Encore une puce facturée 100 balles dans les écrans pour au final aucun apport comme la puce g-synch…
Fodger
Marketing à souhait.
fox-idcom
+1 avec kenjiamo<br /> je comprends quand clubic dit ça : «&nbsp;notamment pour des développeurs qui se retrouvent déjà à devoir intégrer synchronisation verticale (Utilisée par g-sync et free-sync)&nbsp;»<br /> les devs n’ont rien à faire de ce point de vue non ?
Goodbye
Fallait lire l’article Bombing !<br /> C’est pas une puce, juste une API.<br /> G-Sync c’est très très agréable, c’est du luxe, de polissage, mais vraiment c’est géniale.
Goodbye
Non on chiale depuis longtemps là-dessus.<br /> Typiquement avec l’abandon des écrans cathodique, l’input lag avait explosé sur les premières dalles tn.<br /> Clairement tu ne seras pas meilleur, mais tu t’éloignes du sujet, bien sur c’est plus confortable d’avoir le siège d’une porsch que d’une Dacia, mais le siège de la Porsche fera pas de toi un pilote c’est sur.<br /> En revanche quand tu es vraiment bon, revenir sur des 60 hz, c’est un peu comme demandé à un pilote de F1, de conduire dans un siège de dacia, il va toujours être très fort, mais légèrement handicap tait par rapport à autres.
Goodbye
Je suis pas spécialiste, G-sync une fois activé, reste activé sur tout les jeux, en revanche, cela semble bien mieux intégré dans certains jeux que d’autre, pourquoi ? je ne sais pas.<br /> Peut être quelqu’un ici à une réponse.
Bombing_Basta
Bah j’ai lu…<br /> Reflex s’accompagnera d’un nouveau module dans les écrans g-sync visant à mesurer l’input lag.<br /> Goodbye:<br /> input lag avait explosé sur les premières dalles tn.<br /> Grave, avec certains écrans, même encore aujourd’hui, tu as plus de «&nbsp;ping&nbsp;» dans l’écran qu’avec la connexion internet…<br /> Perso j’ai choisis mon écran (une dalle MVA) par rapport à cette caractéristique, entre autre, à l’époque…<br /> https://www.lesnumeriques.com/moniteur-ecran-lcd/iolair-mb24w-p3118/test.html<br /> (et oui je l’ai toujours )
Demongornot
C’est étonnant comment à chaque fois Nvidia sort une technologie propriétaire et peux de temps après AMD sort une version open source/libre et fonctionnant de façon comparable ou supérieur qui au final rend complètement inutile l’avantage qu’ils possède voir qui est écraser par une version moins cher (gratuite ?) et faisant fuir tout ceux qui aurait voulu de la solution Nvidia, voir même force Nvidia à eux même rendre leur cartes compatible avec la solution AMD.<br /> Et pourtant, jamais ils n’apprennent la leçon, ils réitèrent toujours comme si ils allait avoir une solution miracle que AMD ne serrait pas capable de reproduite et qui justifierais de laisser tomber sa carte actuelle pour acheter une Nvidia…<br /> L’arrogance du monopole marketing…<br /> Avec AMD qui devrait revenir dans la course des cartes haut de gamme et Intel qui va pas tarder à se joindre à la danse, ce genre de pratique risque de leur coûté cher…
jereffuse
J’attends la réponse de AMD en CG pour peut être me remettre au PC
Mickthekiller
L’arrogance? C’est du marketing, c’est tout. Ils sont premiers sur une feature, ils la font payer. Ca paye la R&amp;D, à l’heure où tout le monde copie tout le monde, ça leur permet de continuer à innover. Quand AMD sort un équivalent gratuit, c’est pas par bonté d’âme, c’est juste du marketing: donnée quelque chose pour ramener des clients quand on a perdu la bataille des perfs… Avec les annonces RTX30xx j’espère qu’ils ont de quoi répondre dans les prochains mois, Intel aussi d’ailleurs, s’ils arrivent tout deux en tant que compétiteurs des RTX20xx ça va pas le faire longtemps…
lapin-tfc
Mince alors Nvidia et AMD font du marketing… certains ici vont crier au loup, le marketing cay le mal !
Tristan_Henaff
Les dev en vrai ils auront juste à intégrer la fonctionnalité vite fait des que le framework ou la lib utilisée est à jour, rien de dingue
Mickthekiller
Euh… pas tant que ça…<br /> Aujourd’hui les jeux balancent les frames, ils se calent sur ça. Le GPU se débrouille, si ça tient pas la cadence, le GSync ou le Freesync demande à l’écran de ralentir l’affichage pour éviter le tearing etc…<br /> Là avec Reflex, c’est le GPU qui va pécho les frames tout seul, et en plus y’a de la télémétrie: quand le GPU balance les frames à l’écran, le GPU mesure le temps qu’à mis le moniteur à l’afficher pour de vrai avec du hardware en plus dans le module GSync des écrans compatibles, et donne cette/ces mesures au CPU, qui doit ajuster sa/ses boucles de traitement du jeu…<br /> Donc au final c’est pas du tout plug and play pour les devs à première vue…
St_uf
Les joueurs ont très vite compris que le lissage de la souris et la v-sync ça ajoute de la latence; surtout les Quakers qui viennent de Q2 … le jeu étant un cas d’école en matière d’input lag.<br /> Et si les joueurs ont tous 125fps sur Quake 3 par exemple, c’est pour d’autres raisons.<br /> Avant de devenir bon il faut bien passer par la case nul, et si t’es nul et qu’en plus tu fais du patinage artistique en sabot tu risques de stagner plus longtemps que les autres …
MattS32
Regarde ce qu’il y a juste après ton passage en gras : «&nbsp;mesurer&nbsp;».<br /> La puce supplémentaire dans les écrans servira juste à mesurer précisément l’input lag (à condition d’avoir aussi une souris compatible, puisque l’idée c’est de mesurer le délai total entre l’action sur le périphérique d’entrée et le résultat à l’écran), mais ce n’est pas nécessaire pour le faire diminuer. Une bonne partie de la diminution de l’input lag avec Reflex se fait via des solutions logicielles visant à réduire les délai au niveau du calcul des images du côté du PC. Il y a aussi une partie qui nécessite un écran compatible (360 Hz), mais c’est optionnel, nVidia a montré des exemples de gains assez importants (-33% d’input lag sous Destiny 2 et Fortnite) avec une GTX 1660, qui ne supporte pas ces écrans 360 Hz.
Demongornot
@Mickthekiller<br /> Sauf que ici je ne parle pas de justifier par une solution payante l’investissement, je fait références au pratique plus que malsaine de Nvidia, on se rappel notamment la Tesselation qui avais était utilisé volontairement pour donner de mauvaises performances au cartes AMD.<br /> L’arrogance c’est de répété la même chose et d’essayer encore de faire des solutions qui sont préjudiciable pour ceux possédant les cartes de la marque rivale.<br /> De plus, rien ne force AMD à faire une solution gratuite et open source, ils pourrait très bien répliqué avec une solution propriétaire mieux optimisé pour justifier un avantage.<br /> @lapin-tfc<br /> Oh, mais qui voila, mon plus grand fan, qui n’a certainement pas trouvé une autre excuse pour se moquer de moi, c’est forcément du pur hasard.<br /> Tu es le genre de personne qui justifierais les pratique tel que celle de Nestlé qui volontairement et en toute connaissance de cause ont tuer un nombre très élevé de personne juste pour l’appât du gain en ayant des pratiques totalement contre l’éthique.<br /> Mais ils gagnent des sous, alors forcément de ton point de vue c’est justifier.<br /> @elonae<br /> Par ce que toi tu sais réfléchir plutôt que d’insulté ? C’est nouveau ça.<br /> Tu veux dire comme le coût de R&amp;D de Intel qui devait être si terrible pendent qu’ils n’avaient pas de concurrence qu’ils ne faisait que peux d’améliorations et qui ont augmenté leur prix de façon ridicule ?<br /> Ah oui, c’est vrais que c’est toujours totalement justifier !
lapin-tfc
Faut que tu arrêtes de te prendre pour Dieu ce n’est pas à toi que je répondais si cela t’a échappé, tu es parano de surcroit<br /> ce qui est fantastique c’est que tu décides de qui je suis sans me connaitre «&nbsp;Tu es le genre de personne qui justifierais les pratique tel que celle de Nestlé qui volontairement et en toute connaissance de cause ont tuer un nombre très élevé de personne…&nbsp;» pauvre type franchement<br /> Il en est de même pour elonae qui ne te répondait pas !
Demongornot
Mais bien sur<br /> Demongornot:<br /> L’arrogance du monopole marketing…<br /> Mickthekiller:<br /> L’arrogance? C’est du marketing, c’est tout.<br /> lapin-tfc:<br /> Mince alors Nvidia et AMD font du marketing<br /> lapin-tfc:<br /> certains ici<br /> Mais c’est moi qui me fait des idées, ton historique de moquerie, sous entendu et réponses dirigé à mes dires, à des réponses s’adressant à moi, c’est seulement du hasard.<br /> Et elonae ne répondais pas du tout à une réponse de mon commentaire en s’adressant directement à mes dires, mais bien-sur, là aussi je me faisait des idées.<br /> Et quant bien même, j’ai pas le droit de répondre à quelqu’un maintenant ?<br /> Tu en as d’autre des excuses comme ça ?<br /> Et en effet, vue que à chaque fois que je pointe du doigt une pratique peux scrupuleuse tu la défends, clairement c’est que le profit des entreprises qui t’intéresse, peux importe les conséquences, qu’elles soit aussi simple que peux de choix pour les clients qui se retrouvent obligé de prendre l’unique type disponible, jusqu’à des choses bien plus grave.<br /> Donc si tu veux pas qu’on te prenne pour un défenseur invétéré des méthodes pour acquérir les profits, ne défend pas constamment et de façon très aggressive les méthodes pour acquérir les profits, je ne fait qu’appeler un chat un chat ici en adoptant la même attitude que tu as à mon égard, et étrangement ça ne te plais pas.
lapin-tfc
Cite moi une seule chose peu scrupuleuse que j’ai défendu ? je t’écoute<br /> Au moins tu as le don pour te mettre tout le monde à dos même ceux qui ne te répondent pas, Dieu pense, les autres répondent mais Dieu estime que ca le touche personnellement… purée
Goodbye
Alors autant pour moi, je trouve cela vraiment pas claire, est-ce un module pour mesurer uniquement l’input, ou ce module est il obligatoire pour avoir accès à Reflex ?<br /> J’ai beau relire, je suis toujours pas sur…<br /> Une dalle MVA ! C’est rare de nos jours, tu as bien du courage moi j’arriverais plus ^^
Demongornot
Oh, je sais pas, faire un modèle de vente basé sur l’unicité plus facile et moins cher à concevoir et imposé cela plutôt que de tenir compte des besoins et demandes et utilisateurs ?<br /> Quand on a un avis différent des normes établie, qu’il soit correcte ou pas, les gens vont toujours résister, c’est autant ce qui est arrivé à ceux ayant fait des grandes découvertes, ceux ayant proposé des choses trop en avance sur leur temps, qu’au simple personne proposant des idées novatrice mais radicalement différentes.<br /> Dans l’histoire c’est toi qui te prend pour Dieu, à dire que, les choses basé sur des observations avec des exemples et preuves sont fausse mais que ton avis, basé sur ta propre opinion, que tu n’as jamais accompagné d’exemples, est vrais, penser que ses propre idées sont plus valide que la réalité c’est ça se prendre pour Dieu.
lapin-tfc
je recommence car tu ne veux pas répondre : Cite moi une seule chose peu scrupuleuse que j’ai défendu ? je t’écoute<br /> Tu sais peu scrupuleuse du genre je défends des gens qui font des morts, je t’écoute
paulposition
Demongornot:<br /> Oh, mais qui voila, mon plus grand fan, qui n’a certainement pas trouvé une autre excuse pour se moquer de moi, c’est forcément du pur hasard.<br /> Tu es le genre de personne qui justifierais les pratique tel que celle de Nestlé qui volontairement et en toute connaissance de cause ont tuer un nombre très élevé de personne juste pour l’appât du gain en ayant des pratiques totalement contre l’éthique.<br /> Mais ils gagnent des sous, alors forcément de ton point de vue c’est justifier.<br /> Ce genre d’affirmation est assimilable a de la diffamation; Un autre débordement. de ce genre, et tu gagne un congé prolongé!
paulposition
@Demongornot et @lapin-tfc Calmez- vous , et restez dans le sujet; Les échanges de ce type ne sont absolument pas utiles au débat.
juju251
@Demongornot Retour immédiat au sujet, merci.<br /> Edit : Je t’ai envoyé un MP à ce propos et on peut en discuter (en mp du coup) si tu le souhaites.
Bombing_Basta
Goodbye:<br /> Une dalle MVA ! C’est rare de nos jours, tu as bien du courage moi j’arriverais plus ^^<br /> Si t’as lu le test que j’ai mis en lien, tu as vu que cette dalle MVA (AU Optronics, une des meilleures marques à l’époque), est une tuerie dans cet écran, input lag meilleur qu’un CRT (la référence à l’époque puisque quasi nul), et rémanence aussi bonne qu’un TN, sans parler des angles de vision ouverts, et de la colorimétrie bonne, et des qualités pour la vidéo et le reste…<br /> Bref, c’était une affaire de dingue à l’époque, 270€ pour cet écran…<br /> 12 ans après il a un peu vieillis j’avoue, une ligne de pixels HS et du marquage m’enfin bon, il fait toujours le taf.
Goodbye
Oui j’avais lu, et la colometrie contraste et luminosité c’est pas la joie non plus , après j’ai la chance d’avoir une belle dalle IPS 165 Hz et 1 ms perso , le VGAQ27 de Asus , une petite tuerie !
Bombing_Basta
Le colorimétrie à 2.8 avec un petit réglage, c’est très largement suffisant, et beaucoup d’écrans encore récemment n’avaient pas cette justesse.<br /> Après c’est sûr le MVA c’est pas son fort le noir, et donc le contraste.<br /> Encore une fois, on parle d’un écran de 12 ans d’age là, 24" 1920x1200 (16/10), et au rapport qualité/prix fulgurant pour le gaming et la vidéo ^^<br /> J’en changerai quand il y aura de l’OLED ou équivalent en 27/32".
lightness
ça se terminera lors de la standardisation de l’HDMI 2.1 qui intègre toutes ces technos de façon non propriétaire. du coup il restera à nvidia que peu de chose pour se démarquer.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet