AMD puis Intel évoquent le cas du Display Port 2.0 : déploiement en 2022 ?

Nerces
Spécialiste Hardware et Gaming
19 août 2021 à 15h23
17
© WCCFTech
© WCCFTech

La pandémie de COVID-19 a retardé certaines innovations techniques et leurs promoteurs cherchent aujourd'hui à rattraper le temps perdu.

Dans un mouvement que l'on peine à imaginer concerté, AMD et Intel ont tour à tour évoqué la question de l'adoption du Display Port 2.0 qui doit ouvrir la voie à des débits de l'ordre de 80 Gb/s, tout à fait confortable pour de la 8K, voire de la 10K.

Vers une prise en charge sur RDNA 3 ?

Officiellement présenté dès 2019, le nouveau standard Display Port 2.0 se fait attendre, mais certains petits curieux ont remarqué que le patch le plus récent des derniers pilotes pour les cartes graphiques d'AMD donne quelques indications à son sujet.

Il y est très clairement indiqué « prise en charge Display Port 2.0 », mais il n'est pas question de spécifier la génération de cartes graphiques concernée. Évidemment, RDNA 2 n'est pas de la partie et le seul lancement de GPU à venir chez AMD est celui de RDNA 3, pour courant 2022. On voit mal qui d'autre ce patch pourrait impliquer.

Intel sûr de son fait pour la sortie d'ARC Alchemist

Dans la foulée, c'est Intel qui met à jour le kernel i915 de ses pilotes graphiques au travers de multiples patchs lesquels confirment le déploiement du standard Display Port 2.0 sur les GPU DG2 de l'Américain.

Contrairement aux notes de mises à jour d'AMD, celles d'Intel précisent en effet très clairement les puces concernées et le DG2 y est indiqué sans détour. Sachant qu'Intel a officialisé il y a quelques jours la marque ARC et évoqué les puces Alchemist, il y a fort à parier que cette génération sera parmi les premières à prendre en charge le Display Port 2.0

Notons toutefois qu'à l'heure actuelle aucun moniteur Display Port 2.0 n'est commercialisé. Les premiers modèles seraient prévus pour le début de l'année prochaine. Tout le monde se met donc en ordre de marche et nous attendons de voir la réponse de NVIDIA à ce sujet.

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (17)

MattS32
Plutôt 80 Gb/s que 80 Go/s, ça sera déjà pas mal
Nerces
Mais 80 Go/s, ça serait tellement formidable Merci, c’est corrigé
MattS32
Nerces:<br /> Mais 80 Go/s, ça serait tellement formidable<br /> Encore «&nbsp;quelques&nbsp;» années et on y sera
wackyseb
Pour les écrans, le display port 2.0 ne sera utile que pour du 8K voir du 10K si je comprends bien donc les futurs écrans en 1080p, 1440p et 4K n’apporteront rien de neuf en passant au DisplayPort 2.0
Kriz4liD
Ce n’est pas qu’une question de définition , il serait aussi possible d’avoir un framerate encore plus élevé et un son de meilleur qualité.<br /> mais comme vous le dite , logiquement des écrans 4K ou moins resteront sur du DP 1.3 et 1.4
Numto
Et le DP via USB type C, on l’évoque pas
wackyseb
Un son de meilleure qualité ?<br /> C’est quoi le rapport avec l’image !!!???<br /> La bande passante pour le son est très très faible par rapport à 1 seule image.<br /> Tu pourrais faire passer du son non compressé sur 32 canaux que ça ne serait même pas le 1/4 d’1 seule image
MattS32
Les nouveautés du DP 2.0 ne se limitent pas à la bande passante.<br /> Il y en a une qui peut bénéficier à tous les écrans, même un écran basse définition de smartwatch : le Vesa Panel Replay.<br /> Avec le DP 1.x (et toutes les versions actuelles du HDMI), la source envoie un flux continu d’images complètes à l’écran. Même si tu affiches une image totalement fixe, tu vas avoir un flux complet qui va être envoyé.<br /> Avec le VPR, il devient possible d’envoyer à l’écran des images partielles, pour n’envoyer que les portions qui ont été modifiées, voire même de ne pas envoyer d’image du tout et de couper complètement l’alimentation de la liaison et d’une partie du GPU tant que l’image est statique.<br /> Numto:<br /> Et le DP via USB type C, on l’évoque pas<br /> Ce n’est pas une nouveauté du DP 2.0.
Kriz4liD
OK merci pour l info.
smover
On ne pourrait pas avoir qu’un seul standard plutôt qu’une armée ? L’USB-C commence à s’imposer, pourquoi ne pas en proposer une nouvelle version plus performante plutôt que de ressortir un Display Port ? Et d’assurer un minimum de compatibilité.<br /> J’espérais le DP enterré, lui et tous les adaptateurs qui vont avec…
wackyseb
On verra si VPR sera utilisé et dans quel cas.<br /> A mon avis, uniquement PC portable pour économiser de la batterie.<br /> Pour un PC fixe, Go plein pot sans compression bande passante maximum
MattS32
L’affichage via USB-C, ça passe par du protocole Display Port justement (éventuellement HDMI, mais c’est excessivement limité, au point que même les adaptateurs USB-C vers HDMI, ils utilisent en fait le DP et un convertisseur DP vers HDMI).
smover
OK mais pourquoi ne pas unifier définitivement les ports du coup ? L’USB-C ne peut pas s’améliorer pour éviter tous ces adaptateurs et changements de prises et même souvent d’écrans ?
MattS32
L’USB-C est plus coûteux à implémenter et impose de supporter différents protocoles supplémentaires (le support de l’USB 2.0 est obligatoire, et il faut implémenter le CC pour configurer l’alt mode et activer le DP).
bennukem
Parce qu’il y a des royalty. Donc chacun cherche à tirer la couverture à lui.<br /> Displayport est royalty free.
smover
Ok. Merci à tous pour vos infos !
sebstein
Pourquoi continuer à utiliser le DP ? Le HDMI, je comprends, c’est plutôt utilisé pour les téléviseurs, mais sur PC, je ne comprends pas pourquoi ne pas tout passer à l’USB-C qui gère le DP (plus petit connecteur, réversible et pas uniquement limité à l’affichage)…
MattS32
Coût des licences et plus grande complexité (il faut gérer l’USB 2.0 et le CC)… Et la petite taille et la réversibilité, dans l’écrasante majorité des cas, elle ne change pas grand chose, surtout sur desktop (on branche pas son écran tous les jours…).<br /> nVidia avait tenté l’expérience, ils sont vite revenus en arrière…
sebstein
Si c’est juste pour envoyer le flux vidéo, ils peuvent ignorer le support USB 2.0 et le CC (qui gère principalement le négociation host-device, ici c’est clairement défini et la négociation de l’intensité électrique, ici on peut s’en passer, l’écran a sa propre source électrique), non ?<br /> La taille des connecteurs, ça peut être pratique pour en mettre plus que 4 sur la CG.<br /> Perso, j’ai un connecteur USB-C sur mon écran et c’est bien pratique pour connecter mon MBP.
MattS32
Non, ils ne peuvent pas.<br /> En dehors des «&nbsp;dedicated charging port&nbsp;» (donc les ports qui ne font QUE de la recharge), le support de l’USB 2.0 minimum est obligatoire. C’est une volonté de l’USB-IF, parce que l’USB doit rester ce qu’il a toujours été depuis sa première version : une connectique avec une rétrocompatibilité bi-directionnelle. N’importe quel périphérique USB doit pouvoir être branché et reconnu sur n’importe quel port USB, éventuellement avec des performances dégradées (périphérique USB 3.0 sur port USB 2.0) ou des fonctionnalités désactivées (si le débit est insuffisant pour les assurer).<br /> Et le CC, il est utilisé pour la négociation de l’alt mode. Et comme le DP est un alt mode, il faut du coup le CC pour l’activer.<br /> En outre, l’USB-C alt mode DP n’est pas compatible avec tous les écrans n’ayant pas un port USB-C en entrée (donc l’écrasante majorité). Il faut un adaptateur actif (puisqu’il faut faire la négociation). Alors qu’un port DisplayPort, c’est compatible avec tous les écrans à entrée numérique avec un simple adaptateur passif (via le «&nbsp;Dual Mode&nbsp;», le port DP peut envoyer directement un signal DVI/HDMI, ce qui permet de passer par des adaptateurs passifs).<br /> Quand au fait de mettre plus de 4 ports par carte, non seulement ça répond à un besoin extrêmement minoritaire (je suis déjà vu comme un ovni quand je dis que j’ai 3 écrans ^^), mais en plus c’est aussi une limitation des GPU (ou au moins de leurs drivers), qui à quelques exceptions près ne peuvent pas gérer plus d’écrans (pourtant techniquement avec le MST du DP, avoir 4 ports n’empêcherait pas de gérer plus de 4 moniteurs… mais en pratique, même avec le MST, c’est pas possible, si tu veux plus d’écrans il faut passer par des boîtiers d’agrégation qui les exposent comme un seul).<br /> Après, y a effectivement le cas des portables, où c’est bien pratique, d’autant que ça assure la charge en même temps. Mais beaucoup de monde passe en pratique plutôt par un «&nbsp;hub&nbsp;» qui offre un connecteur écran classique, parce que c’est plus pratique, ça permet de tout brancher à l’ordinateur en une seule fois (au bureau, je branche ainsi en une seule fois les deux écrans, le récepteur du clavier, de la souris et du casque, le réseau et deux autres périphériques USB).
sebstein
Merci pour ces infos.<br /> Par contre, pour l’adaptateur passif, si le DP2 permet de couper le signal quand l’image est fixe ou de n’envoyer que les parties en mouvement, je suppose qu’un adaptateur passif ne sera plus possible non plus.
MattS32
Les adaptateurs passifs pour l’HDMI/DVI, ça fonctionnera toujours avec le DP2, puisque quand un tel adaptateur est branché, le signal qui est envoyé par la sortie DP est directement du HDMI/DVI, donc sans les fonctionnalités spécifiques au DP. Et idem pour les anciens écrans DP, un port DP2 n’activera pas le VPR s’il est branché à un écran DP1 (et d’ailleurs, même s’il est branché à un écran DP2, ça ne sera activé qu’après s’être assuré que l’écran le supporte, puisque c’est une fonctionnalité optionnelle du DP2).
Voir tous les messages sur le forum
Haut de page

Sur le même sujet