Commentaires : DisplayPort 2.0 : jusqu'à 80Gb/s et la 16K HDR via USB-C

C’est officiel. Après sa présentation au public l’été dernier, la norme DisplayPort 2.0 est désormais disponible dans sa version Alternate Mode.

2 « J'aime »

On peut bien nous foutre du 56K que ça changera pas que le 1080P est encore la norme et la seule qualité accessible en streaming pour une grande part de la population, et aussi en ce qui concerne la TNT, que l’offre en 4K est anémique, que la puissance de calcul pour afficher du 4K pour les jeux, est astronomique…

Alors les autres K que ce soit 8, 16 ou je ne sais quoi k, c’est pas pour demain la veille.

3 « J'aime »

Pour la VR, cela pourrait avoir un intérêt assez rapidement: 8K par oeil à 90hz il faut pouvoir les acheminer ^^

Il ne faut pas cracher sur la technologie. Ca prépare l’avenir et fait baisser les prix.

4 « J'aime »

Parce que c’est bien connu, l’informatique se limite au stream du flux TV et aux jeux vidéo.
Du coup à quoi bon développer autre chose que pour ces besoins là vu que ce sont les seuls existant.

4 « J'aime »

Un bon coup de pied au nez du hdmi

Oui ça ne frappe aussi beaucoup… déjà que l’utilité de la 4k est vraiment vraiment discutable, au-dessus c’est inutile. Et venez pas me parler de « avant on pendant que la 1080p était inutile ». C’est faux. La 4k, 16k et autres arguments pour attirer les moutons, je mets ma main à couper qu’en test à l’aveugle on voit pas la différence à moins de se coller à l’écran. A l’heure où le but du jeu c’est de réduire nos dépenses énergétiques et en ressource, de qui on se fout quand on sait qu’un film blu-ray 4k c’est plus de 100GB, donc 5 fois plus qu’un film 1080p?

Avant qu’un casque 2x 8K @90Hz arrive …

Bah c’est un peu logique ça pèse plus lourd …

Ah inutile dis-tu? Tu as entendu parler du bitrate?
Il n’y a pas que la résolution qui rentre en jeu, et il faudrait que ca rentre dans la tête de tout le monde ici.
Plus tu as d’informations, de détails, plus tu peux monter en résolution, alors oui, le fichier en lui-même pèse plus lourd en conséquence, mais je te signale que les supports physiques ont suivi, je vous rapelle messieurs qu’on stockait 4.7Go max sur un DVD, pour passer à plus de 80Go sur un Blu-Ray désormais.
A l’heure ou le but est de proposer une qualité toujours supérieure (tu nages à contrecourant), qu’est-ce que tu crois que ca fait comme différence si sur une galette tu as 4Go, 40Go, ou 80Go? La galette est présente.

Parce que tous ces films ils sont avant tous stockés sur des serveurs également. Et même. Ca t’arrive jamais de te dire : à quoi bon ? Est-ce qu’on est pas bien là à notre niveau ? Pourquoi toujours ce jusqu’au boutisme uniquement destiné à vendre ? On pourrait estimer qu’à partir de maintenant l’informatique est suffisante, qu’on peut juste travailler sur l’efficacité énergétique. Au final nos ordinateurs sont fluides, rapides, puissants ? Ce que je t’explique c’est qu’on entre dans un monde en contraction, et que là on gaspille des ressources.

1 « J'aime »

On est deja sur du 4k, donc …
https://www.pimax.com/products/vision-8k-x

je ne fais pas partie de la secte des « à quoi bon ? » ni des « ça sert à rien » qui existe depuis que je m’intéresse à l’informatique, ça fait plus de 20 ans que ce sont les mêmes…Manque de patience pour découvrir les usages ? probablement.

Je bosse sur pas mal d’images et vidéos et j’ai donc un écran 4K au boulot et à la maison. Cà a changé ma vie tellement c’est beau et détaillé.

il ne faut pas voir « QUE » le côté résolution 4k, 8k, 16k. Il y a d’autres améliorations à chaque fois.
Mes écrans sont en 10 bits de couleurs donc j’ai 1 milliards de couleurs au lieu de 8 bits pour 16 millions de couleurs. Et là çà change vraiment beaucoup.

Il y a d’autres améliorations plus nuançable certes, mais ce n’est juste un « attrape couillon » comme tu as l’air de le dire. Autant les technologies type 3D, écran incurvé, Dolby Atmos etc… c’est du bon gros flan et çà ne durera pas du tout dans le temps. C’est juste bon pour faire vendre du matériel. On est d’accord

Je veux bien que la 4K ait « changé ta vie » mais ce n’est simplement pas demain la veille que le 16K sera démocratisé, quand aux 10 bits (espace et profondeur colorimétrique) ça fait longtemps que la norme existe et n’est certainement pas apparue avec les écrans 4k, même si ça s’est « démocratisé » avec.

Je ne dit pas que c’est un attrape couillon, je dis que ça ne sert absolument à rien pour 99.9% de la population actuellement.

Il y a bien d’autres aspects à améliorer avant d’augmenter la résolution maximale sur une norme grand publique implémentée sur des smartphones et laptops ou encore écrans de télé, à commencer par la technologie d’affichage elle-même (et là on peut parler d’attrape-couillonnade comme que QLED de samsung).

M’enfin soit, maintenant ça existe, très bien… On va pouvoir avoir du 16K sur du TN, sans source avant 15 ans.

Le gros défaut des connecteurs USB-C reste la grosse taille de l’embout et la relative fragilité du connecteur mâle. si l’on y fait pas attention, on a vite fait de plier l’ensemble qui du coup est bon à jeter.

Entre 4K et 8K il y a un monde, donc …

Dans ce cas on reste sur du FHD …

Je n’attend pas spécialement au dessus de 4K.
Sur une TV, on doit peut-être voir une différence.
Moi je bosse sur 27 ou 32 pouces et j’ai bien eu un ecran 5K et un 8K pour tester, je n’y vois aucune différence. Ce n’est pas plus beau, plus propre, plus lisse même avec du contenu dans ces formats.

Oui tu as raison, le 10 bits ça fait un moment que ça existe mais c’était uniquement pour les PRO et très cher.
Il existe même du 12 bits, 16 bits et 20 bits actuellement.
Bon là tu peux avoir des dégradés de couleur juste parfait sauf que les DVD, TNT et ecran de TV sont en 8 bits et simplifié en plus (ils tronquent une partie des couleurs…)

Je fais un peu de jeux et pouvoir mettre en 4K les jeux au delà de la performance c’est juste whaou. Et plus besoin de filtrage anisotropique, les textures en FXAA c’est suffisant et après les ombres très gourmandes en ressource à baisser.
Pour certains jeux, inutiles, le 1440p est suffisant.
Pour d’autres, il y a clairement une différence appréciable.
Par contre, rejouer en FullHD, impossible pour moi. C’est affreux même tout à fond.
Et le pire jouer en FullHD sur un écran 27 pouces fullHD.
Les pixels me brulent la rétine.
Et les modes 120hz, 144hz, voir 240hz.
Certainement utile pour les hardcore gamer FPS et encore pas sûr. J’ai testé en 144hz, mouais, ca m’a laissé comme un goût de bof bof (car obligé de mettre en fullHD et graphisme presque à zéro)

2 « J'aime »

Très intéressant, le DP2.0/USB4. Pour les applications de la VR en 2x8K (Ce qui n’est pas la 16K, attention !), je suis assez impatiente de voir ça débouler.

Mais je ne suis pas dupe sur le fait qu’il faudra qu’on voie débouler en même temps les supports graphiques capables de gérer ça correctement. Il n’y a que des cartes graphiques haut de gamme pour supporter correctement la 4K aujourd’hui, et la 2x4K VR de même. Pour le grand public, comme toute nouvelle technologie, on n’en trouvera les applications concrètes que dans 5 ans.

A suivre !