Blu ray: platine ou lecteur pour pc ?

Bonjour ! voilà, je voulais commencer à me mettre tout doucement au bluray, et voilà ma question: j’envisage ( quand j’aurais un vrai salon dans une maison ) de mettre un petit pc sous ma télé, qui fera office de lecteur multimédia, de média center, …
Actuellement, j’ai mon pc ( de jeux ) branché sur ma TV ( sortie 2 de ma 8800GT, sur un lcd samsung HD ready ).
Donc, quand je bascule mon pc sur ma TV la résolution ne monte pas à plus de 720p ( dons pas de 1080 ). si j’achète un lecteur Blu-ray pour mon pc, pourrais je quand même profiter de la qualité de la HD ? ou aurais je une meilleure qualité en prenant une platine branchée en hdmi directement sur la télé ?

Tu auras exactement la même qualité… Si ta carte graphique gère les Flux avec les Clef HDCP, que tu sois sur ta platine ou sur ton ordi avec un lecteur Blu-ray la résolution sera toujours de 720p et en flux HDCP, donc c’est à toi de voir si ta carte est compatible (voir DOC) et après tu choisis en fonction du prix de reviens…

C’est du pareil au même juste une question de budget et de goût. :neutre:

C’est pas normal, tu as un souci de réglage au niveau du PC :neutre: (ma grand mère a une TV Samsung HD Ready et je peux afficher du 1080i sans soucis avec un PC en DVI/HDMI et avec une CG bien plus vieille et moins bonne que ta 8800GT)
Edité le 06/05/2010 à 09:09

Oui mais ce n’est pas du vrai 1080i :wink:

La télé supporte maximum 720p (format HD Ready) et tu la force grâce à la carte graphique à monter à 1080i. Ce que fait la carte graphique c’est qu’elle supprime certain pixel du 1080i pour l’adapter à du 720p.

Il serait impossible, via une platine blu-ray de salon, de forcer ce genre d’affichage. Source : Mes cours du traitement numérique des signaux audio et vidéo :wink:

EDIT : je me suis mal exprimer elle ne les supprime pas, elle fait une moyenne du pixel conserver et du pixel supprimer et ne conserve que le pixel moyen aux 2 pixels.
Edité le 06/05/2010 à 09:16

Non, le label HD Ready était un label Européen qui stipulait que:

  • la TV possède des entrées vidéo numériques HD (DVI ou HDMI)
  • soit compatible avec un système de protection de contenu (HDCP)
  • accepte du 720p et du 1080i en entrée
  • soit capable d’afficher au moins 720 lignes à l’écran (les TV Samsung LCD HD Ready en affichent 768)

Heu… non, si tu demande à une carte graphique d’afficher 1920x1080 elle sort bien 1920x1080 pixels

La platine s’adapte en fonction des informations EDID de la TV (qui va lui dire qu’elle accepte le 720p et le 1080i), normalement la platine va automatiquement passer en 1080i

Révise tes cours ou alors change de prof :stuck_out_tongue:


[quote="k0rnmuz3"] EDIT : je me suis mal exprimer elle ne les supprime pas, elle fait une moyenne du pixel conserver et du pixel supprimer et ne conserve que le pixel moyen aux 2 pixels. [/quote] non plus :D

Sigles obsolètes en France

* HD Ready (abandonné) : indique que l'appareil sait exploiter une résolution de 720p (affichage ou enregistrement).
* Full HD (label commercial non officiel abandonné) : indique que l'appareil sait afficher ou enregistrer une résolution de 1080i et 1080p sans obligation d'être compatible avec l'affichage 24Hz en 1080p.
* HD ready 1080p (abandonné) : indique que l'appareil peut afficher ou enregistrer une résolution en 1080i et 1080p avec obligation d'être compatible 24 hz en 1080p.

Wikipedia n’est pas d’accord :nexath

Je penses que je vais changer de prof parce que c’est un des cours que je connais le mieux, pour une fois j’aurais mieux fait de ne rien apprendre :riva:

http://fr.wikipedia.org/wiki/Logos_et_labels_europ%C3%A9ens_sur_la_TV_HD#HD_Ready

non mais il a raison car il est d’accord avec l’EICTA, l’organisme officel qui a défini ces labels: http://www.digitaleurope.org/index.php?id=731

Mais à la limite parles-en à ton prof qu’il corrige son cours, ce genre d’erreur ne m’étonne pas tant que ça, certains profs ont hélas pas mal de lacunes :arf: (ça fait 10 ans que je bosse et je peux te dire que j’ai eu le temps de faire la part des choses entre la théorie que j’ai apprise à l’école et la réalité du terrain)

C’est bien ce que j’ai dit (ligne en dessous de celle que tu as mise en gras)

Non, car ce qu’il a dit c’est que c’était normal de pas pouvoir avoir plus que 1280x720 en sortie de la carte graphique avec cette TV

Or c’est faux car cette TV accepte parfaitement du 1920x1080 en entrée (que la TV réduira ensuite en interne et de manière transparente pour l’utilisateur à 1366x768 à l’affichage mais ça c’est un autre problème)
Edité le 06/05/2010 à 09:36

Tu es sû que c’est la télé qui traite le signal en réduction? Pour le reste je m’incline, mais pour cette partie je reste septique… Je pense que le matériel qui envoie le signal reçois une information de la télé et donc modifie les options de sortie, mais je ne suis pas du tout convaincu que ce soit la télé qui traite le signal comme tu le dis.

Après je dis ça parce que ça me parrait plus logique ^^ mais c’est peut être faut.

en fait, sur mon pc , quand je le bascule sur la télé, je n’ai le choix que de 720 ou 768, je suppose donc que c’est la télé qui envoie le signal au pc !sur mon écran de pc, ma résolution monte jusqu’à 1050 !
Mais niveau qualité, je profiterais un peu du blu ray quand même, ou il faut absolument une " full HD " pour en profiter? si je ne gagne rien par rapport à un dvd ( je ne connais pas la résolution d’un dvd ), ça ne sert à rien !

je m’incline :jap:

Mais c’est quoi cette école dans laquelle je suis franchement! :grrr:
En plus je viens de vérifier et je suis sûr de ne pas me tromper par rapport au cours… :pfff:

En même temps notre prof arrive à se tromper dans de simple conversion Decimal -> Binaire…

Fallait pas s’attendre à autres chose… :neutre:
Edité le 06/05/2010 à 09:50

tu ne fais que répéter ce que j’ai dit plus haut :riva:


[quote="k0rnmuz3"] Tu es sû que c'est la télé qui traite le signal en réduction? [/quote] Oui! Tu vas pas m'apprendre mon métier quand même? :ane:

:stuck_out_tongue:


[quote="k0rnmuz3"] En même temps notre prof arrive à se tromper dans de simple conversion Decimal -> Binaire... [/quote] :paf: :peur:

Je te rassures, des profs mauvais j’en ai eu, le genre de profs où tu es obligé d’aller au tableau pour l’aider :paf: (lui faire son cours quoi :MDR)

Tu es bien branché en DVI ou HDMI?
Ca dépend des drivers, mais sur ATI tu as un mode “TV HD” ou tu peux choisir les modes HD 720p, 1080i, 1080p…

Plus ou moins, mais ta TV doit normalement indiquer qu’elle est accepte le 720p50, 720p60, 1080i50 et 1080i60

Normal si c’est un écran de PC 20" ou 22" 16/10

Ca va dépendre de la taille de la TV et de la distance du canapé par rapport à la TV, sur une TV 26" si le canapé se trouve à 2m tu ne verras pas vraiment de différence avec un bon DVD. Par contre sur une TV 32" ou 37" ce sera différent.
A condition de bien régler ta CG pour pouvoir envoyer du 1080i, tu auras une définition de 1366x768 avec un BluRay au lieu de 720x576 avec un DVD donc la différence sera quand même visible.

Après c’est clair que pour bien profiter des BluRay rien ne vaut une vrai TV Full HD :wink:


[quote="Compte supprimé"] [quote=""] tu ne fais que répéter ce que j'ai dit plus haut [/quote]

oui mais en plus clair. :smiley:
[/quote]
tu trouves vraiment que c’est plus clair que ça?

:neutre:
Edité le 06/05/2010 à 10:08

Je vais encore devoir poser une question contradictoire… La taille du PAL n’est pas plutôt de 768*576 ?

(Je crois qu’alma va s’énerver à force :ane: )

en fait, ma tv a une prise vga, je sors de ma cg en dvi, puis adaptateur vers vga !
euh là on a un recul d’environs 4m, et c’est une tv 37" !
Donc je devrais gagner un petit peu quand même !

Pour une fois j’ai pas dis de bêtises :ane:

Ce message n’était pas conforme aux règles d’utilisation du nouveau forum :

en fait, ma tv a une prise vga, je sors de ma cg en dvi, puis adaptateur vers vga !
euh là on a un recul d’environs 4m, et c’est une tv 37" !
Donc je devrais gagner un petit peu quand même !

Et non! (ton calcul est bon dans l’absolu, le souci c’est que sur une TV cathodique les pixels ne sont pas carrés, il n’y a même pas vraiment de pixels en fait)

NTSC: 720x480
PAL/SECAM: 720x576

:wink:


[quote="jmommati"] en fait, ma tv a une prise vga, je sors de ma cg en dvi, puis adaptateur vers vga ! [/quote] Alors c'est normal, l'entrée VGA de ta TV n'accepte pas plus que la résolution native de la dalle (et ta TV est vue comme un simple écran de PC) Si tu veux pouvoir envoyer du 1080 sur ta TV il faut utiliser les entrées HDMI (et alors ta TV sera vue comme une vraie TV HD) Cela dit tu peux rester en VGA, tu dois pouvoir choisir 1366x768 au niveau des paramètres de la CG ce qui est suffisant. Mais passer par l'entrée HDMI te permet de bénéficier des traitements numériques de la TV (comme avec un vrai lecteur BluRay quoi) [quote=""] euh là on a un recul d'environs 4m, et c'est une tv 37" ! [/quote] 4m pour une 37"! Wow!! Moi j'ai que 2m50 pour une 40" et quand je regarde un film en HD je me rapproche à 1m50 :ane: Edité le 06/05/2010 à 12:04

ce serait donc peut être mieux d’acheter un lecteur pour le pc plutôt qu’une platine !

Ouais enfin la 3D on va attendre encore un peu :smiley:
Edité le 06/05/2010 à 22:41