"Together we advance_gaming" : comment suivre l'annonce des cartes graphiques RDNA 3 d'AMD ?

Nerces
Spécialiste Hardware et Gaming
02 novembre 2022 à 20h30
39
© AMD
© AMD

Des cartes graphiques qui devront permettre à AMD de mettre des bâtons dans les ventilateurs de NVIDIA et de ses GeForce RTX 4000.

Il est bien sûr encore trop tôt pour connaître avec exactitude le contenu de la keynote que tiendra Lisa Su, la P.-D.G. d'AMD, sans quoi l'événement n'aurait plus lieu d'être. Voici tout de même ce qu'il faut savoir.

Où et comment suivre l'événement ?

Comme il avait pu le faire au moment de présenter le show Ryzen 7000, AMD n'a jamais fait mystère de son intention de tenir conférence autour du jeu vidéo en général et du jeu vidéo PC en particulier.

© AMD
© AMD

Baptisé « together we advance_gaming » que l'on traduira par « ensemble nous faisons avancer le jeu vidéo », l'événement fait écho au « together we advance_PCs », lequel s'est focalisé sur les processeurs desktops, les fameux Ryzen série 7000.

Il constituera la seconde partie de la grande campagne d'AMD qui a prévu, le 10 novembre prochain, un « together we advance_data centers » qui se concentrera sur les centres de données pour une troisième étape.

En ce qui concerne le jeu vidéo, AMD nous donne rendez-vous à partir de demain – 3 novembre – à 21 h heure française pour regarder en direct la keynote de Lisa Su. Nous relaierons bien sûr les annonces majeures, mais pour ne pas en perdre une seconde, il vous suffit de suivre ce lien.

Que peut-on en attendre ?

Nous l'avons dit, AMD a clairement mis en avant le jeu vidéo pour cette keynote. Pour autant, la société n'a pas encore détaillé ses annonces. Au jeu du petit détective, diverses rumeurs permettent toutefois d'émettre de sérieuses hypothèses sur ce que nous découvrirons.

En haut, une probable RX 7900 et, en bas, la RX 6900 © Videocardz
En haut, une probable RX 7900 et, en bas, la RX 6900 © Videocardz

En premier lieu, il est certain que Lisa Su fera intervenir certains de ses proches collaborateurs pour détailler l'architecture RDNA 3 comme cela avait pu être le cas avec Zen 4 en août dernier : l'idée sera bien sûr de montrer les avancées par rapport au RDNA 2 des Radeon RX 5000.

Ensuite, AMD aura évidemment à cœur de présenter une carte graphique RDNA 3 et c'est là que les rumeurs entrent vraiment en jeu : le cas de la Radeon RX 7900XTX a ainsi déjà été évoqué.

© Videocardz
© Videocardz

Celle qui sera à n'en pas douter le fer-de-lance de la gamme Radeon RX 7000 pourrait toutefois ne pas être seule et plusieurs individus, souvent bien informés, ont évoqué le cas d'une Radeon RX 7900XT. Elle reposerait sur un GPU assez proche, mais serait logiquement moins bien dotée.

Alors que NVIDIA n'a même pas évoqué les RTX 4070 et 4060 lors de son annonce, AMD serait inspiré de parler des GPU Navi 32/33. Enfin, comme elle l'avait fait en fin de keynote Ryzen 7000, Lisa Su pourrait donner des bribes d'informations… autour des Ryzen X3D peut-être ?

Source : AMD

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (39)

gothax
Les 4090 envoient du lourd faudra attendre les premiers bench de ces cartes AMD
spark90
Les 4090 envoient surtout les alims et les cables (qui fondent) dans l’espace !!!<br /> Y a des actions EDF fournies avec ?
sylvio50
Allez, petits pronostics :<br /> RX 6900 XT : { 7 nm | 520 mm² | 5120 SP | 300 W | 2,25 GHz | 9000 pts 3DM Time Spy Extreme | Efficacité : 1 }<br /> RTX 3090 : { 8 nm | 628 mm² | 10496 SP | 350 W | 9500 pts 3DM TSE }<br /> RTX 4090 : { 5 nm (4N) | 608 mm² | 16384 SP | 450 W | 19000 pts 3DM TSE }<br /> RX 7900 XT : { 5 nm | 600~800 mm² utile (650~900 mm²) ? | 12288 SP ? | 400 W ? | 2 GHz ? | 19000 pts 3DM TSE ? (x 2,1) | Efficacité : x 1,55 ? }
pecore
Quelles 4090 envoient du lourd ? Celles qu’on doit renvoyer chez le fabricant ou celles qui sont en ruptures suite à l’arrêt de fabrication du modèle deux semaines après sa sortie ?
pecore
Les Radeon 7000 n’ont pas besoin d’être plus puissantes ou aussi puissantes que les RTX 4090, elles ont juste besoin d’être aussi puissantes que les RTX 4080/4070, pour un prix inférieur.<br /> Bien sur, on n’a pas les RTX 4080/4070 pour comparer et c’est bien dommage (et pas très courageux, surtout lorsqu’on est leader du marché) mais nul doute qu’en se basant sur les perfs de la RTX 4090 et en les ramenant aux specs connues des futures cartes, on devrait réussir se faire une idée.
Delta243
Allez une petite rx 7800 xt 16 go pour la 4K à 1200/1300 Euros je prends direct
Bombing_Basta
Les gens n’ont plus aucune notion d’un juste prix, tu m’étonnes qu’ils vendent des cartes à 2000 balles si 1200 est considéré comme « je saute dessus ».<br /> Mais bon c’est vrai que j’ai connu l’époque très proche ou l’ultra HDG était à 600 balles, 800 max pour les grosses custom…<br /> Seules les cartes pros, les vrais (genre quadro), avaient des prix de 1 ou 2k…
Ccts
Le rapport prix perf c’est ça qui fera la différence. Vu les prix inadmissibles et les jeux vidéos qui ne suivent pas rien ne justifie une 4090. Je veux bien voir un jeu en 4K qui justifierai la 4090 versus une 4080, ce sera même pas le cas d’ici quelques années vu le peu de blockbuster et les délais de développement faramineux des jeux aujourd’hui. A part des cas super particuliers de multi écran … et encore. Alors on croise les doigts pour de la dispo et des prix justes … ou les séries 30xx vont bien se vendre le temps qu’il y en ai encore.
gothax
@pecore : la MSI 4090 Gaming, la gaming trio, la FE directement sur le site NVIDIA, asus tuf etc… Si tu veux chercher tu trouveras. La rareté fait le prix et NVIDIA sait faire. Mais ne reste pas bloqué sur les rumeurs de comptoir la 4090 se trouve!<br /> Les bench : techpowerup (bible), sieurpc live, vcg (best) etc…<br /> Le soucis est juste la pénurie des câbles d’alimentation différent de ceux vendu par NVIDIA. Y en a chez corsair (1 cable a brancher sur lalimentation directement) et d’autre moddeur mais les délais sont long.<br /> Les fabricants d alim sortiront des câbles aussi …
SplendoRage
TSMC, sous la demande de Nvidia a alloué plus de 80% de la chaîne de production du AD102 pour produire le H100 (Hopper) afin d’honorer les commandes avant la mise en place de l’embargo US sur la Chine ….<br /> Donc rien à voir avec les câbles …
Loposo
Sauf qu il n’ y a pas Optix ou équivalent chez AMD donc si on fait du blender pas la peine, Optic est bien meilleur qu open CL même cuda. Ou même du DaVinci et keyshot et d autres soft<br /> Bref ça reste gamer mais pas aussi polyvalent que NVIDIA<br /> Mais la 4090 un pure blague 8,5 A par pin avec 600watt il y a plus aucune marge de sécu donc la prise fond<br /> Très bonne chaîne ou on apprend pleins de truc<br />
Docwell_TuneMaker
Les carte graphique c’est bien et moi je voudrais bien qu’AMD s’attaque au software, aura tton enfin une technologie digne du dlss ???
Popoulo
pecore:<br /> et c’est bien dommage (et pas très courageux, surtout lorsqu’on est leader du marché)<br /> Un constructeur qui sort un nouveau produit va pas mettre sur le marché le plus pourri de sa gamme. Tu sors le haut de gamme qui envoie du lourd, pas un truc anémique.<br /> pecore:<br /> Quelles 4090 envoient du lourd ?<br /> Mauvaise foi quand tu nous tiens <br /> Bombing_Basta:<br /> ou l’ultra HDG était à 600 balles, 800 max pour les grosses custom…<br /> Et ? Peut-être que tout simplement les cartes comportent 2 à 3x plus de composants, intègre des technologies qui n’existaient pas etc. Tu rajoutes à ça l’inflation de malade + un petit sucrage au passage et t’as les prix actuels.<br /> Bombing_Basta:<br /> Seules les cartes pros, les vrais (genre quadro)<br /> Ces cartes là, aujourd’hui, excepté des domaines très particuliers, n’ont plus ce monopole de CG indispensable à avoir pour faire de la CAO, rendering etc… les cartes grands publics, et plus précisemment le haut du panier (3090, 4090 aujourd’hui), remplissent plus que largement ce rôle à des coûts bien moindre).<br /> Loposo:<br /> il y a plus aucune marge de sécu donc la prise fond<br /> Normal quand on veut faire des économies de bouts de chandelles. J’ai vu hier que MSI corrigeait déjà le tir sur ses nouveaux modèles en mettant des câbles dignes de ce nom. Une raison supplémentaire pour faire augmenter les prix, y a fort à parier.
SplendoRage
Le problème n’est ni la norme, ni le connecteur en lui même mais la conception de l’adaptateur qui est trop fragile au niveau des soudures des fils. Le soucis est surtout apparu sur les câbles 12VHPWR 150V 600W. Les câbles 12VHPWR 300V n’ont pas rencontré de problèmes.<br /> Bref …. C’est beaucoup de bruit pour RIEN puisque Nvidia a changé de fabricant pour ses adaptateurs pcie-12VHPWR.<br /> Quand on comprend la conception du connecteur, en réalité, il s’avère être bien plus secure que le câble PCIE basé sur la norme ATX 2.x
Mayonnez
« 1300 €, je suis prêt à sauter dessus », heu, non.<br /> Tout ce qui est au dessus de 700 €, ce n’est pas pour la grande majorité des « gamer » (répartition des CG sur Steam) mais pour une niche sur laquelle NVidia va s’appuyer sur cette génération 4xxx pour continuer à marger suffisamment pour satisfaire les investisseurs.<br /> Pour la majorité des « gamer », il va falloir se contenter de modèles bien moins puissants et au dessous des 700 €.<br /> Le jeu vidéo, un loisir de luxe et je ne parle même pas de l’explosion des prix des jeux eux-mêmes, qui sont en pré-commande, pré-chose, pré-machin et qui finalement sortent avec une version tout juste équivalente aux bétas d’il y a quelques années.<br /> Quelle tristesse.<br /> M. D.
gemini7
Il reste à espérer que les CG d’AMD feront mieux pour moins cher.
Loposo
Donc tu a rien écouté<br /> Le fait d’avoir aucune marge le petit problème de soudure boom ça fond, tout comme dans le temps la poussière, un câble coudé, si la personne tire un peu sur le câble ça chauffera et pourra faire fondre.<br /> Sur les 300v c est une soudure par câble là où 150v 1 soudure pour plusieurs câble donc si courbure ou autres du câble trop importante car moins souple en 150v ce qui arrive en cable management pour avoir un beau pc et bien ça fond<br /> Bref avant il y avait une grosse marge donc pas de problème.<br /> J aime bien les gpu NVIDIA mais ils ont merdé sur la 4090
Lepered
« Les 4090 envoient du lourd faudra attendre les premiers bench de ces cartes AMD » C’est vrai, à un prix et consommation exorbitant. Factuellement 99% des joeurs jouant en 1440 voir 4K non pas besoin d’une telle débauche. Revenons sur terre. Ma 1080Ti gère sans souci tous les jeux en 1440 et au mieux, ceux qui demandent le plus (par exemple FS 2020) se contentent de 50% de perf en plus qui est le milieu de gamme.
pecore
pecore:<br /> et c’est bien dommage (et pas très courageux, surtout lorsqu’on est leader du marché)<br /> Tu ne sembles pas avoir compris ce que je veux dire alors je vais préciser : Nvidia, pourtant leader, attend qu’AMD sorte ses propres produits pour adapter son offre en fonction de celle de son concurrent, ça crève les yeux. Si cela s’entend d’un point de vue marketing, venant d’un mastodonte sensé être le meilleur dans son domaine, ça fait un peu pitié.<br /> pecore:<br /> Quelles 4090 envoient du lourd ?<br /> Là encore, je me suis peux-être mal exprimé : les RTX 4090 envoyent effectivement du lourd. Le problème, c’est qu’elles sont introuvables et les quelques unes qui ont été vendues posent un problème systémique qui va potentiellement nécessiter leur rappel.<br /> Ce qui me fais reposer la question : quelles RTX 4090 ? Tu en vois ? Parce que moi pas.
SplendoRage
Prend un câble natif 12VHPWR et il n’y a pas de soucis.<br /> Des problèmes de câbles fondus, on en a eu du temps des adaptateurs Molex &gt; PCIE, mais ça ne remettait pas en cause la norme d’alimentation PCIE.<br /> La en l’occurrence, de la marge, la norme 12VHPWR en donne justement, qui plus est, avec une gestion de l’alimentation plus intelligente via la norme ATX 3.0 (mais il faudrait une carte mère, alim et GPU ATX 3.0 12VHPWR, ce qui n’est pas le cas aujourd’hui).<br /> Dire que la 4090 est un échec a cause de la norme 12VHPWR, non …. En revanche le ratio transistors/perf est mauvais, ça oui.
SplendoRage
La 4090 en elle même n’a pas de soucis avec un câble natif 12VHPWR.<br /> Le soucis n’est pas le connecteur mais l’adaptateur victime d’un défaut de conception.<br /> Là est tout la nuance.
Loposo
Bref regarde la vidéo ça sera plus simple<br /> Pas de marge pour ce que demande une 4090 au max ou alors en mettre 2.
SplendoRage
Bah … j’ai déjà regardé toutes les docs et draft du PCI-SIG et d’Intel pour comprendre comment fonctionnait réellement le 12VHPWR ainsi que la norme ATX 3.0 et j’en suis arrivée à la même conclusion que JayZ et Igor Labs …<br /> Il n’y a pas de soucis technique et il y a clairement besoin de repenser l’alimentation des GPU.<br /> Si tu as regardé le PCB de la 3090 Ti et de la 4090, ils sont strictement identique, la 3090 Ti ayant servit de test grandeur nature quant à l’adoption de la norme 12VHPWR et du découpage des tensions nécessaires pour les futur GPUs.<br /> La 3090 Ti a été moult fois retardé car victime de la norme ATX 2.x qui a forcé Nvidia et AMD a bricoler le découpage des tensions VDIMM à partir du 12V redecoupé à 5V puis à 3.3V … Bref, la génération Ampère à démontrer qu’on était arrivé au bout de la norme ATX 2.x et ça, qu’on le veuille ou non.
Than
Ah, un peu de bon sens. Merci. &lt;3
SplendoRage
Le soucis de la norme ATX 2.x est la justement … L’alimentation balance du jus aux rails qui en demande sans le moindre contrôle de tension ou d’intensité.<br /> Ton GPU demande 600W à 60A ? Pas de soucis …. L’alim balance tout ce qu’elle a, même si elle est déjà à la limite.<br /> Le connecteur 12VHPWR a été pensé pour communiquer avec l’alimentation avec un contrôle plus fin de la tension et de l’intensité demandée par tel ou tel composant. Mais pour que ça marche, il faut dès lors une alimentation compatible qui intègre cette même norme 12VHPWR (alias ATX 3.0).<br /> C’est la raison d’être des pins S1 à S4 déjà introduit par Ampère mais concrétisés sur Ada qui adopte la norme 12VHPWR nativement ! Ces pins là ne délivrent pas de courant mais servent à gérer l’alimentation du GPU. C’est aussi pour cette raison que les adaptateurs PCIE-12VHPWR sont également un bricolage dangereux en dehors du défaut de conception inhérent à la vieillesse de la norme ATX2.0 …<br /> Le S1 détermine la limite de puissance disponible de 100 à 600W en envoyant un signal continue à l’alimentation, ce qui permet à l’alimentation de déterminer quelle plage de puissance réservée au GPU (100 à 150W, 150 à 300W, 225 à 450W et 375 à 600W) pour le 12V.<br /> Le S2 lui, va déterminer et signaler à l’alimentation les tensions nécessaire sur une plage de 0 à 3.3V qui sont nécessaires.<br /> S3 et S4 sont open et peuvent servir de sensor pour l’adjonction d’un second connecteur au GPU par exemple, les 2 connecteurs d’alimentation pouvant communiquer entre eux en passant par l’alimentation par exemple.
Loposo
Le problème est que la 4090 peut pomper plus de 600w certain ont fait du 620w env a elle seul sur 1 connecteur qui a déjà aucune marge de sécu a 600w donc un default de soudure dans le connecteur le câble coudé, la personne tire un peu sur le câble lors de l install, la poussière dans le temps l oxydation,…<br /> Donc ça fond<br /> La 3090 TI c est 486watt en grand max, donc il restait un minimum de marge avec ce connecteur qui au max fait 600w si le connecteur est en parfait état et parfaitement installé<br /> Pas la peine de sortir les Doc Intel c est de l électricité basique<br /> Bref vous avez pas comprit la video, on peut pas faire passer un débit de 600l/s eau voir plus dans un tuyau qui dans le monde idéal et parfait en conception a une limite de 600l/s<br /> Le tuyau a forcément des défaut donc il va péter avant la théorie, on a toujours un coef de sécu pour éviter ce genre de problème.<br /> Nvidia a foiré c est tout la c est du basique, au pire NVIDIA diminue un peut la puissance et plus de problème
SplendoRage
Et c’est la l’intérêt du 12VHPWR en natif.<br /> Le GPU demande 620W ? L’alim ne poussera qu’à 600W max même si la carte en demande plus.<br /> Pourquoi ? Car le S1 ne communiquera que la plage 1 de puissance, c’est à dire 375 à 600W, point. Mais comme je l’ai dis, ça ne marche pas avec une alim ATX 2.x ou un adaptateur pcie-12VHPWR car même si les sensors sont câblés dans l’adaptateur, il n’y en a pas dans l’alimentation.<br /> Le but de la norme 12VHPWR est aussi de réguler les piques de tensions et d’intensité mais il faut une alimentation ATX 3.0 qui respectent les spécifications de la norme (et qui a donc les sensors S1 à S2 au minimum).<br /> Et les gens sont cons … Ils sont cons car prêt à débourser 2000€ pour un GPU, mais pas 200€ de plus pour une alimentation totalement compatible … logic logic logic …
Loposo
bref, vous ne cherchez pas à comprendre, c’est fou, car le cable ne tient pas 600w il y a ce que dit la theory le labo et il y a la réalité. la carte demande 600w l’alim a aucun problème à fournir, mais la connectique ne peut pas tenir c’est tout.<br /> Mauvaise conception. je m’en fou de l’alim c’est la connectique qui a des connecteurs trop fin donc chauffe .
Guik
Je m’ attends plus à ce que la 7900 XTX ait ce prix qu’ une 7800 XT qui devrait être vers les 700-800€ et encore c’est cher .
Guik
Bien sûr c’ est la faute du consommateur si l’ entreprise fournit du matériel mal conçu et en plus parce que le consommateur ne sait pas qu’ il faut encore débourser pour avoir une connectique correcte . Les nvidiots vont encore faire les beaux jours de nvidia .<br /> Tu ne doit même pas avoir de 4090 .
Guik
Et où as tu vu que la carte graphique envoyait un signal et que l’ alim. ATX 3.0 made in intel gérait donc la puissance émise sur les connecteurs ? Permet moi de douter de tes explications .
SplendoRage
Dans les datasheet du PCI-SIG … Tout simplement !<br /> Et c’est le but des pins S1 à S4 !<br /> Bienvenue dans la norme ATX 3.0 !<br /> Igor Labs a fait un excellent article qui résume absolument tout et comment fonctionne le connecteur 12VHPWR et tu y trouveras les tableaux de plages de puissances du PCIE 5.0 via 12VHPWR … Ainsi que JayZ qui a fait une excellente synthèse de tout ça !
Guik
ATX c’est un format de carte mère . Ce ne sont pas les alimentations qui sont ATX 3.0, c’ est un abus de langage, ils sont juste compatibles ATX 3.0 . J’ ai jeté un coup d’ oeil sur le connecteur en question et ce qui est demandé aux alim. , à priori ce n’ est pas un signal qui est envoyé par la CG mais par l’ alim. et selon comment la CG met les S3 et S4 , configurables par les pilotes et qui agissent comme des vannes , ça envoie différentes puissances . Mais comme le dit Loposo c’est sûr qu’ il y a un problème de puissance demandée . L’ ATX 3.0 est soit déjà dépassée , soit Nvidia sortent une carte graphique incompatible avec l’ ATX 3.0
Guik
Cette fois je suis allé voir directement sur le site d’ intel et effectivement , la carte graphique envoie les signaux S1 et S2 mais pas pour le réglage instantanée . Juste un signal ou non pour S1 pour indiquer à l’ alim. si la carte n’est plus stable , juste un signal S2 pour indiquer quelle puissance doit délivrer l’ alim. mais déterminée une fois pour toute pour l’ usage .<br /> Concernant les S3 et S4 , j’ ai fait une erreur car indiqué réglable par logiciel ( sûrement par S2 ) , ce n’ est pas la carte graphique qui ouvre ou non les vannes de ces signaux mais l’ alim.
Guik
Enfin en ce qui concerne la faute à qui ou pas , la norme stipule bien que c’est 600 W max sur un 1 connecteur donc Nvidia l’ utilise peut être à plus de 600W pour les faire fondre . Les signaux S1 et S2 étant optionnels ce n’est pas la faute aux alim. 2.0 , pas besoin d’ alim. 3.0 pour avoir ce nouveau connecteur sinon il aurait été expressément signalé . Pour les connecteurs , il n’ y aucune raison qu’ il y ait plus de défaillance sur des connecteurs 12VHPWR que les 8 broches sinon un problème de norme ou de demande de courant trop forte de la part de la 4090 .
SplendoRage
C’est un format de carte mère et il détermine AUSSI les spécifications d’alimentation qui sont devenues un standard ABSOLU (puisque les deux sont liés) La couleur de chaque fil d’un connecteur 24pins 12V, c’est dû au hasard ? Non, c’est codifié, et réglementé par la norme ATX … La norme ATX 3.0 supprime le câble PCI-Express au profit du câble 12VHPWR par exemple …<br /> A un moment donné, faut arrêter de dire n’importe quoi et se renseigner … Juste un tout petit peu …<br /> Il y a eu plus de 11 révisions de la norme ATX 2.x depuis le draft de la version 2.0 publié en 1999. Actuellement, les alimentations produites depuis 2020 doivent respecter la norme ATX 2.53.<br /> La norme ATX 3.0 renvoi à la suppression des connecteurs PCI-E pour les remplacer par un seul connecteur 12VHPWR.<br /> Et si jamais …<br /> C’est cadeau, c’est pour moi !!!<br /> en.wikipedia.org<br /> ATX | ATX12V v2.53<br /> The specifications for ATXV12 2.53 were released in May 2020 and constitute another minor update to the ATX standard. ATXV12 2.53 makes further recommendations on efficiency and references the Energy Star Computers Specification Version 8.0 which was finalized in April 2020.<br />
SplendoRage
Ce qui brûle, ce n’est pas le connecteur NATIF, ce sont des ADAPTATEURS PCI-Express &gt; 12VHPWR …<br /> A D A P T A T E U R … Je préfère bine le montré juste au cas où ça t’aurait échappé, la température moyenne retenu au connecteur en pleine charge d’une 4090 a été relevé entre55 et 60°C, là quand certains ADAPTATEURS PCI-e &gt; 12VHPWR voient leur température grimper en flèche car l’ADAPTATEUR est mal conçu et offre une résistance électrique trop importante, car l’ADAPTATEUR est pas mal conçu …
Guik
Des photos qu’ on voit c’ est pas l’ adaptateur qui fond mais le connecteur en lui même , raconte pas n’ importe quoi . Si ça avait été l’ adaptateur il n’ y aurait pas eu de débat .<br /> Après quelque soit la cause , il y a trop de courant qui passe dans ce connecteur puisque ses plastiques fondent .<br /> Pour les ATX , je persiste , ce n’ est pas l’ alim qui est ATX mais la carte mère et ensuite les alim. s’ adaptent à la carte mère . Pas besoin d’ être ATX pour faire fonctionner une carte mère , il suffit que l’ alim. soit compatible . Mais c’ est mineure , juste une question de dénomination .
SplendoRage
Mais c’est QUE l’adaptateur PCI-E &gt; 12VHPWR 300V - 600W qui est incriminé et moins de 30 cas ont été répertorié … Sur plusieurs milliers de cartes vendues, et il a été démontré qu’une alimentation ATX 3.0 avec la prise 12VHPWR ne pose aucun soucis …<br /> Maintenant, je te renvois à tes cours de physique sur l’électricité sur le pourquoi la résistance électrique se fait au niveau des pins de contacts …<br /> Il suffit pas de gober ce qu’un youtubeur anonyme balance sans avoir le matériel pour faire les tests … !!<br /> Ni les fabricants d’alimentations, ni JayZ, GamerNexus ou Igor’s Labs n’ont réussi à faire fondre le connecteur avec un câble natif … La température mesurée au connecteur ne dépassant pas les 60 degrés Celsius après 3h en pleine charge.<br /> Mais bon, c’est comme parler avec un platiste et lui expliquer par À + B que la terre est ronde !
Guik
Tiens j’ ai vu qu’ apparemment et comme tu dis ce sont les connecteurs 150 V qui sont incriminés donc ce n’est pas l’ adaptateur , ni les contacts mais juste le 150 V qui est en cause. Fin de l’ histoire si vraiment il n’ y a pas eu de problème sur les 300V . Merci pour ta contribuation
Voir tous les messages sur le forum
Haut de page

Sur le même sujet