GeForce RTX 4090 : il n'y aurait pas comme un problème avec le connecteur 12VHPWR ?

Nerces
Spécialiste Hardware et Gaming
24 septembre 2022 à 12h46
62
© Videocardz
© Videocardz

Mise à jour : Suite à la publication de cette information, NVIDIA a tenu à réagir et à préciser que cette question des 30 cycles n'est pas nouvelle. La même spécification des 30 cycles existe pour le connecteur standard PCIe/ATX 8 broches (le mini-fit Molex). Il s'agit du même connecteur utilisé par AMD ou tous les autres vendeurs. En un mot comme en cent, en réalité rien ne change avec les RTX 4000.

Une interrogation on ne peut plus légitime alors que NVIDIA vient d'annoncer ses nouvelles cartes graphiques RTX 4000.

Tout juste annoncée par NVIDIA, la gamme des GeForce RTX 4000 suscite déjà de nombreuses polémiques notamment liées au gigantisme de la RTX 4090, mais une autre question se pose depuis hier.

Fournir 450 Watts à la RTX 4090

Il faut effectivement savoir que pour assurer l'alimentation du fer-de-lance de sa nouvelle gamme, NVIDIA a généralisé le connecteur ATX 12VHPWR et ses 12+4 broches. Ce dernier est capable de faire passer 450 ou 600 Watts, selon le cas, et ainsi assouvir les besoins garguantuesques de la GeForce RTX 4090.

© NVIDIA
© NVIDIA

Les blocs d'alimentation les plus modernes et ceux à venir sont dotés d'un câble à ce format et le branchement de la carte graphique ne pose alors aucun problème. Il n'était toutefois pas question de se couper de tous les « anciens » blocs dont la puissance peut être suffisante pour alimenter ladite carte haut de gamme.

Pour ce faire, un petit accessoire a été conçu. Un accessoire tout simple qui prend la forme d'un adaptateur composé d'un côté de ce fameux port ATX 12VHPWR. De l'autre côté, l'adaptateur se subdivise en quatre ports huit broches plus classiques, mais c'est à ce niveau que le bât blesse.

30 à 40 connexions/déconnexions ?!

L'information n'a pour l'heure pas été confirmée par NVIDIA et nous attendons évidemment d'en savoir plus avant de nous insurger, mais à en croire la documentation livrée par Zotac avec ses cartes, ledit adaptateur se montrerait particulièrement fragile.

© Videocardz
© Videocardz

Le fabricant y annonce de manière on ne peut plus claire : « 4x 8-pin to 12VHPWR power cable has limited service life up to 30 connect/disconnects
». En d'autres termes, l'adaptateur a un cycle de vie estimé à 30 connexions/déconnexions. Un seuil qui implique trop de torsions de l'adaptateur pour qu'il soit encore bon à quelque chose.

Videocardz nous rapporte que NVIDIA avait déjà soulevé le problème auprès du PCI-SIG en évoquant tout de même un seuil de 40 connexions/déconnexions. Il est vrai que chez le commun des mortels, on ne branche/débranche pas sa carte graphique 30 ou 40 fois, mais foi de testeur, la chose peut être atteinte en quelques semaines. Affaire à suivre donc…

Source : Videocardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (62)

pinkfloyd
Simple, si tout le monde la boude, nvidia comprendra que la conso, ben ca compte aussi pour les gamers.<br /> Si des andouilles se rue dessus… ben ils sont là pour faire de l’argent donc bon, autant continuer.<br /> Perso une carte qui consomme plus de 300 voir 350W c’est sans moi…
oudiny
@Trophyman900 : disons que ça remplacera un grille pain à 1500W qui sert de chauffage pour te chauffer si le PC est dans la chambre ^^
DrGeekill
Tout à fait, le problème est bien là et pas que pour NVIDIA. Il « suffirait » de ne pas acheter pour que…<br /> Mais ça c’est pas gagné.<br /> Je vois sur smartphone j’ai installé Diablo Immortal pour jouer avec mes enfants. Un cosmétique c’est 25 euros rien que ça. Imagines le budget si j’en achetais trois. Évidemment même un c’est mort. Mais quand on voit le nombre de joueurs qui en ont pourquoi ils baisseraient leurs tarifs
Ccts
En pratique la carte va dépasser les 2000 euros … quand tu as 2000 euros à mettre juste dans ta carte graphique tu n’es plus à 300 euros près pour une nouvelle alim… et hop problème réglé. Et tant qu’a faire rajoute un panneau solaire de 2000 watts pour faire des économies d’énergies, c’est dans les 2500-3000 euros… en gros c’est pour les très riches. Vu les perfs du bestiau c’est pour de la 4K multiecrans… pour le commun des gamers la 4070 ou 4080 sera déjà amplement suffisante…voir une 3080 avant qu’il n’y en ai plus.
Pronimo
On est obligé d’acheter ces monstres car les développeurs ne prennent meme plus le temps pour optimiser leurs jeuxvideos XD
Fr_KAAR
Le problème de ces connecteurs c’est surtout le fait qu’ils semblent fondre et foutre le feu … (cf. HW News - Intel Arc Isn't Dead, Melting GPU Power Cables 12VHPWR, &amp; RTX 40 Coolers | GamersNexus - Gaming PC Builds &amp; Hardware Benchmarks)
TofVW
Il est temps que je dépose un brevet pour des boîtiers PC avec 2 emplacements d’alimentation.
lolol98
heu quel cosmetique a 25€? tu peut juste te contenter du cosmetique à 5€ inclus dans le pass , celui proposer en boutique a 0.99€ tu m’aurais dit les gemmes ou orb a 25€ j’aurais compris mais la ^^’
jeroboam64
450 W pendant plusieurs heures par jours ça fait une belle facture a payer…plus le prix d’achat, l’alimentation a changer et peut être le boitier vue la taille de la carte, ça fait très cher non ?
pinkfloyd
EDIT : rien dit, enfin si une betise, pas assez de café
mikrocefal
hé, hé ! La RTX 4090 : un moyen de dépasser les 19 degrés dans la maison avec le chauffage réglé sur 19°C
cid1
L’article dit :« 30 à 40 connexions/déconnexions ?! »<br /> À part pour les testeurs, personne ne connecte et déconnecte ses câbles d’alimentation de la CG.<br /> Mais les testeurs ont eux de quoi s’insurger, ils les fabriquent où ces câbles, à otsiplu les bains ?
LeChien
D’un autre côté, les molex c’est pas mieux avec les contacts qui se déchaussent du connecteur.
Nmut
C’est une norme standard sur ce genre de connecteurs.<br /> Et même les RS 232 ou autre câbles parallèles (DB9 et DB25) avaient aussi une « garantie » de 30 connexions, plus problématique pour des connecteurs de périphériques externes plus susceptibles d’être manipulés, mais ça marchait bien plus longtemps que ça!
cid1
Merci à toi @Nmut, je n’étais pas du tout au courant, non ! Ne me branchez pas sur du 1000 volts, aïe bzzzzzzzz argh, je suis bien cuit maintenant ^^
jvachez
L’Ethernet aussi au bout d’un moment ça pète la prise côté câble ou pire côté PC.
Catstom
Ils fournissent la centrale nucléaire avec la carte ???
pecore
Franchement, j’ai rarement ou jamais vu une carte même pas encore sortie et testée se prendre autant de seaux de me…lasse. Et après les tests et leurs lots de déceptions ce sera surement encore bien pire.<br /> Sauf grosse surprise il faudra vraiment être le pur fan-boy pour vouloir acheter ces cartes une fois les tests sortis.
titepa
En tant que fan-boy d’ATI pur sucre, tu deviens vraiment très très lourd à vouloir casser du NVIDIA à chaque occasion, sans apporter aucun argument à tes critiques (les premiers tests des RTX 4xxx attestent plutôt de très bonnes performances).<br /> Puisque NVIDIA - et aussi Intel autre concurrent de ton dieu ATI - ne sont pas ta came, évite tout simplement de lire et de commenter les news les concernant, ça évitera de polluer le forum !
Blackalf
Et on va se calmer, surtout quand on a un passif d’attaques envers des rédacteurs et d’autres membres. Sinon on finira par se demander qui pollue le forum, au juste.
bmustang
carte qui restera dans les stocks ou sera bradée pour vider les stocks ? au prix de la carte rtx 4000, de l’alim. et du kwatt, c’est clairement un gouffre.
pecore
Tu vas chercher tes tests chez Nvidia alors, ce qui est à la fois ton droit et normal pour un fan-boy.<br /> Moi, je préfère YouTube et que ce soit Linus Tech Tips, JayTwoCent, Pax PC, Harware Unboxed, Moore’s Law is Dead, Ryan TM, Jigfio, Gamer Nexus et ainsi de suite, les avis vont de franchement dubitatifs à extrêmement négatifs. Et cela, comme je l’ai dis, avant même les tests, ce qui est peut être le vrai exploit de ces RTX 4000.
Nark0t1K
Vite mon nouveau chauffage pour l’hiver
wackyseb
A raison d’une carte graphique tous les 3 ans, on arrive à 3*30 = 90 ans.<br /> Mouais, on est large !!!
Pounyet
Ca existe déjà, il y a même des boitiers avec deux config à l’intérieur, en air cooling ou en watercooling.
Dark_King
et tout cela pour afficher un jeu en 4k fluide !wow ! quelle avancée technologique ! S’il sont pas capable de faire comme apple qualcomm ! des puces qui sont plus puissantes mais qui ont aussi une diminution ou une équivalence a puissance plus élevée de leur conso … entre l’ancienne et nouvelle génération ;;; en tout cas Nvida se soucis guère de cela et puis celui qui peut se payer tous les ans la meilleurs carte au prix fort ! et qui le rendra pas meilleur en jeu mais avec un beau trou dans son porte feuilles … cela en devient plus que ridicule ! c’est comme la PS5 elle est dépassée mais il y a encore des gens qui cours après ! et quis eront pas deçus de tout ce qu’il faut ajouter pour s’en servir ! abonnement second ssd car trop petit manettes etc
MattS32
Et même avec une seule config, ça existe les boîtiers double alim. J’en avait un de chez Lian Li il y a quelques années. Ils fournissaient avec le boîtier un coupleur pour raccorder les deux alims ensemble et qu’elles démarrent toutes les deux au démarrage du PC.<br /> On trouve même des « troupleurs » pour associer 3 alims : https://amzn.to/3fkFxq8<br /> Ça peut être pratique quand on a une alim 400W-500W de bonne qualité et qu’on veut monter un PC avec une très grosse carte graphique, plutôt que de racheter une alim de 800W il suffit de mettre une deuxième 400W et un coupleur.
MattS32
Dark_King:<br /> S’il sont pas capable de faire comme apple qualcomm<br /> On en reparlera quand Apple ou Qualcomm seront capables de faire des puces aussi puissantes hein… Les contraintes ne sont pas les mêmes quand tu priorise la consommation et quand tu priorise la performance…
lightness
a force de jouer les gros bras, les constructeurs de cg sont en dehors de la réalité mais pareil pour les développeurs de triple A qui a part triplé le coût de leur travail en se faisant payer 150€ de l’heure ne s’emm…de même plus à coder proprement et efficacement c’est comme les footballeurs qui coûte trop cher pour le résultat escompté. Aujourd’hui tout manque de finition. beaucoup d’exigences de la part de paresseux mais aucun paresseux pour se remettre en question.<br /> concrètement une rx6800 suffira amplement en attendant que de vrais moteur optimisé pour les 3 dernières années de cartes graphiques sortent. là concrètement c’est pas avec saints row, Valhalla ou elden rings que l’on va vraiment utilisé le potentiel visuel de nos cartes graphiques (perfs mis à part)
Micky_35
Avec les prix de l’électricité à venir, il va falloir un porte-monnaie bien garni pour les gamers.
Urleur
Sa resteras une vitrine, la majorité des gamers attendent les 60, 70 voire 50 (sa peut être intéressant au vu de la puissance), car en moment tout le monde se serre la ceinture et sa va empirer, alors 350 w … plus de 2000 boules … non merci.
MattS32
Micky_35:<br /> Avec les prix de l’électricité à venir, il va falloir un porte-monnaie bien garni pour les gamers.<br /> Même si ces consommations sont énormes, en pratique ça pèse quand même pas bien lourd sur le portefeuille.<br /> Avec une électricité qui serait au double du tarif réglementé actuel (mais je rappelle que la hausse annoncée pour l’an prochain sur le TR, c’est 15%) et 3h de jeu par jour, même en supposant le cas extrême où la carte consommerait les 450W en permanence pendant les 3h de jeu, le coût électrique de la carte ne serait que de l’ordre de 50cts par jour. Et dans un local chauffé, une partie de ce coût est économisée sur le chauffage (avec la hausse du gaz, ça pourrait même faire économiser plus en chauffage pour ceux qui se chauffent au gaz ^^). L’inverse par contre quand le local est climatisé…<br /> Le prix de la carte elle même plombe bien plus le portefeuille que son coût d’utilisation.
pecore
Si la RTX 4090 est une vitrine alors elle devrait arriver en même temps que d’autres produits beaucoup plus abordables. Le simple fait qu’elle arrive seule montre qu’elle a vocation à être achetée et pas juste admirée de loin.<br /> Pareillement, 1599$ pour la vitrine, bon, passons . Mais dans ce cas la RTX 4080 devrait, comme la 3080 en son temps, être beaucoup moins chère, car destinée aux « vrais » acheteurs. Que nenni, elle est à peine moins chère à 1199$. Et qu’on ne me parle pas de cette pseudo 4080 à 899€ dont tout le monde à compris qu’elle n’est qu’une 4070 renommée en catastrophe pour justifier son prix.
KlingonBrain
Et avec les restrictions de consommation électriques cet hiver et l’augmentation des tarifs cette carte est t’elle vraiment utile? ou juste utile pour faire un benchmark?<br /> En même temps, il ne faut pas oublier que l’hiver c’est autant d’énergie en moins à fournir par le chauffage, car l’énergie utilisée par une carte graphique finit en chaleur.<br /> La méthode la plus idiote d’utiliser l’énergie, n’est pas l’informatique, mais le chauffage.<br /> En revanche, l’été une telle carte graphique est une catastrophe . Et encore plus s’il faut climatiser pour éviter que la pièce ne se transforme en four.<br /> Cela dit, pour ma part, j’accorderait une très grande importance à la consommation pour mon prochain achat. Quitte à descendre un cran en performances.<br /> Au passage, sachez qu’on peut gagner pas mal en sous cadençant et en sous voltant une carte graphique.
MattS32
KlingonBrain:<br /> Au passage, sachez qu’on peut gagner pas mal en sous cadençant et en sous voltant une carte graphique.<br /> Et également en activant le Vsync (ou le limiteur de framerate dans les drivers nVidia), surtout dans les jeux légers où la carte est capable d’aller beaucoup plus vite que l’écran.
MattS32
Trophyman900:<br /> Donc en gros tu achète une carte a 2000 € pour la faire tourner moins vite, utilité?<br /> Puisque tu parles d’utilité, tu te rends bien compte que ça ne sert strictement à RIEN que la carte graphique aille plus vite que l’écran, non ? Si l’écran peut afficher 60 ou 120 fps, ça ne sert absolument à RIEN que la carte en calcule 200… Donc autant brider la carte à 60 ou 120 selon les capacités des l’écran.<br /> Ce qui ne rend pas pour autant une carte puissante inutile : elle saura faire tourner les jeux les plus récents en allant aussi vite que l’écran, contrairement à une carte moins puissante qui n’y arrivera pas. Mais ça sert tout de même à rien d’essayer de la faire aller plus vite.<br /> Et je n’ai pas dit que j’achète une carte à 2000€ (j’ai une 3080 payée 720€, et je compte pas la remplacer avant au moins 3-4 ans)… Même une carte d’entrée ou de milieu de gamme, dans certains jeux, elle va beaucoup plus vite que l’écran, pour rien. Donc autant la brider à la vitesse de l’écran pour économiser un peu d’énergie (et ça peut pas non plus faire de mal à la carte elle même, ni à son ventilateur, qui va pouvoir tourner moins vite…).
Palou
et aussi en mettant l’écran en 800x600, voire 1024x768
MattS32
Trophyman900:<br /> Je préfère investir dans une carte d’ancienne génération qui ne me coute pas un rein et qui est vraiment exploitée dans les jeux récents.<br /> Ben je peux te dire que par exemple Forza Horizon 5 en 5k, ça exploite largement une 3080, ça tourne à 70-90, avec même quelques chutes à moins de 60 dans les scènes les plus chargées… Et c’est pas spécialement un jeu réputé pour être « programmé à la truelle »…<br /> Par contre dans Trackmania, ça mouline à plus de 200, autant le brider à 120, ça sert à rien de laisser tourner à 200.<br /> Palou:<br /> et aussi en mettant l’écran en 800x600, voire 1024x768<br /> Sauf que ce dont je parle, ça permet d’économiser un peu d’énergie sans aucun impact sur la qualité visuelle ou la fluidité hein… Juste en évitant de calculer pour rien des images qui ne seront jamais affichées.
MattS32
En l’occurrence c’est plutôt 5120x1440, j’aurais dû préciser. Écran pour être confort pour le télétravail (même résolution que du 27" 2560x1440, donc ça permet d’afficher pas mal de lignes de code) et pour avoir un champ de vision large dans les jeux, ce qui donne une meilleure immersion, sans avoir la séparation centrale d’un double écran.<br /> Du coup contrairement à du vrai 5k 16/9, qui augmente grandement les détails à calculer, ça n’a pas énormément d’impact sur le framerate, vu que ça rajoute surtout des choses sur les côtés, où il y a généralement bien moins d’éléments qu’au milieu de la scène. Je viens de tester en 1920x1080 dans FH5, ça monte à 90-110, j’irais pas dire que la carte est vraiment sous-exploitée…<br /> Mais de toute façon, sur le fond, grosse carte ou pas, grosse définition ou pas, ça ne change rien : la baisse de conso en bridant le framerate au max de l’écran, ça reste valable même avec des cartes d’entrée ou milieu de gamme (d’ailleurs perso j’ai commencé à le faire sur une R9 270X après avoir constaté les gains que ça permettait dans F1 2013). Parce que sur ces cartes, on laisse pas le jeu en plein détail avec un framerate à 20, on diminue les détails pour que le framerate ne descende jamais en dessous d’un certain niveau… Et comme la complexité des scènes est variables, on se retrouve forcément avec des moments où la carte graphique dépasse la vitesse de l’écran.<br /> Surtout que, tout comme la majorité est encore en 1920x1080, la majorité a sans doute encore un écran 60 Hz… Donc si on fait des réglages pour cibler 50-60 fps mini, on se retrouve assez facilement au-dessus de 60 sur les scènes légères, et on a donc des images qui sont calculées pour rien.
KlingonBrain
Donc en gros tu achète une carte a 2000 € pour la faire tourner moins vite, utilité?<br /> Je préfère me limiter à une carte à 500 € max qui fera très bien son boulot dans 95 % des cas.<br /> PS: pour la 4090 j’ai pas envie de rajouter en plus le prix d’une alim, ma 620 me suffit largement.<br /> Sauf que l’astuce que j’ai donné n’est pas du tout limitée aux cartes à 2000€, ça fonctionne aussi très bien sur celles à 500 et moins. Et même sur celles d’occasion à 50 balles.<br /> L’utilité, c’est que jusqu’à un certain point tu gagne plus en consommation que tu ne perds en vitesse de traitement. Pour résumer de façon simpliste, les derniers pourcentage de puissance coûtent beaucoup plus cher que les premiers.<br /> Après, c’est aussi une question de chance. Suivant la qualité des circuits, tu peux parfois arriver à tourner à la fréquence d’origine en gagnant quand même un peu d’énergie. Le tout est de voir à partir de quand le circuit devient subtilement instable.
KlingonBrain
Et également en activant le Vsync (ou le limiteur de framerate dans les drivers nVidia), surtout dans les jeux légers où la carte est capable d’aller beaucoup plus vite que l’écran.<br /> C’est exact, excellente astuce.<br /> Dans une grande majorité de jeux, ça ne sers effectivement à rien de calculer plus d’images que l’écran n’est capable d’en afficher. C’est juste un très gros gaspillage de puissance de traitement et d’énergie.<br /> @Palou<br /> et aussi en mettant l’écran en 800x600, voire 1024x768<br /> Sans aller jusque la, beaucoup de jeux ne peuvent t’ils pas se contenter du Full HD ?<br /> Alors bien sûr, chacun répondra à cette question selon ses critères personnels et en fonction de ce qu’il apprécie dans les jeux. Mais ça vaut peut être le coup de se poser la question.<br /> Une idée reçue est de croire qu’on serait obligé de jouer à la résolution native du moniteur sauf à perdre en qualité… et dans certains cas c’est vrai.<br /> Mais il y a des exceptions. Par exemple, un écran 4k est capable de redimensionner sans perte de qualité une image 1920x1080 vu que ça représente exactement un facteur 2.
Chamalol
La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).<br /> Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …
Shinpachi
La grande question, c’est en faisant passer 600W dans un câble de cette section, combien de temps avant qu’il fonde ou prenne feu ?
Blackalf
Chamalol:<br /> La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).<br /> Et de quel pays s’agit-il ? quelque chose me dit déjà que ce ne sera pas du tout comparable avec l’Europe.
MattS32
Shinpachi:<br /> La grande question, c’est en faisant passer 600W dans un câble de cette section<br /> Ça fait 100W par câble, donc 8.3A, c’est pas monstrueux, c’est moins que ce que supporte un câble 18 ou 16AWG (respectivement 9.5 et 15A), qui sont les formats qu’on trouve habituellement sur les alims.
KlingonBrain
La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).<br /> Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …<br /> Et quel est le salaire moyen dans le pays en question ?
Blackalf
Et au-delà des salaires et du prix de l’énergie, quid du reste ? il y a toujours des revers aux médailles. ^^
Shinpachi
Je parle de l’arrivée : on passe de 600W sur 32 pins (et donc 32 fils) à 600W sur 12 pins (et donc 12 fils) de même section<br /> gamersnexus.net<br /> HW News - Intel Arc Isn't Dead, Melting GPU Power Cables 12VHPWR, &amp; RTX...<br /> Hardware news this week talks Intel Arc GPUs, RTX 40 card coolers as leaked by wxnod, PCI-SIG discussion on melting 12VHPWR connectors, and more.<br />
TNZ
R’marque, s’ils achètent cette hérésie … rien ne dit qu’ils aient encore les moyens de payer l’électricité après.<br /> Et même si ça doit servir à de la spéculation, les mineurs ont lâché l’affaire depuis que les cours de la crypto baissent.
sshenron
Au bout des 30-40 débranchements, est ce que c’est le cable qui sera défectueux, le slot sur la carte graphique, ou les deux?
MattS32
Shinpachi:<br /> Je parle de l’arrivée : on passe de 600W sur 32 pins (et donc 32 fils) à 600W sur 12 pins (et donc 12 fils) de même section<br /> Oui, je parle moi aussi de ces 12 fils à l’arrivée. 6 paires pour 600W, ça fait 100W par paires, et donc sous 12V, 8.3A dans chaque fil. Ce qui est conforme à ce que peut encaisser un fil 16 ou 18 AWG, qui sont typiques de ce qu’on a en sortie des alims.<br /> Si les 32 fils en entrée ont la même section, c’est simplement qu’ils sont largement surdimensionnés.
Chamalol
C’est les tarifs du Canada. Mais a New York c est « juste » le double.<br /> C’est sur que ça ne règle pas le problème de consommation excessive de ces cartes, mais je répondais juste aux arguments : « C’est trop cher l’électricité alors personne ne peut s’acheter ces cartes »
Chamalol
Sujet délicat de commencer à comparer tout et n’importe quoi …<br /> Je te parle d’électricité et de coût d’une telle carte au quotidien.
DrGeekill
Et bien le nombre de gemmes nécessaires pour acheter un cosmétique c’est 1600 de mémoire et 1600 gemmes c’est 25 euros non ? Après il y a ceux du passe de combat pour 4,99 € pour celui qui joue c’est déjà plus réaliste.
Fck
tu consommes pas 450w en permanence… juste quand la carte est exploitée au max.<br /> Et avant c’était 250-300w…ça change quoi au final ? 150w de plus ?.soit 38 euros annuel si ta carte tourne 24h sur 24h à fond ! ça va pas péter loin…<br /> Donc en l’utilisant comme un no life 12h par jour (impossible car pour avoir une 4090 faut bosser), elle va coûter 19euros de plus par an qu’une 3080… soit 2 menu bigmac…
jeroboam64
Une RTX 3060, c’est 170w pourquoi comparer avec du haut de gamme utilisé par 5 a 10% maxi des gamers???
Voir tous les messages sur le forum
Haut de page

Sur le même sujet