KlingonBrain
il y a 1 an

Et également en activant le Vsync (ou le limiteur de framerate dans les drivers nVidia), surtout dans les jeux légers où la carte est capable d’aller beaucoup plus vite que l’écran.

C’est exact, excellente astuce.

Dans une grande majorité de jeux, ça ne sers effectivement à rien de calculer plus d’images que l’écran n’est capable d’en afficher. C’est juste un très gros gaspillage de puissance de traitement et d’énergie.

@Palou

et aussi en mettant l’écran en 800x600, voire 1024x768

Sans aller jusque la, beaucoup de jeux ne peuvent t’ils pas se contenter du Full HD ?

Alors bien sûr, chacun répondra à cette question selon ses critères personnels et en fonction de ce qu’il apprécie dans les jeux. Mais ça vaut peut être le coup de se poser la question.

Une idée reçue est de croire qu’on serait obligé de jouer à la résolution native du moniteur sauf à perdre en qualité… et dans certains cas c’est vrai.

Mais il y a des exceptions. Par exemple, un écran 4k est capable de redimensionner sans perte de qualité une image 1920x1080 vu que ça représente exactement un facteur 2.

Édité il y a 1 an
Chamalol
il y a 1 an

La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).
Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …

1
Shinpachi
il y a 1 an

La grande question, c’est en faisant passer 600W dans un câble de cette section, combien de temps avant qu’il fonde ou prenne feu ?

Blackalf
il y a 1 an
En réponse à Chamalol

Et de quel pays s’agit-il ? quelque chose me dit déjà que ce ne sera pas du tout comparable avec l’Europe. neutre

MattS32
il y a 1 an
En réponse à Shinpachi

Ça fait 100W par câble, donc 8.3A, c’est pas monstrueux, c’est moins que ce que supporte un câble 18 ou 16AWG (respectivement 9.5 et 15A), qui sont les formats qu’on trouve habituellement sur les alims.

KlingonBrain
il y a 1 an
En réponse à Chamalol

La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).
Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …

Et quel est le salaire moyen dans le pays en question ?

Blackalf
il y a 1 an

Et au-delà des salaires et du prix de l’énergie, quid du reste ? il y a toujours des revers aux médailles. ^^

Shinpachi
il y a 1 an
En réponse à MattS32

Je parle de l’arrivée : on passe de 600W sur 32 pins (et donc 32 fils) à 600W sur 12 pins (et donc 12 fils) de même section

TNZ
il y a 1 an

R’marque, s’ils achètent cette hérésie … rien ne dit qu’ils aient encore les moyens de payer l’électricité après.
Et même si ça doit servir à de la spéculation, les mineurs ont lâché l’affaire depuis que les cours de la crypto baissent.

sshenron
il y a 1 an

Au bout des 30-40 débranchements, est ce que c’est le cable qui sera défectueux, le slot sur la carte graphique, ou les deux?

MattS32
il y a 1 an
En réponse à Shinpachi

Oui, je parle moi aussi de ces 12 fils à l’arrivée. 6 paires pour 600W, ça fait 100W par paires, et donc sous 12V, 8.3A dans chaque fil. Ce qui est conforme à ce que peut encaisser un fil 16 ou 18 AWG, qui sont typiques de ce qu’on a en sortie des alims.

Si les 32 fils en entrée ont la même section, c’est simplement qu’ils sont largement surdimensionnés.

Chamalol
il y a 1 an
En réponse à Blackalf

C’est les tarifs du Canada. Mais a New York c est « juste » le double.

C’est sur que ça ne règle pas le problème de consommation excessive de ces cartes, mais je répondais juste aux arguments : « C’est trop cher l’électricité alors personne ne peut s’acheter ces cartes »

Édité il y a 1 an
Chamalol
il y a 1 an

Sujet délicat de commencer à comparer tout et n’importe quoi …
Je te parle d’électricité et de coût d’une telle carte au quotidien.

TheLudo
il y a 1 an

Et bien le nombre de gemmes nécessaires pour acheter un cosmétique c’est 1600 de mémoire et 1600 gemmes c’est 25 euros non ? Après il y a ceux du passe de combat pour 4,99 € pour celui qui joue c’est déjà plus réaliste.

Frederic CK
il y a 1 an

tu consommes pas 450w en permanence… juste quand la carte est exploitée au max.
Et avant c’était 250-300w…ça change quoi au final ? 150w de plus ?.soit 38 euros annuel si ta carte tourne 24h sur 24h à fond ! ça va pas péter loin…
Donc en l’utilisant comme un no life 12h par jour (impossible car pour avoir une 4090 faut bosser), elle va coûter 19euros de plus par an qu’une 3080… soit 2 menu bigmac…

Édité il y a 1 an
jeroboam64
il y a 1 an
En réponse à Frederic CK

Une RTX 3060, c’est 170w pourquoi comparer avec du haut de gamme utilisé par 5 a 10% maxi des gamers???