Je souhaiterais savoir si la baisse de fréquence et l’augmentation du nombre de CUDA core entre la Geforce GTX 660 et la Geforce GTX 660 Ti de chez EVGA (marque cité comme exemple) mérite cette augmentation de 70€.
J’ai vu et mis à part certains jeux comme Call Of Duty, Dirt 3, Trackmania le rapport perf/prix ne me semble pas valoir le coup de mettre 100€ de plus dans une carte de “niveau supérieur”.
Merci quand même pour les tests donnés que je n’avais pas trouvé.
Je vais me tourner vers une EVGA Geforce GTX 660 en version SuperClocked qui devrait convenir à une utilisation Jeux et Films HD pour une durée de 2-3 ans sans problème.
Moi c’est l’argumentation de Wolverhead que je ne comprends pas bien :neutre:
Peut-être voulait-il dire qu’il y a une clientèle pour ça, mais je ne vois pas bien en quoi ça vient nuancer ce que dit le ciel bleu.
Concernant le post de the blue Sky, il te dis simplement qu’un modèle O/c n’est pas forcément utile.
Tu peux prendre un modèle standard et l’O/c toi même, tu économiseras ainsi de l’argent.
Edité le 16/01/2013 à 15:01
Hmm, ça dépend, ( pour ce qui est de la tension bien sur, sinon tu a raison pour la longévité évidemment ! ) mais avec MSI afterburner par ex tu peux modifier la tension du GPU, et sur certains modèles jusqu’à trois tensions.
Edité le 16/01/2013 à 16:08
Pas sur les series 6, du moins pas sans bidouiller serieusement.
Après peut-être que la EVGA le permet (ou certains modèles spécifiques), j’avoue ne pas m’être renseigné dessus.
Pour les cartes fortement O/c, oui il arrive régulièrement qu’elles soient triées, pour les O/c “standards”, j’en suis nettement moins sur. Dans un cas comme dans l’autre, je ne suis pas convaincu que ça joue énormément sur la durée de vie, du moins pas suffisamment pour poser problème.
Applique une tension et test avec afterburner pour voir si elle est prise en compte (parce que moins aussi je peux bouger le curseur, mais niet).
Edité le 16/01/2013 à 16:20
Il me semblait que c’était limité a 1.175V (qui est une valeur acceptée dans les tolérances Nvidia) et lié au power target (qu’on peut régler jusqu’a 110/120% selon les cartes), en clair un gain nul puisque la gestion TDP finit par renvoyer l’ensemble a ses valeurs d’origine en peu de temps. En clair on demande mais ça ne dure pas. Même la fréquence finit par baisser d’ailleurs.
Mais il faudra que je revérifie tout ça encore une fois, parce que c’est uniquement ce que j’avais en tête.
Edit: Rien a faire: OCCT GPU Test + Riva tuner + Nvidia Inspector: Le Vcore d’origine (en charge) est de 1.175V et ne bouge pas d’un iota. J’avais gardé en tête que c’était normal, mais si tu arrives a le modifier alors…
C’est pas faux, surtout que la fréquence d’origine dépasse quasiment tout le temps les fréquence donnée avec turbo boost.
Il n’y a donc pu forcément beaucoup de marge avant la limite tenable par le GPU, ça en réduit encore l?intérêt.
Edité le 16/01/2013 à 17:31