juju251 Super Modérateur
il y a 3 ans

Oui, mais as-tu tenu compte de la déformation géométrique provoquée par l’objectif photo ?
Les deux cartes n’étant pas situées au même endroit sur la photo, la déformation est potentiellement différente et donc les tailles perçues peuvent changer.

Sinon, sérieusement, certains se prennent la tête pour ça ? On verra bien quand ce sera sorti.

De toute manière, dans tous les cas, elle ne passera pas par chez moi, car "Si c’est Nvidia j’en veux pas"©. ane

Je précise quand même pour la team 1er degré, que ma dernière phrase est évidemment un (semi, parce que bon, c’est Nvidia quand même shy ) troll.

Édité il y a 3 ans
1
fawaz
il y a 3 ans

Question de perspective car les cartes n’ont pas la même épaisseur donc ne sont pas situées à même distance (et mon 27" QHD va très bien, merci de te soucier de son remplacement).
Pour finir, la 2080 prise pour comparaison n’est pas si grande que ça. Plusieurs modèles même plus anciens ou d’une marque concurrente titillent les 30 cm.

jfrag
il y a 3 ans

Je viens de changer de config et j’ai pris une grand tour (fractal design define 7XL), du coup ça va passer !
Le souci maintenant c’est l’alim, 750W j’espère que ça va suffire…

mamide
il y a 3 ans

ça reste une rumeur encore et comme Nvidia travaille toujours avec TSMC je préfère croire au 7nm c’est plus logique.

Après si c’est du Samsung 8nm … c’est le C** entre 2 chaises !!!

mamide
il y a 3 ans
En réponse à jfrag

y aura sûrement des modèles Customs qui vont consommer à mort genre si une Founders Edition consomme 350W alors une ROG Strix va consommer au moins 400 Watts si ce n’est plus !

kyosho62 Team Modo
il y a 3 ans
En réponse à mamide

Montre moi une carte graphique qui consomment 300w.

1
mamide
il y a 3 ans
En réponse à kyosho62

On parle de la RTX 3090 là …

Sinon pour les cartes qui dépassent les 300 Watts je vais citer des exemples simples : Radeon VII et RX Vega 64 … elles dépassent largement les 300 Watts en Load !!

kyosho62 Team Modo
il y a 3 ans
En réponse à mamide

Moi je vois 334w la config complète (en stressant que le GPU)

Comme dab, les gens regardent les graphiques sans lire…

1
mamide
il y a 3 ans
En réponse à kyosho62

Arrête de prendre tes grands airs … tu me critiques sur un article que ta posté et lu toi-même … pour ma part j’ai dit qu’elle consomme 300 Watts je n’ai pas donné de lien d’article donc …

En plus cette article se base sur une Carte AMD pas une Carte Custom … qui achète des cartes AMD avec Blower ??

Je maintiens mes 300 Watts et plus …

juju251 Super Modérateur
il y a 3 ans

C’est tellement pratique d’affirmer quelque chose et de réfuter ce que répond l’interlocuteur sans donner la moindre source …

opadm
il y a 3 ans

600 wattsssss… c est deja la consommation d’une pompe a chaleur reversible. est ce qu’il la fournisse en option avec la carte video? 600 watss c’est enorme.

Édité il y a 3 ans
1
Jaceneliot
il y a 3 ans

Ton commentaire est correct, mais il fait aussi penser à tous ces imbéciles qui achètent des alimentations overkill en permanence. Combien de personnes achetant une config se sentent obligés de prendre 1000w, ou même 800w…

Édité il y a 3 ans
1
Jaceneliot
il y a 3 ans
En réponse à opadm

Bon, les 600w c’est en utilisation intensive, ce qui est pas en permanence. Et ça reste à prouver. Plusieurs jeux n’utiliseront peut-être pas la carte à 100 %.

mamide
il y a 3 ans
En réponse à Jaceneliot

La Carte Graphique dans un jeu doit toujours être à 99% … si c’est pas le cas alors y a un problème quelque part souvent un bottleneck du CPU.

Dans un jeu la CG fait en sorte de fournir le plus de FPS possible même si le jeu ne demande pas beaucoup de ressources graphiques alors le GPU compense en fournissant plus de FPS.

Donc la seule raison qui peut stopper une CG c’est le processeur … bon y a des jeux mal optimisés qui n’exploitent pas la CG à plein gaz.

Dans une machine il y a toujours un composant qui constitue un bottleneck et ça doit être la Carte Graphique et pas autre chose sinon y a un problème !

Jaceneliot
il y a 3 ans
En réponse à mamide

Et non, malheureusement tu es dans l’erreur. La carte graphique devrait envoyer le même nombre d’images que le rafraîchissement maximum de l’écran, le reste est superflu et ne sert qu’à faire chauffer la carte et à gaspiller de l’énergie, tout en augmentant la facture d’électricité.

Je comprends ce que tu voulais dire, mais de fait, les FPS supérieurs ne servent à rien. L’idéal est d’activer le limiteur de FPS intégré aux software AMD et Nvidia et de le capper 1 ou 2 fps en dessous des Hz maximaux de l’écran (pour éviter de sortir du G-Sync / FreeSync si présent).

juju251 Super Modérateur
il y a 3 ans
En réponse à mamide

Ben voyons.
Evidemment, tu tiens ça d’une source fiable que tu vas nous exposer ?

Non, avec la synchro verticale (et des options permettant d’indiquer une fréquence d’affichage cible) la carte peut très bien limiter sa charge pour ne calculer que le nombre d’images que l’écran peut afficher ?
Si l’écran a une fréquence d’affichage de 60 HZ, à quoi bon calculer 400 fps ? (je précise que ce n’est qu’un exemple)

mamide
il y a 3 ans
En réponse à juju251

Qui a parlé de taux de rafraîchissement ? tu as beau avoir un écran 60 FPS … ta carte va calculer 4000 FPS si elle peut le faire elle s’en fout de ton écran !!!

Pour l’usage du GPU … on achète pas une RTX 2080 Ti pour l’utiliser avec un i3 et avoir un usage de 30 ou 40% dans les jeux … autant acheter une 1660 dans ce cas là !

Moi je pars du principe que celui qui achète une carte d’une certaine gamme il sait quoi faire avec !

Celui qui achète une RTX 2080 Ti c’est pour jouer en 4K pas en Full HD alors la fréquence de l’écran n’est plus un problème !

Pour ceux qui ont une RTX 2080 ils jouent en 2K et 120 Hz ou 144 Hz font largement l’affaire !

Pour les autres beh y a le Full HD et une carte moins puissante qui va être adapté !

Édité il y a 3 ans
mamide
il y a 3 ans
En réponse à Jaceneliot

Amigos … de nos jours y a des écrans à 360 Hz … qu’est ce que tu me racontes ?

Et même si ta le Gsync et FreeSync … tu joues pas avec un écran de 60 Hz si ta une CG haut de gamme faut être un peu logique !

kyosho62 Team Modo
il y a 3 ans
En réponse à mamide

Bah si, il est où le problème ?

Jaceneliot
il y a 3 ans
En réponse à mamide

Oui bah il va de soit que dans ce cas, la carte graphique sera utilisée à 100 % pour un certain nombre de jeux. Mais tu crois que c’est la norme les 360Hz ? Ou que la moitié des joueurs sont toujours sur 60Hz, et l’autre moitié principalement sur 120 ou 144Hz ? On peut toujours sortir des technologies qui touchent 0.1 % des gens, mais je vois pas l’utilité. C’est comme ces testeurs qui disent « le i9 9900k est beaucoup mieux que le Ryzen 3700x…avec une 2080ti uniquement, en 4k ». Aucun sens.

Et tu serais étonné du nombre de gens qui ont une bonne configuration et un écran moyen ou ancien, et le nombre de gens avec un 144Hz qui oublient d’activer le plein potentiel de l’écran. Et même : une 2080 ti va donner pour beaucoup de jeux plus que 144Hz, donc elle sera pas utilisée à 100 %. Et même utilisée à 100 %, la carte ne consomme pas en permanence sa consommation maximale.