Test NVIDIA GeForce RTX 4070 Founders Edition : un rapport performances-prix imbattable !

Nerces
Spécialiste Hardware et Gaming
12 avril 2023 à 15h00
127
© Nerces pour Clubic
© Nerces pour Clubic

Voilà un peu plus de six mois que les premières cartes graphiques GeForce RTX 4000 sont en vente. NVIDIA se décide enfin à lancer des modèles « accessibles ». Avec un tarif conseillé de plus de 200 euros inférieur à celui de la RTX 4070 Ti, sa grande sœur, la GeForce RTX 4070, ouvre la voie à une adoption généralisée d’Ada Lovelace. Enfin, si les performances sont au niveau, bien sûr !

NVIDIA GeForce RTX 4070
  • Toute proche de la RTX 3080 Ti
  • Format presque compact
  • Discrète et ne chauffe pas
  • Écosystème NVIDIA (DLSS3, Reflex)
  • Enfin un prix "normal" ?
  • NVIDIA ne veut plus d'USB-C

Vous le savez sans doute, mais notre test d’une carte pour décliner l’architecture Ada Lovelace n’a pas vocation à revenir en détail sur les améliorations apportées par NVIDIA. Si vous souhaitez en savoir plus sur les nouveautés matérielles et logicielles, nous vous invitons à (re)lire le test de la GeForce RTX 4090 Founders Edition.

Fiche technique NVIDIA GeForce RTX 4070

Résumé

Mémoire vidéo
12Go
Type de mémoire
GDDR6
Technologie(s) d'affichage compatible(s)
G-Sync
Sorties vidéo
HDMI 2.1, DisplayPort 1.4a (x3)

Performances

Fréquence de base
1 920MHz
Fréquence Boost
2 475MHz
Processeurs de flux
5888
Mémoire vidéo
12Go
Interface mémoire
192 bit
Type de mémoire
GDDR6
Consommation
200W

Affichage

Technologie(s) d'affichage compatible(s)
G-Sync
VR Ready
Oui
VirtualLink
Non
Définition d'affichage maximale
7680 x 4320 pixels

Connectivité

Sorties vidéo
HDMI 2.1, DisplayPort 1.4a (x3)
Nombre d'écran(s)
4
Connecteur(s) d'alimentation
PCI Express 16 Broches
Bus
PCI Express 4.0 16x

Caractéristiques physiques

Longueur
244mm
Largeur
112mm
Epaisseur
42mm
LED
Non
Type de refroidissement
Actif (fansink)
Pulvériser les RTX 3070 et 3070 Ti ? Voilà l'objectif © NVIDIA
Pulvériser les RTX 3070 et 3070 Ti ? Voilà l'objectif © NVIDIA

« Chéri, j’ai rétréci Ada Lovelace ! »

Au premier coup d’œil posé sur la GeForce RTX 4070 Founders Edition (FE), nous sommes ravis de constater que NVIDIA a largement revu les dimensions de ses cartes graphiques. Visiblement, de nombreux partenaires de la société américaine envisagent des modèles custom à triple ventilation, mais nous devrions tout de même pouvoir compter sur pas mal de cartes plus compactes que la déception (sur le plan des dimensions) qu'est la RTX 4070 Ti.

NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces

Un amour de petite carte : 24 cm, nous n'avions plus l'habitude © Nerces pour Clubic

Pour être plus précis, la RTX 4070 FE semble reprendre le format des RTX 3070 et RTX 3070 Ti. De fait, la carte mesure environ 24 cm de long pour plus ou moins 11 cm de large, et son épaisseur se limite à deux slots PCI Express. Les joueurs seront heureux de voir qu’il est enfin possible de changer de carte graphique sans devoir adopter un monstre. Sur la balance, le bilan est tout aussi positif, avec une carte qui ne pèse que 1 050 grammes.

Si, si, c'est écrit dessus © Nerces pour Clubic
Si, si, c'est écrit dessus © Nerces pour Clubic

Dans sa conception, elle s'appuie sur le dessin des autres modèles de RTX 4000, et l'on retrouve un PCB particulièrement compact qui laisse le second ventilateur souffler « dans le vide ». En réalité, il participe bien sûr à l’évacuation de l’air chaud, travaillant de concert avec le deuxième ventilateur de 92 mm. Placé au-dessus du PCB, ce dernier tourne dans le sens inverse des aiguilles d’une montre, tandis que l’autre ventilateur tourne en sens horaire.

NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces

© Nerces pour Clubic

NVIDIA GeForce RTX 4070 FE © Nerces

Ventilation et signature de "l'artiste" © Nerces pour Clubic

Il n’est pas utile d’entrer davantage dans les détails techniques d’une carte qui n’est jamais que la quatrième déclinaison de l’architecture Ada Lovelace. Avec ses 35,8 milliards de transistors, le GPU compte un total de 5 888 cœurs CUDA, 184 cœurs Tensor de 4e génération, 46 cœurs ray tracing de 3e génération, 184 unités de texture et 64 unités ROP. 12 Go de GDDR6X et 21 Gbps lui sont associés pour une bande passante de 504 Go/s, du fait du bus d’interface de 192 bits.

NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces

NVIDIA opte pour le 16 broches, mais les fabricants ont le choix © Nerces pour Clubic

La connectique externe repose sur 1x HDMI 2.1 et 3x DisplayPort 1.4a. L’alimentation est assurée en interne par le fameux connecteur 16 broches. Un adaptateur 2x 8 broches est livré, et un bloc d'alimentation de 650 W est recommandé. Notons enfin que la température maximale du GPU est fixée à 90 °C, et qu’à côté des DLSS et autres Reflex sur lesquels nous reviendrons, la RTX 4070 est capable d’encoder en AV1, même s’il n’est plus ici question que d’un encodeur simple.

HWInfo est le premier logiciel à faire le point sur notre carte © Nerces pour Clubic
HWInfo est le premier logiciel à faire le point sur notre carte © Nerces pour Clubic

Protocole de test

Afin de faire honneur aux cartes graphiques de nouvelle génération, nous avons largement revu notre protocole de test. Pour la GeForce RTX 4070 FE, la base reste la même, nous n’avons pas chamboulé notre machine de bench.

NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces

Nous enchaînons ensuite avec les multiples onglets de CPU-Z © Nerces pour Clubic

Configuration de test

  • Carte mère : ASUS ROG Maximus Z690 Hero
  • Processeur : Intel Core i9-12900K
  • Mémoire : Kingston Fury DDR5-4800 CL38 (2x 16 Go)
  • SSD « système » : Kingston KC3000 2 To
  • Refroidissement : ASUS ROG Ryujin II 360
  • Alimentation : be quiet! Straight Power 11
Avant de conclure cet état des lieux avec GPU-Z © Nerces pour Clubic
Avant de conclure cet état des lieux avec GPU-Z © Nerces pour Clubic

Côté logiciel, nous utilisons Windows 11 Professionnel 64 bits 22H2 22621.607. NVIDIA nous a fourni la dernière mouture des pilotes GeForce (531.42) pour que sa RTX 4070 Founders Edition soit reconnue, et notre plateforme Z690 exploite les pilotes chipset Intel 10.1.18838.8284. Pour les Radeon, nous employons les pilotes AMD Adrenalin 23.4.1, alors que l’Intel ARC A770 tourne avec les 31.0.101.4255.

NVIDIA GeForce RTX 4070 FE © Nerces
NVIDIA GeForce RTX 4070 FE © Nerces

La carte est installée, l'adaptateur 16 > 8 broches également © Nerces pour Clubic

Qu’en est-il des performances ?

En toute logique, la RTX 4070 FE est là pour opérer une certaine descente en gamme et, petit à petit, tirer un trait sur la génération Ampere. À en croire NVIDIA, sa nouvelle carte devrait dépasser la RTX 3080 pour se rapprocher de la RTX 3080 Ti. L’apport de DLSS3 doit ouvrir de nouveaux horizons à la petite dernière, sachant que les RTX 3000 ne peuvent en profiter.

Sans RTX 3070 ou RTX 3080 sous la main, nous nous sommes contentés des RTX 3060 Ti/3070 Ti et de la cible de la RTX 4070 FE, la RTX 3080 Ti. Côté AMD, nous n’avons ajouté que la RX 6950XT pour simplifier la lecture, et enfin, l’Intel ARC A770 ferme la marche. Deux cartes haut de gamme (les RTX 4070 Ti et RX 7900XT) sont là pour compléter.

3DMark

Performances observées sur 3DMark © Nerces pour Clubic
Performances observées sur 3DMark © Nerces pour Clubic

Nous ne changeons pas une équipe qui gagne, et c’est donc 3DMark qui ouvre le bal. Ici, le rapprochement avec la RTX 3080 Ti n’est pas une évidence, même si la RTX 4070 est déjà plus à son aise face au précédent haut de gamme d’AMD. Comme toujours, c’est en ray tracing, sur Port Royal, que les cartes NVIDIA sont le plus à la fête.

Blender Benchmark

Performances observées sur Blender Benchmark © Nerces pour Clubic
Performances observées sur Blender Benchmark © Nerces pour Clubic

Première bonne performance d’une longue série pour la RTX 4070 ? Blender étant toujours favorable aux cartes NVIDIA, il n’est pas surprenant de la voir écraser la RX 6950XT autant que la RX 7900XT. Plus étonnant en revanche, elle prend une belle option sur la RTX 3080 Ti.

Cyberpunk 2077

Performances observées sur Cyberpunk 2077 © Nerces pour Clubic
Performances observées sur Cyberpunk 2077 © Nerces pour Clubic

Sur Cyberpunk 2077 avec les détails au maximum, mais sans activer le ray tracing, la RTX 4070 rentre dans le rang. Elle ne démérite pas par rapport aux RTX 3080 Ti et RX 6950XT, mais ne peut que s’incliner, avec toutefois un écart qui se réduit à mesure que la définition progresse.

Cyberpunk 2077 et le ray tracing

Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces pour Clubic
Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces pour Clubic

Cela dit, la partie la plus intéressante du test Cyberpunk 2077 est bien lorsque tous les curseurs sont au maximum, notamment celui du ray tracing. Ici, la chanson est bien différente. Dites-vous qu’en 1080p, la RX 6950XT n’est qu’une image par seconde devant la RTX 4070… en 1440p ! Par rapport à la RTX 3080 Ti, notre carte du jour ne fait rien que moins que jeu égal.

Far Cry 6

Performances observées sur Far Cry 6 © Nerces pour Clubic
Performances observées sur Far Cry 6 © Nerces pour Clubic

Le jeu d’Ubisoft Montréal s’est toujours montré plus à son aise sur plateforme AMD, et la RTX 4070 doit s’incliner face à la RX 6950XT. Elle est aussi un petit cran derrière la RTX 3080 Ti, mais elle n’a clairement pas à rougir et se sort finalement très bien de l’exercice.

Forza Horizon 5

Performances observées sur Forza Horizon 5 © Nerces pour Clubic
Performances observées sur Forza Horizon 5 © Nerces pour Clubic

D’un côté, nous sommes ravis de voir la RTX 4070 devancer la RTX 3080 Ti dans toutes les définitions d’image sur Forza Horizon 5, exception faite en 2160p. D’un autre côté, nous sommes un peu déçus de constater que ce n’est pas suffisant pour devancer la RX 6950XT. Le résultat est malgré tout excellent.

Marvel’s Guardians of the Galaxy

Performances observées sur Marvel's Guardians of the Galaxy © Nerces pour Clubic
Performances observées sur Marvel's Guardians of the Galaxy © Nerces pour Clubic

La petite faiblesse observée en 2160p sur Forza Horizon 5 se confirme sur Marvel’s Guardians of the Galaxy. La RTX 4070 n’a pas vraiment à rougir de la comparaison, mais elle est mise en difficulté sur toutes les définitions d’image par notre duo de concurrentes, les RTX 3080 Ti et RX 6950XT.

Red Dead Redemption 2

Performances observées sur Red Dead Redemption 2 © Nerces pour Clubic
Performances observées sur Red Dead Redemption 2 © Nerces pour Clubic

Voilà enfin un jeu qui permet à la RTX 4070 de se distinguer en 2160p. À 87 images par seconde de moyenne, et avec un 1 % low de 43 ips, cette pseudo 4K sera largement exploitable. Red Dead Redemption 2 ne sera clairement pas aussi jouable sur RTX 3080 Ti ou sur RX 6950XT.

Total War Warhammer 3

Performances observées sur Total War Warhammer 3 © Nerces pour Clubic
Performances observées sur Total War Warhammer 3 © Nerces pour Clubic

Un coup de moins bien : si la RTX 4070 était jusqu’à présent très en vue, elle est en retrait sur la scène « champ de bataille » du test Total War Warhammer 3. Quelle que soit la concurrente (RTX 3080 Ti ou RX 6950XT), quelle que soit la définition d’image, notre carte du jour doit s’incliner de manière assez nette… tout en restant parfaitement exploitable, évidemment.

L’affinage selon DLSS

Avec près de 80 milliards de transistors sur le GPU de la RTX 4090, les coûts de production des puces explosent. Pour améliorer encore le rendu, AMD, Intel et NVIDIA ont recours à des techniques comme le DLSS. Dans sa version 3, il intègre un système de génération des frames évolué, et pour nous, il sera bientôt temps de généraliser les tests en activant ces techniques.

Relevé avec et sans DLSS : moyenne et "1 % low" © Nerces pour Clubic
Relevé avec et sans DLSS : moyenne et "1 % low" © Nerces pour Clubic

Pour l’heure, nous comparons la vitesse d’animation en natif et en DLSS « équilibré » sur Cyberpunk 2077 et sur Red Dead Redemption 2. Dans le premier cas, le gain est stupéfiant sans que la qualité d’image soit réellement affectée. Bien sûr, c’est une question de goût, mais avec des gains dépassant les 100 %, le jeu nous semble en valoir la chandelle. C’est moins vrai sur Red Dead Redemption 2.

Le DLSS3 est promis à un grand avenir... la RTX 4070 aussi ! © NVIDIA
Le DLSS3 est promis à un grand avenir... la RTX 4070 aussi ! © NVIDIA

« 1 % low » (1%L), qu'est-ce que c'est ?

À côté de la mesure des images par seconde, de plus en plus souvent, on voit apparaître une autre valeur, celle du 1%L. À Clubic, il n'est pas encore question de l'utiliser très souvent, mais cela ne doit pas empêcher de savoir de quoi il retourne.

En effet, une moyenne classique du nombre d'images par seconde ne rend pas compte du côté fluctuant de la chose. De fait, malgré un résultat de 100 ips, il est possible d'avoir des moments « de faiblesse » durant lesquels la vitesse d'animation chute brièvement à 40 ou 50 ips.

Le 1%L est une réponse à ce problème. Il ne s'utilise pas seul, mais conjointement à la moyenne classique, et il retourne une nouvelle moyenne qui n'est calculée que sur le 1 % du temps où la vitesse d'animation est la plus mauvaise, d'où parfois une traduction en « 1 % faible ips ».

Certains ne se contentent plus du 1%L, ils utilisent le « 0,1 % low » qui insiste encore davantage sur les pires moments du test.

La réactivité ? Une question de Reflex

Le second chantier de NVIDIA concerne la chasse aux millisecondes pour un temps de latence le plus faible possible. Cette fois, ce sont d’abord les joueurs compétitifs sur les jeux les plus rapides qui sont visés par la firme et sa technologie Reflex.

Relevé de la latence système avec et sans Reflex © Nerces pour Clubic
Relevé de la latence système avec et sans Reflex © Nerces pour Clubic

Nous limitons nos mesures à Cyberpunk 2077 et Red Dead Redemption 2 qui ont le bon goût de prendre en charge Reflex avec activation du boost. Dans le cas de Cyberpunk 2077, la différence est impressionnante, et les actions du joueur se matérialisent bien plus rapidement à l’écran, avec une amélioration plus notable à mesure que la définition d’image augmente. Davantage tributaire du CPU, Red Dead Redemption 2 ne profite pour sa part guère de Reflex.

Counter Strike 2 est déjà prêt pour Reflex © NVIDIA
Counter Strike 2 est déjà prêt pour Reflex © NVIDIA

De l’efficacité d’Ada : à cheval sur la conso ?

Nous n’avons pas évoqué la chose, mais en optant pour le procédé 4N (ou 5 nm) de TSMC, NVIDIA insiste autant sur la densité de transistors que sur la remarquable efficacité énergétique. Sans trop entrer dans les détails, l'entreprise précise pouvoir délivrer « les plus hauts niveaux de performance par watt ». La RTX 4070 devrait encore se démarquer.

Consommation électrique

Consommation au repos/en charge durant le test 3DMark © Nerces pour Clubic
Consommation au repos/en charge durant le test 3DMark © Nerces pour Clubic

Au repos, notre carte du jour signe un score remarquablement bas : simplement 4 W, nous n’avions jamais mesuré cela. Pour autant, c’est évidemment en charge que les choses sont les plus importantes. Eh bien, la RTX 4070 ne rencontre pas plus de problèmes et affiche une consommation peu ou prou identique à celle de la RTX 3060 Ti, autour de 200 W.

Notons que cette consommation se fait avec une chauffe toute relative du GPU, puisque nous ne relevons jamais plus de 62 °C. La VRAM plafonne à 66 °C, et même le hotspot de la carte se limite à 75,9 °C. De plus, tout cela se fait dans un silence de cathédrale. Nous forçons le trait, mais non contente de se couper à charge limitée, la ventilation est très discrète à pleine charge.

Efficacité et « rentabilité »

Au-delà de sa consommation, il nous semblait utile d’évoquer deux indicateurs de l’efficacité de la carte : les performances par watt et les performances par euro, en prenant à chaque fois le résultat 3DMark TimeSpy Extreme. D’abord, nous le divisons par la consommation enregistrée, et ensuite, nous le divisons par le MSRP au lancement de la carte.

Performances par watt et par dollar durant les tests 3DMark © Nerces pour Clubic
Performances par watt et par dollar durant les tests 3DMark © Nerces pour Clubic

Des cartes retenues pour ce dossier, la RTX 4070 prend la tête avec un indicateur performances par watt de 42. Les RTX 3080 Ti et RX 6950XT sont loin, très loin, et il faut se tourner vers le haut de gamme d’aujourd’hui pour devancer notre carte du jour. En effet, les RTX 4080 et RTX 4090 font un peu mieux.

En revanche, en se penchant sur l’indicateur performances par euro, c’est logiquement l’entrée de gamme qui se comporte mieux, et la RTX 4070 ne démérite pas par rapport aux RTX 3060 Ti et ARC A770. L’un dans l’autre, NVIDIA signe une très belle performance avec une carte qui figure dans le haut du panier sur les deux indicateurs.

RTX 4070 : l'envol d'Ada Lovelace... enfin ? © Nerces pour Clubic
RTX 4070 : l'envol d'Ada Lovelace... enfin ? © Nerces pour Clubic

GeForce RTX 4070 Founders Edition : l’avis de Clubic

9

Eh bien, voilà, on y arrive ! Il aura fallu attendre six mois, mais enfin, une carte graphique de génération Ada Lovelace est à peu près accessible. À peu près, car pour s’offrir la GeForce RTX 4070 Founders Edition, il faut encore débourser 659 euros, mais c’est une somme qui rentre davantage dans les habitudes des joueurs. Nous sommes même 60 euros en dessous du prix de lancement, jamais respecté, de la RTX 3080 juste avant la « grande crise de la carte graphique ».

Mieux, pour ce prix, il n’est pas question de nous proposer une carte au rabais. Bien sûr, nous regrettons que le nombre de cœurs CUDA ne soit pas un peu plus élevé ou que le bus d’interface mémoire régresse à ce point. Ce ne sont toutefois que des « regrets techniques » qui n’ont guère d’influence sur les résultats de la carte. La RTX 4070 fait bel et bien jeu égal avec la RTX 3080 Ti sur le tout venant et prend une large avance, dès lors que le DLSS3 est activé.

Il n’est évidemment pas question pour NVIDIA de révolutionner Ada Lovelace, mais bien de montrer que sa nouvelle génération de GPU est aussi efficace qu’elle le promettait il y a six mois de cela.

Les plus

  • Toute proche de la RTX 3080 Ti
  • Format presque compact
  • Discrète et ne chauffe pas
  • Écosystème NVIDIA (DLSS3, Reflex)
  • Enfin un prix "normal" ?

Les moins

  • NVIDIA ne veut plus d'USB-C
Cdiscount 666,37€ Voir l'offre
Cdiscount 666,37€ Voir l'offre

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés ainsi que les marchands mis en avant sont susceptibles d'évoluer afin de toujours vous proposer le meilleur prix sur le produit concerné. 
Lire la charte de confiance
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (127)

Ezechiellydian
la cg parfaite pour du 1440p ?
nrik_1584
Enfin un prix « normal » ?<br /> 659€ pour une gamme 70 ça fait encore cher quand même.<br /> Ca fait des modèles custom à 800-900€ en gros.<br /> Ca pique pour ce qui est à ma connaissance le milieu de gamme de Nvidia.
phoenix2
Quelques petites remarques : « il faut encore débourser 659 euros, mais c’est une somme qui rentre davantage dans les habitudes des joueurs » vous avez oublié d’ajouter 'fortuné", les ventilos qui se coupent en idle, c’est une très mauvaise idée, j’ai eu une carte qui était tout le temps a 49°c en idle, elle a grillé au bout de 2 ans, enfin la dram « micron » c’est de la mdrrr !!
CallMeLeDuc
Sympas et merci pour ce test !<br /> Ca me conforte dans mon choix de sauter cette génération de gpu puisque mon 3080 12go oc est encore bien au dessus de la 4070 en terme de perf pour du 2160p
qotzo
peut-on mettre en « plus » le « enfin un prix normal » avec un point d’interrogation ?
Zimt
Heureusement les tests de Nerces nous permettent de nous rappeler que nous sommes aussi sur un site d’hardware informatique <br /> Merci mec
Nerces
Pas compris ? C’est exactement ça ?
Nerces
À en croire un peu tout le monde, il devrait enfin y avoir des custom au MSRP. Bien sûr il y aura aussi sûrement des modèles à 800 ou 900 euros, mais croisons les doigts pour que dès demain, en boutique, on trouve des ASUS, Gigabyte ou MSI à 659 euros !
nrik_1584
Moui… Alors je vais clairement attendre de le voir pour y croire au vu des dernières années.
Nerces
Je fais de même <br /> « chat échaudé craint l’eau froide »
Ccts
Intéressant… du coup j’attends les 4060 et 4060ti. La on pourra peut être parler de prix intéressant et de perfs bien suffisantes !
Nicolas_SYMKO
En performance elle est (hors RT) dans les eaux d’une 6950 XT. Mais l’avantage c’est la consommation (divisée par 2) et donc la chauffe ultra contenue, sans parler de la longueur de la carte (24 cm vs souvent 30cm+). Ca c’est un argument de poids.
Nicolas_SYMKO
Ca va faire baisser le prix des 6900 XT et des 6950 XT qui sont, jusqu’à l’arrivée de potentielles 7800, les seules concurrentes sur ce segment performance chez AMD. Au prix d’une consommation/chauffe beaucoup plus importante.
Mister_Georges
Parfait pour remplacer ma vieille RTX 2070XC (EVGA) achetée en juin 2019 au prix de 506,51€ <br /> Edit:<br /> 4289 sous Time Spy Extreme<br /> 5476 sous Port Royal Ray tracing.<br /> Consommation moyenne lors des tests 189w.<br /> Deux générations après le rendement est excellent.
MattS32
phoenix2:<br /> j’ai eu une carte qui était tout le temps a 49°c en idle, elle a grillé au bout de 2 ans<br /> Elle devait sans doute être défectueuse, c’est pas 49° qui vont griller une carte graphique, même si c’est permanent…
pitou-01
Nerces, quelle alim recommandée pour la 4070 ?
SPH
1000€ la 4070Ti chez LDLC !<br /> Je vais donc attendre…
Nicolas_SYMKO
Le fait que ventilateur de la carte souffle vers le haut et potentiellement vers le CPU est problématique si celui ci est refroidi par ventirad et non par watercooling. Mais si le FE est bien vendu à MSRP je prends sans hésiter même si elle est limitée en 4k (et le sera sûrement encore plus avec les jeux lourds en textures du fait des seulement 12 Go de VRAM). Il sera toujours temps de la changer quand la 4k sera devenue une option réellement accessible (financièrement parlant s’entend).
Nicolas_SYMKO
C’est toujours possible de modifier la courbe de ventilation de la carte pour la faire tourner à faible vitesse hors jeu si on le souhaite.
Nerces
« Un adaptateur 2x 8 broches est livré, et un bloc d’alimentation de 650 W est recommandé » <br /> À quoi ça sert que Ducros, il se décarcasse ? (je sais, je suis aussi vieux que mes références)
Shinpachi
« Toute proche de la RTX 3080 Ti » : non, toute proche de la RTX 3080<br /> « Enfin un prix normal » : non, vu la différence de performances avec la RTX 4080, c’est clairement une RTX 4060 nommée 4070 pour justifier le prix
Nicolas_SYMKO
Vu la consommation, un seul câble 8 broches aurait suffit (150W + 75W de la carte mère).
Nicolas_SYMKO
Normal ce n’est pas la même carte.
sylvio50
nrik_1584:<br /> Ca pique pour ce qui est à ma connaissance le milieu de gamme de Nvidia.<br /> Normalement, la RTX 4090 Ti sera muni de 18432 coeurs. Cette carte possède 5888 coeurs. Elle se rappoche plus de l’entrée de gamme que du milieu de gamme normalement. La RTX 4050 (la plus bas dans la gamme) sera muni de 2560 coeurs par exemple.<br /> La RTX 4070 aurait pu coûter 200 € de moins (459 €) si il y a avait eu de la concurrence du coté de chez AMD. Elle aurait d’ailleurs pu s’appeler RTX 4060.
kyosho62
Si ils mettent 2x 8pins, c’est pas pour faire beau
Nerces
Désolé, j’ai publié sans avoir ta validation préalable
SPH
Je sais mais je l’aurais plutôt vu a 800€<br /> Pas a 1000… (j’attendrais le temps que la baisse se répercute)
nrik_1584
Perso j’ai tendance à découper leur gammes comme ça :<br /> xx50 - xx60 : entrée de gamme<br /> xx70 : moyenne gamme<br /> xx80 : haut de gamme<br /> xx90 : luxe.<br /> A la base la gamme 70 était le compromis entre le prix de la gamme 60 et les perf de la gamme 80 mais maintenant quand on voit les prix ça donne plus trop cette impression.
Nicolas_SYMKO
Les graphes montrent qu’elle est souvent proche, voire dépasse la 3080 Ti en 1080p/1440p, non ?
sylvio50
Le problème (absence de concurrence) sur les RTX 4000, c’est qu’il y a un énorme « trou » entre la RTX 4090 et la RTX 4080. La RTX 4080 aurait dû s’appeler RTX 4070 et la « vrai » RTX 4080 aurait pu avoir par exemple 12288 coeurs.
Nicolas_SYMKO
Ca ne se justifie pas sur la FE, peut être les modèles Customs en cas de fort O/C. Et c’est surement une façon de pousser sur le maximum de cartes de la génération 4000 le connecteur 12VHPWR de la nouvelle norme ATX 3.0
sylvio50
Voilà a quoi (pour moi, c’est subjectif aussi, mais malgré tout en respectant les proportions) la gamme des RTX 4000 aurait pu ressembler si AMD avait été présent :<br /> cœurs<br /> bus (bit)<br /> VRAM (Go)<br /> fréq. (GHz)<br /> (TFLOPS)<br /> TDP (W)<br /> surface (mm²)<br /> prix (€)<br /> (€/TFLOPS)<br /> (€/mm²)<br /> RTX 4050<br /> 4352<br /> 128<br /> 8<br /> 2,5<br /> 21,76<br /> 139<br /> 183<br /> 390<br /> 17,9<br /> 2,1<br /> RTX 4050 Ti<br /> 5120<br /> 128<br /> 8<br /> 2,5<br /> 25,6<br /> 164<br /> 207<br /> 450<br /> 17,6<br /> 2,2<br /> RTX 4060<br /> 6144<br /> 192<br /> 12<br /> 2,5<br /> 30,72<br /> 197<br /> 238<br /> 550<br /> 17,9<br /> 2,3<br /> RTX 4060 Ti<br /> 7680<br /> 192<br /> 12<br /> 2,5<br /> 38,4<br /> 246<br /> 285<br /> 675<br /> 17,6<br /> 2,4<br /> RTX 4070<br /> 8704<br /> 256<br /> 16<br /> 2,5<br /> 43,52<br /> 279<br /> 317<br /> 775<br /> 17,8<br /> 2,4<br /> RTX 4070 Ti<br /> 9728<br /> 256<br /> 16<br /> 2,5<br /> 48,64<br /> 311<br /> 348<br /> 850<br /> 17,5<br /> 2,4<br /> RTX 4080<br /> 12288<br /> 384<br /> 24<br /> 2,4<br /> 59<br /> 362<br /> 427<br /> 1100<br /> 18,6<br /> 2,6<br /> RTX 4080 Ti<br /> 14336<br /> 384<br /> 24<br /> 2,35<br /> 67,4<br /> 405<br /> 489<br /> 1300<br /> 19,3<br /> 2,7<br /> RTX 4090<br /> 16384<br /> 384<br /> 24<br /> 2,3<br /> 75,4<br /> 444<br /> 552<br /> 1500<br /> 19,9<br /> 2,7<br /> RTX 4090 Ti<br /> 18432<br /> 384<br /> 24<br /> 2,25<br /> 82,9<br /> 478<br /> 615<br /> 1800<br /> 21,7<br /> 2,9<br />
kyosho62
Nicolas_SYMKO:<br /> Ca ne se justifie pas sur la FE, peut être les modèles Customs en cas de fort O/C<br /> Tu peux OC une FE comme une autre, c’est juste le système de refroidissement qui change
Nicolas_SYMKO
En fait il n’y a pas de 4080 Ti donc techniquement il est possible de rajouter une carte dans la gamme entre la 4080 et la 4090.
Nicolas_SYMKO
J’entends bien mais le refroidissement ainsi que les composants de la FE ne permettraient certainement pas d’aller très haut sans que la carte ne baisse d’elle même les fréquences GPU et VRAM. Une FE n’est pas vraiment faite pour l’OC sauf s’il y a vraiment de la marge, ce qui est de moins en moins le cas vu comme les gammes sont déclinées en modèles.
kyosho62
Nicolas_SYMKO:<br /> ainsi que les composants<br /> Ah nan nan c’est les mêmes, il n’y a pas 36 constructeurs de composants.<br /> Et Nvidia pour leurs intérêts, il ne vont s’amuser a mettre des composants de moins bonne qualité.
MattS32
Pas de moins bonne qualité, non. Mais par contre pas forcément dimensionnés pour des overclockings importants.<br /> Alors que sur des custom, tu peux avoir par exemple des mémoires prévues pour des fréquences plus élevées, un étage d’alimentation prévu pour plus de puissances, etc… Et donc au final un potentiel d’overclocking plus important.
kyosho62
Dans l’ensemble, c’est kifkif.<br /> TechPowerUp<br /> NVIDIA GeForce RTX 4070 Founders Edition Review<br /> NVIDIA's GeForce RTX 4070 launches today. In this review we're taking a look at the Founders Edition, which sells at the baseline MSRP of $600. NVIDIA's new FE is a beauty, and its dual-slot design is compact enough to fit into all cases. In terms of...<br /> TechPowerUp<br /> ASUS GeForce RTX 4070 Dual Review<br /> The ASUS RTX 4070 Dual comes at NVIDIA's MSRP of $600, yet offers an improved cooler over the Founders Edition. ASUS even managed to include a dual BIOS feature on their card. With the "quiet" BIOS active, the card is whisper quiet, quieter than any...<br /> MattS32:<br /> Mais par contre pas forcément dimensionnés pour des overclockings importants.<br /> Oui des OC importants qu’on retrouve sur https://hwbot.org/ mais pour monsieur tout le monde, ce n’est pas spécialement important.
Nicolas_SYMKO
C’est ce que je voulais dire, un système de dissipation adapté à supporter plus de consommation, des VRAM peut être capables de grimper encore en fréquence, avec de meilleurs dissipateurs etc.
daerlnaxe
Je ne trouve absolument pas ça normal. Sachant que j’ai commencé avec une 3dfx, c’est dire… l’évolution devient littéralement surréaliste, se payer une 3DFX, peut être qu’au début ça aurait couté la moitié d’un smic, mais certainement pas après quelques mois. La mienne a dû me couter 1 500 francs de mémoire.<br /> En passant le marché PC est en chute libre, il ne faudra pas s’étonner pourquoi si ça s’amplifie.
phoenix2
Si elle était défectueuse elle aurait pas attendu 2 ans avant de clamser !! et 49°c en idle c’est trop, une carte devrait être entre 30° et 40° en idle, au delà c’est de l’obsolescence programmée avec cette temperature, sans oublier qu’elle peut atteindre les 80°c voir 85°c en pleine charge, donc fuyez les cartes qui coupent les ventilos en idle si vous voulez garder votre carte longtemps !!
sebzuki
pas d’accord avec l’affirmation rapport prix imbattable, 900 euros c’est trop cher pour une série 70 quoi qu’on en dise, ça fait quasi deux fois le prix d’une console.
Nicolas_SYMKO
Le marché des cartes graphiques est en baisse, pas le marché du gaming PC qui ne cesse d’augmenter au contraire, il a même progressé en 2022 vs une baisse du marché console Report: PC and console global gaming dipped to $92.3bn in 2022 | GamesIndustry.biz
AtomosF
Qu’est ce que tu racontes ? A 900€ c’est du pigeonnage. Le prix annoncé est de 659€.<br /> « NVIDIA annonce un tarif de 659 euros TTC pour sa RTX 4070 FE »
MattS32
phoenix2:<br /> Si elle était défectueuse elle aurait pas attendu 2 ans avant de clamser !!<br /> Et pourquoi pas ? Tu crois que la garantie légale obligatoire de 2 ans, elle sert à quoi si un produit défectueux claque forcément immédiatement ?<br /> phoenix2:<br /> et 49°c en idle c’est trop<br /> Encore une fois, non. Les composants d’une carte graphique sont conçus pour des températures très largement supérieures hein, plus de 100°C pour certains. Donc non, 50°, ça les fera pas claquer. D’ailleurs, il y en a qui tournent à bien plus que ça et 24h/24 pendant des années (ceux qui minent notamment…).<br /> En fait, c’est même en un certain sens mieux d’avoir une température en idle relativement élevée : les effets de dilatation/rétractation qui n’affectent pas tous les matériaux de la même façon lors des variations de température sont bien plus dommageables que de tourner à 50°C tout le temps…<br /> Sans même parler des ventilos qui s’usent moins et du radiateur qui s’encrasse moins donc perds moins son efficacité avec le temps…<br /> phoenix2:<br /> sans oublier qu’elle peut atteindre les 80°c voir 85°c en pleine charge, donc fuyez les cartes qui coupent les ventilos en idle<br /> Il n’y a pas de lien entre les températures en pleine charge et le fait que la carte coupe les ventilos en idle.
sebzuki
yep pour la founder edition, qui sera en rupture au bout de 4 secondes, les autres seront à 800 balles sur LDLC et companie… on l’a vu 20 fois avant, je doute que ça change maintenant…
louchi
Pas mal ! à voir les 4060 et 4060 Ti aussi pour jouer en 1440p.<br /> Perso je suis plus que satisfait d’avoir changé ma 1060 pour une 3060 Ti d’occasion, pour 300 euros. Aucun bruit (à me demander si les ventilos fonctionnaient) et ne chauffe pas.<br /> J’ai pas tout suivi et pas pris le temps de tout lire, j’avoue: c’est fini le minage avec ces cartes graphiques ? (je sais un peu que le minage est beaucoup moins rentable depuis quelques mois/années, quand même).
phoenix2
Ok, donc pour toi plus il y’a de la chaleur plus c’est mieux, t’est complètement à coté de la plaque, j’ai eu plein de carte c’est la seule a claquer, et la seule qui arrêtait les ventilos en idle, donc c’est du vécu, sinon le lien, c’est que la carte est toujours chaude, donc a plus de chance de se détériorer, faut pas être une lumière pour comprendre ça !!
MattS32
phoenix2:<br /> Ok, donc pour toi plus il y’a de la chaleur plus c’est mieux, t’est complètement à coté de la plaque<br /> Alors d’abord, c’est pas ce que j’ai dit. Ce que j’ai dit, c’est qu’à 50°, la température n’est pas dommageable pour les composants d’une carte graphique.<br /> Ensuite, quand bien même j’aurais dit ça, ça serait pas plus à côté de la plaque que de prétendre qu’un produit défectueux lâche immédiatement. Alors tes mots doux, tu peux te les garder pour toi.<br /> phoenix2:<br /> j’ai eu plein de carte c’est la seule a claquer, et la seule qui arrêtait les ventilos en idle<br /> Et alors ? Ça n’établit en aucun cas un lien de cause à effet… Pour ça faudrait par exemple des stats sur un gros volume montrant que les cartes qui arrêtent leur ventilo en idle ont un taux de panne significativement plus élevé de celui des cartes qui ne l’arrêtent pas…<br /> Sinon avec des raisonnement comme ça, je peux dire que la seule voiture avec laquelle j’ai fait un accident, c’est la seule qui avait des freins tambours à l’arrière. Alors c’est à cause des freins tambours que j’ai fait un accident <br /> phoenix2:<br /> le lien, c’est que la carte est toujours chaude, donc a plus de chance de se détériorer, faut pas être une lumière pour comprendre ça !!<br /> « plus c’est chaud plus ça se détériore », c’est un raisonnement extrêmement simpliste et même fondamentalement faux, car tous les composants ont une plage de température de fonctionnement optimale et se dégradent quand ils sont au-dessus de cette plage, mais aussi quand ils sont en-dessous…<br /> Mais 50°, pour les composants d’une carte graphique, c’est largement dans les plages de fonctionnement optimales, et c’est même plutôt dans le bas de la tranche…<br /> Tiens d’ailleurs, pour éclairer tes lumières, je t’invites par exemple à lire cet article : Quelle Est la Température Optimale Pour Une Carte Graphique ? - GamerTop<br /> Ici ils disent carrément que 50° c’est la température idéale à viser au repos…<br /> Sinon, au risque de te traumatiser, sache que mon GPU ne descend quasiment jamais sous les 40°C (avec le hot spot quasiment toujours à plus de 50°C et idem pour la RAM), mon CPU est presque tout le temps dans les 60-70°C… Et ça fait des années que je fait tourner mes composants dans ces plages de température sans jamais que ça ait posé le moindre problème de durée de vie (ma carte graphique actuelle va sur ses deux ans, mais la précédente en a fait 5 dans les mêmes conditions, et est aujourd’hui toujours en service chez celui à qui je l’ai revendue)… Et mon portable il ventile pas à moins de 70° côté CPU, et ça fait plus de 3 ans qu’il tourne comme ça entre mes mains, sachant que je l’ai en plus récupéré du collègue que j’ai remplacé…
Blackalf
MattS32:<br /> Pour ça faudrait par exemple des stats sur un gros volume montrant que les cartes qui arrêtent leur ventilo en idle ont un taux de panne significativement plus élevé de celui des cartes qui ne l’arrêtent pas…<br /> D’autant plus que si je ne me trompe, la plupart des cartes assez récentes fonctionnent comme ça, ventilos à l’arrêt sous faible charge.<br /> Sinon, une cg à 49° en idle se trouvait probablement dans un boîtier mal ventilé. Ma précédente cg, une R9 280X utilisée pendant plus de 8 ans, a toujours été à 29-30° en idle et elle montait à 80-85° ingame. Vers la fin (début 2023), c’était plutôt 35-90°. ^^
Kaggan
descendre trop bas en température n’est pas bon. Il faut arrêter de chercher la température basse au repos. l’électronique supporte très facilement les 100°C (sauf chez Samsung qui aime bien mettre des condensateurs chimiques 85°C à la place des 105°C mais ça c’est pour les faire cramer rapidement et vendre du nouveau matériel)<br /> Les CPU et GPU sont juste increvable (leurs durée de vies sont supérieur à 10 ans en intensif à 100% d’usage, suffit de voir les serveurs qui tournent à 80-90°C 24h/24). Par contre, quand on achète une carte graphique, on n’achète pas juste un GPU et un système de refroidissement. On achète aussi des condensateurs, des transistors, des portes logiques, des Vram, des modules mémoires, des soudures, des inductances, un design de PCB et j’en passe. Tout ça, c’est plein de pannes possible et plein de poste d’économie pour vendre une carte plus ou moins chère (car le RGB, c’est jolie mais ça coute rien par rapport au reste). C’est là dessus que ton ancienne carte graphique à pété<br /> Pour te donner une idée d’à quel point la température n’a pas un énorme impact (c’est la tension d’alimentation qui a le plus d’impact en dessous de 100°C), j’ai géré des machines dont les PCs étaient en permanence dans du 60-70°C (quand l’environnement est chaud en permanence, comme dans certaines fonderies, on calibre tout dans la chaleur pour être tranquille) et les vieux coucous de 15-20 ans tournaient encore sans problèmes. En soit, si les composants périphériques ne sont pas des premiers prix wish, la température, on s’en fout. On fait beaucoup plus de mal à l’électronique quand on fait de l’overcloacking en augmentant la tension de 0.1-0.2V que quand on fait tourner notre machine à 95°C
bafue
Donc dans Far cry la 4070 est plus performante que la 4070 Ti !!..ok …Magie…<br /> Sinon j’ai payé ma 3080 le même prix il y a 2 ans ,perf pratiquement identique ,belle évolution …Mais belle enculade sa c’est sur !!
Palou
@daerlnaxe<br /> 3DFX Diamond Max : 1200 francs en 97<br /> 3DFX Creative Voodoo2 : 1590 francs en 98
Yoyoking
Heu… Elle se retrouve parfois sous la 3070 FE ? Zeufeuk ?
svenos
GTX970 =350€ GTX1070=415€ RTX2070=450€ RTX3070=520€ puis 550€. RTX4070=650€.<br /> Sinon rapport perf/watt oui, mais pas perf/prix. Y’a des 6800xt moins chère aux même perf. Vous n’avez pas noter l’absence de displayport 2.0 comme un défaut… On trouve même des 6950XT à ce prix… Donc clairement votre note est exagérée. Et 12Gb de ram ça va vite être limitant au rythme auquel l’industrie du jeux vidéo évolue.
sylvio50
@svenos,<br /> Pire encore,<br /> GTX 900 : Pas de GTX 990<br /> GTX 1000 : Pas de GTX 1090<br /> RTX 2000 : Pas de RTX 2090<br /> RTX 3000 : Il y a bien une RTX 3090<br /> RTX 4000 : Il y a bien une RTX 4090, mais la RTX 4070 a 3,15x moins de coeurs que la RTX 4090, ce qui la place mécaniquement dans le bas/milieu de gamme.<br /> En d’autre terme, les cartes tel que la RTX 970/1070/2070/3070 était plus proche du très haut de gamme que de l’entrée de gamme, là où ce n’est plus le cas aujourd’hui avec la RTX 4070.
sylvio50
Néanmoins, la RTX 4070 reste la moins pire de la série des RTX 4000 en terme de rapport performance/prestation/prix. Les cartes AMD reste pire ce qui place cette carte comme l’une des meilleurs alternative malgré tout dans cette gamme de prix.
Nerces
Perf/prix ? Bien sûr qu’il y a des 6800XT moins chères, mais les perfs sont inférieures et la carte est dispo depuis un petit moment donc heureusement je dirais. Pour l’indicateur perf/prix sur le MSRP c’est une des meilleures.<br /> Pour les 12 Go, je n’ai pas de boule de cristal, mais j’ai du mal à croire que les jeux auront besoin de plus de 12 Go en 1440p avant un moment. Sauf des jeux très mal programmés et encore.<br /> Enfin, le DisplayPort 2.0, il te sert à quoi sur ce genre de cartes ? Le 1.4 permet un flux de 32,4 Gbps, autrement dit du Ultra HD à 144 Hz en 8 bits max.
kyosho62
sylvio50:<br /> Pire encore,<br /> GTX 900 : Pas de GTX 990<br /> GTX 1000 : Pas de GTX 1090<br /> RTX 2000 : Pas de RTX 2090<br /> RTX 3000 : Il y a bien une RTX 3090<br /> Si si, Ce sont les GTX Titan et RTX titan renommées en xx90 maintenant.
Nicolas_SYMKO
Bon ca se confirme : beaucoup de cartes custom ont tenté la connectique alimentation avec un cable 8 broche seul. Ca fonctionne mais ca sera peut être un facteur limitant pour ceux qui souhaiteront « jouer » avec les fréquences".
sylvio50
Ah oui, je ne me rappelais plus de ces cartes.
sylvio50
D’ailleurs à ce titre, bizarre que la RTX 4090 soit aussi facilement rentré dans les tests alors que les Titan étaient systématiquement exclu.
svenos
Le perf/prix est très mauvais, même une 3070 ou 3060ti de la gen précédente a un bien meilleur rapport perf/prix, et c’est aussi le cas de la plupart des cartes AMD de gen précédente. 659€ c’est le meilleur prix à laquelle on peut la trouver si on s’acharne. Ca va rapidement se négocier dans les 800. Ce qui sera pratiquement le prix de la RX7900 d’ici là. il y’a vraiment que le ratio perf/watt qui est intéressant sur cette carte, mais ça reste hors de prix pour du milieu de gamme. Le rapport perf/prix est tout simplement mauvais.<br /> La 4070 = 6800xt = 3080 check les autres bench à jour fait sur un panel de jeux plus large et homogène en terme de préférence(chaque jeux se comporte mieux selon AMD ou Nvidia, et pareil pour intel depuis peu). Tout le monde a les même résultats. En 4K elle est même battu par les 3080.<br /> En plus tu parles d’un MSRP qui date de 2ans et demi pour certaines cartes. MSRP dont personne quasiment n’a vu la couleur, vu que le prix était souvent le double. Maintenant on retrouve des prix corrects, et donc oui elle a un mauvais rapport perf/prix même en msrp. Une 6800XT c’est 100€ moins cher pour les même perf.<br /> As tu activer S.A.M et resizable BAR pour tes benchs, et si oui a tu formaté ta partition et réinstallé windows après l’avoir activé?
kyosho62
Comment ne pas se rappeler de la GTX Titan Z à 3000€
Nicolas_SYMKO
La Founder’s Edition est une version prix plancher mais aussi une bonne carte bien conçue. Pas mal de Custom feront moins bien niveau températures et bruit que cette carte ; et de ce fait, le potentiel OC.
Palou
svenos:<br /> ça va vite être limitant au rythme auquel l’industrie du jeux vidéo évolue.<br /> Pour jouer au Solitaire ? ça suffit. La majorité des joueurs ne jouent pas aux jeux les plus compliqués sauf sur console moins bien chère
Feunoir
Un petit tour sur materiel.net (prix arrondi )<br /> Asus GeForce RTX 4070 DUAL : 660€<br /> Asus GeForce RTX 4070 DUAL OC : 680€<br /> Gainward GeForce RTX 4070 Ghost : 640€<br /> Gigabyte GeForce RTX 4070 WINDFORCE OC : 660€<br /> MSI GeForce RTX 4070 VENTUS 3X 12G OC : 660€<br /> PNY GeForce RTX 4070 VERTO : 660€<br /> Prix le plus haut<br /> Asus GeForce RTX 4070 TUF OC : 930€
AtomosF
Faux. Comme tu peux le voir il y a un stock sur tous les sites de 640€ à 660€.
sylvio50
svenos:<br /> Le perf/prix est très mauvais …<br /> Le problème vient de l’intégration ou non des technologies tel que le RayTracing ou encore le DLSS.<br /> En rasterisation sans DLSS, la RX 6800 XT est effectivement très légèrement meilleur (590 € pour des perfs égales vs 640 € pour la moins cher des RTX 4070).<br /> En intégrant :<br /> consommation<br /> DLSS 3<br /> Ray Tracing<br /> Ce n’est plus le cas.
sylvio50
Après, il est clair qu’il n’est pas très normal qu’une carte qui exploite le TMSC N4 est un rapport perf/prix en rasterisation équivalent au plus vieux TSMC N7 de chez AMD datant de 2 ans et demi.<br /> La RTX 4070 (RTX 4060 ?) aurait dû être significativement moins cher ou beaucoup plus perf.
Wifi93
Si c’est juste pour dire j’ai la dernière génération dans ma babasse, autant se payer une carte plus performante genre 3080TI ou 3090.
Feunoir
Un test de la carte la plus chere de ma liste au dessus<br /> -Test ASUS GeForce RTX 4070 TUF Gaming OC : l'alliance est au rendez-vous ! : Far Cry 6 (RT), page 10<br /> Elle est au coude a coude avec la Nvidia FE<br /> un petit test d’une dual fan donc plus petite qui m’intéressait éventuellement si upgrade du pc de ma sœur ASUS GeForce RTX 4070 Dual Review | TechPowerUp<br /> Pareil , coude a coude avec la FE<br /> On voit que la 4070 ghost de la liste semble être la pire coté refroidissement, les 20€ de moins sont probablement trop cher payé
svenos
Sauf que<br /> Raytracing = impact de perf plus important que de passer de 1080p à 4K. Donc autant activer le DSR x4.0 (avec lissage 5% ) dans les paramètre nvidia ou son équivalent AMD plus net… Même en upscale la 4K reste beaucoup plus belle que n’importe quel effet de reflet, et tourne mieux.<br /> DLSS: dégradation laborieuse d’image sous sédatif= ghosting, bug de texture, flou, input non réactif, tout ça pour pouvoir faire tourner le RT.<br /> Ces deux tech sont par nature schizophréniques. C’est un faux argument en faveur de Nvidia qui cherche à emmener les consommateurs et AMD dans une course absurde, alors que leurs carte pèchent en rasterization et que 90% des joueurs et cartes ne peuvent pas faire tourner le RT en natif.<br /> La 4K upscalée si possible (sans DLSS ou FSR) sera toujours préférable au RT et plus fluide.<br /> Pour du RT sans DLSS en 1440p ou 4k autant oublier la 4070 tout de suite. Même la 4090 n’est pas assez fluide sous cyberpunk ou ms flight 2020…<br /> La resterization n’est tout simplement pas suffisante pour le RT à l’heure actuelle.<br /> Quand on voit par exemple les 8GB d’une 3070 ne permettent même pas de mettre les textures au max en 1080P sans cracher sur Resident Evil 4 ou qui saturent totalement sur Hogwart Legacy ou calisto protocol, qui ne sont pourtant pas les jeux les plus beau du moment… Et en 1440p , résolution pour laquelle elle était censée tourner (et encore elle était égale à la 2080ti qui était une carte 4k), et elle plombée par ses 8Go sur la plupart des jeux récents.<br /> Quand l’UE5 va débouler, ça va faire très très mal. Y’a qu’à voir les perf d’une 3080 sur une simple démo. Donc les 12go de ram sont aussi un point faible, même si pour l’heure suffisant. Tout va très vite depuis 5 ans, même si parait il les ventes sont en chutes libres.<br /> En revanche le rapport perf/watt est imbattable pour l’instant, car les équivalent AMD ne sont pas sortis, et on ne peut que comparer avec la gen précédente qui battait l’équivalence nvidia sur ce point.
sebzuki
yes bonne nouvelle, pour les gens avec des cartes en 2xxx les autres n’ont aucun intérêt à changer à ce prix là, car les perfs de cette carte ne suivent pas… la 4070Ti est à 900€<br /> la founder est en rupture, et la carte à 630 euros c’est du palit… non merci
ygloo_one
Imbattable? Rien ne le démontre dans l’article. C’est même presque ridicule. Mais c’est clubic… Une remise de 1% est une chute vertigineuse de prix !<br /> DLSS 1 et 2 : Il était utile car le passage de 1K/FullHD à 4K est la plus grosse marche jamais vue. C’est dû à l’adoption de cette dernière dans les télés et donc une plus grosse production et coût plus favorable aux rares 2K. Je joue en 4K depuis la 1070, en baissant quelques paramètres peu utiles pour cette résolution et pour la taille des dalles utilisées. Tout ne passait pas, mais la 2080 est déjà plus régulière.<br /> Le RT est intéressant visuellement même si à ce jour ce n’est pas une révolution pour le gameplay. Mais de fait RT+DLSS2 vont pour l’instant bien ensemble, tant que la puissance de calcul RT est ‹ insuffisante ›.<br /> DLSS 3 : C’est un peu l’arnaque le retour. Presqu’aucun testeur actuel n’émet même un simple interrogation alors qu’il y a qqs années tous l’ont dénoncé et les benchmarks avaient été modifiés pour le détecter et ne pas compter les fausses images. Ils ne sont pas aux ordres, ils le font naturellement… Cette techno est disponible sur les télés 4K depuis. Y a pas de quoi s’extasier. Même dans ce contexte non temps réel, il est conseillé de ne pas activer toutes ces améliorations car elles font souvent plus de mal que de bien.<br /> Sinon, Nvidia semble vouloir marquer une gamme 1K / 2K / 4K. Quel intérêt de jouer en FullHD avec une 4090. Et comme beaucoup de joueurs sont en FullHD, pourquoi vouloir que toutes les cartes fonctionnent en 4K ? La segmentation est donc logique actuellement.<br /> Au point de castrer intentionnellement les 4070TI et 7900XT en 4K sur un détail. C’est là où s’extasier sur les perfs en 1080p en 2023 devient gonflant. On joue en 1080 depuis… je ne me souviens plus tellement c’est loin. 2007?<br /> Imbattable? Plutôt décevant.<br /> Comme en 4K elle est derrière la 3080. Une moins que 3080 pour moins que le prix d’une 3080 il y a presque 3 ans. Le titre respire l’extasieur précoce…<br /> Pour la conso, je downclock régulièrement car la puissance n’est pas souvent utile, donc bon… Il est probable que nVidia n’ai pas poussé sa nouvelle génération. Il y a pas le feu à la concurrence.<br /> C’est tellement facile qu’ils se sont concentrés sur le futile, le marketing, une gamme à 10 niveaux plutôt que 5. Tout cela pour oser demander un prix x2, que les testeurs valident sans sourciller. La 4090 montre d’ailleurs d’autres choses qu’ils n’ont pas fait pour les autres…<br /> Les caractéristiques des rtx 5000 seront peut-être quasi les mêmes… Le DLSS4 insèrera deux fausses images et les prix seront x3. Et si les testeurs valident encore les rtx 6000 en mettront 3, prix x4. etc… Seules les x090 monteront en perf pour suggérer des perfs sur les autres, qu’elles n’auront pas.
MisterG55
un prix est toujours battable… j’espere qu’ils en vendront un minimum,<br /> un petit coup de karma dans la tronche à nvidia et leurs actionnaires ne ferait pas de mal.
rsebas3620
j’ai payé ma 970 gtx 449 euro a sa sortie en 2014 si on compte l’inflation en comptant bien sur la derniere en cours on arrive a 539 euro donc elle est encore trop chere de 100 euro… a titre juste comparatif avec la 970 gtx… mais comme tout les produits technologique une montée des prix a ete mis en place et ce partout… sans prendre en compte le fait que les gens n’ont pas eu cette augmentation de train de vie… j’estime que 9/10 est trop haut mais 8/10 serait mieux du fait qu’elle est encore un peu trop chere malgré ses bonnes perfs
rsebas3620
on peut trouve la 4070 ti tuf a 979 euro donc autant prendre une ti
Yoyoking
Ce prix devrait être appliqué à la 4080, ils en vendraient des tas.
Cleindori
Je pige pas, tous les tests/YT hardware disent qu’elle n’en vaut pas la peine, et ici 9/10 ?
kyosho62
Cleindori:<br /> Je pige pas, tous les tests/YT hardware disent qu’elle n’en vaut pas la peine, et ici 9/10 ?<br /> 20 ans d’exp VS youtuber random<br /> C’est pourtant facile a comprendre <br /> « 9/10 » sur Tomshardware<br /> « Coup de coeur » sur Cowcotland<br /> « Recommanded » sur Guru3D<br /> « Must have Editor Choice » sur Tweaktown<br /> « Editor Choice » sur Techpowerup
Cleindori
Je fais davantage à titre personnel confiance à des techniciens qui montent des configs complètes et suivent le marché au plus près sur les communautés gamers que je suis depuis 20 ans (les sections Labo de JOL et Harware de CPC par exemple), qu’à des journalistes, même si j’avoue que Nerces est une quasi exception à cette règle.<br /> Du reste, tous les YT ne sont pas à jeter, malgré tout le mal que j’en pense, comme Digital Foundry ou bien sûr en plus « affriolant », Gamers Nexus.
svenos
Pourtant dans tout ces test que tu cites, ils montrent bien que le rapport perf prix est mauvais. Sont ils tous vendu? Car ils recommandent aussi pour la plupart une AMD soit moins chère, soit plus puissante. La seule perf qu’on peut saluer, est la consommation énergetique.<br /> Elle s’en tire bien en 1080p et en cas de CPU limited. M’enfin qui va mettre 660€ pour du 1080p… Dire qu’il y’a un peu plus de 10 ans on s’en tirait pour 150€/200€…<br /> Mais en cas de cpu limit généralement les gen RX 6000 d’AMD se comportent mieux.<br /> Beaucoup ignore que leur cpu ne peut pas encaisser plus qu’une certaine carte. Par exemple un 5600X n’est optimal qu’avec une 3060ti ou une 3070 à la rigueur (mais il y’aura quand même un déficit de perf). Alors que ce même cpu fonctionnera mieux avec une 6700XT ou une 6800… Mais le surcout au dessus de ce genre de gamme n’est généralement pas justifié pour l’apport quasi nul en performance.<br /> Donc en gros pour s’offrir une 4070, ou au delà il faut déjà avoir au minimum un 13600K, 5800XD ou plus récent et/ou plus performant pour en avoir un bénéfice.<br /> Sans quoi la plupart des cartes vendu au dessus de 500€, même une 4090 auront tout simplement les perfs d’une carte à 500€. C’est le goulet d’étranglement CPU/GPU qui compte lors de l’assemblement d’une config optimale et dans ce cas il vaut mieux mettre 40€ de plus dans la ram sur un kit optimal et fiable aux bonnes fréquences que 150 ou 400€ de plus dans la carte graphique, car pour le coup le bénéfice sera réel et non pas perdu.<br /> Le nombre de gens qui dépensent 2000€ dans un pc qui a les perfs d’un pc à 1200€… Et 1200 c’est déjà beaucoup trop cher. Faire un pc gaming qui fait tout tourner en high à 550€ n’est plus possible, et c’est bien triste cette montée des prix.
Nerces
Ce n’est que mon avis, mais je reste persuadé que c’est une très bonne carte, après 8/10 ou 9/10, je n’irai pas chipoter. Elle est conçue pour le 1 440p avec de nombreux effets graphiques et dans ce contexte, elle me semble bien plus efficace qu’une 6700XT, d’ailleurs, elle est plutôt au coude à coude avec la 6900XT.<br /> Maintenant se dire que NVIDIA aurait dû en réduire le prix en se référant aux générations précédentes n’est pas du tout idiot. Reste que le problème de l’inflation sur l’électronique n’est pas spécifique à NVIDIA. Il est d’ailleurs amusant qu’AMD joue du prix pour essayer de répondre à NVIDIA sur les GPU alors que, dans le même temps sur les CPU, c’est Intel qui se montre plus agressif côté tarifs pour essayer de répondre à AMD.<br /> De toute façon, il ne faut pas se leurrer aucune de ces sociétés n’a notre petit bonheur à l’esprit.
Nerces
D’ailleurs, j’y pense : plutôt que d’opposer AMD et NVIDIA, j’aurais tendance à les mettre dans le même sac. Je trouve de plus en plus gênant le prix des cartes graphiques alors que pour 500€, on a une PS5, soit un système complet et globalement plutôt bien optimisé. Quand on voit trois des plus grosses sorties PC de ce début d’année (Forspoken, Hogwart’s Legacy et Last of Us Part 1), ça fait peur
Cleindori
Parce que, comme avec l’avènement du SSD, les devs s’en balec de l’opti : l’actualité gaming étant obnubilée par le dernier proc et la dernière CG à la mode, ils semblent penser que les gamers suivent la tendance. Sauf que visiblement ils n’ont jamais entendu parler des stats matérielles de Steam…<br /> Par contre ils ne se balec plus comme il y a un certain temps du marché PC, qui semble être plus vigoureux que jamais.
gallean
hogwart’s legacy, pour l’avoir vu tourner sur pc et sur ps5, perso je reste sur pc…sur ps5 j’ai eu une impression de flou, ok c’était fluide mais c’était pas joli à regarder
Ccts
Je rejoins les commentaires sur l’effet de gamme. Le marketing roi est passé par la avec énormément de gammes et un saut de prix bien trop élevé à chaque marche. Mais ces gammes existent pour écouler plus facilement des gpu avec défaut dans les gammes inférieures. Je pense que comme à chaque lancement les prix sont surestimés. Il va falloir que amd sorte les crocs et quelques nouvelles cartes pour que nvidia baisse les prix… un peu. Faudra pas s’attendre à des miracles mais on gagnera ptet 50-100 euros.
Jona-85
Peut être le flou de mouvement que l’ont peut désactiver dans les options du jeu comme sur pc.
iroteph
Je serais curieux de savoir ou se caserait une 6800XT dans ces test, car il est possible d’en trouver entre 550 et 580€ neuve en cherchant bien…
sylvio50
1440p sans DLSS, ni Ray Tracing<br /> source : NVIDIA GeForce RTX 4070 Founders Edition Review - Relative Performance | TechPowerUp<br /> source : NVIDIA GeForce RTX 4070 Founders Edition Review - Ray Tracing &amp; DLSS | TechPowerUp
sylvio50
Nerces:<br /> … elle me semble bien plus efficace qu’une 6700XT …<br /> La RX 6700 XT est disponible à partir de 395 €. C’est pas la même gamme de prix.
Nerces
Tout à fait, mais c’était pour donner une référence AMD sur laquelle il n’y avait pas de discussion. À mon sens, elle déborde aussi assez nettement la 6800 et la 6800XT.
iroteph
Je viens de regarder les résultats en 4k qui correspondent à ma défintion, la 6800XT est souvent devant la 4070 en rastérisation, le ray tracing ne m’intéresse pas, du coup ce serait une bonne affaire entre 450 et 500€… on va attendre la sortie du milieu de gamme rx 7000 pour voir si le tarif des anciennes gen bouge un peu.
Blackalf
iroteph:<br /> Je serais curieux de savoir ou se caserait une 6800XT dans ces test, car il est possible d’en trouver entre 550 et 580€ neuve en cherchant bien…<br /> Même en cherchant bien sur de nombreux sites, je n’en ai trouvé nulle part à ce prix.
iroteph
https://www.cdiscount.com/informatique/cartes-graphiques/carte-graphique-sapphire-rx-6800-xt-gaming-oc-16gb/f-10767-amd4895106289949.html?idOffre=-1&amp;awc=6948_1681674290_318d42a59681c815d78ee99cf9c23225&amp;cid=affil&amp;cm_mmc=zanoxpb-_-269861<br /> C’est pas mal mais encore un poil cher de mon point de vu…
Blackalf
Ha, Cdiscount, c’est un de ces sites sur lesquels tous mes moyens de paiement sont refusés, même cas sur Rueducommerce et TopAchat, peut-être parce que je suis en Belgique. <br /> J’arrive toujours à payer par Visa, Paypal ou carte de débit sur les sites belges, allemands ou néerlandais. Par contre j’ai des problèmes sur pas mal de sites français (à l’exception de Amazon.fr). <br /> Sinon, j’ai trouvé récemment une Sapphire RX 6750 XT pour 550 € sur un site belge, suffisante pour jouer en 1080p, et c’est une Nitro+, mieux refroidie et plus silencieuse que la Pulse. ^^
sylvio50
Blackalf:<br /> Par contre j’ai des problèmes sur pas mal de sites français<br /> Au crédit mutuel, j’ai une option (activable/désactivable) qui m’empêche d’acheter à l’étranger. Je suppose que c’est une sécurité. Une fois, j’ai essayé de l’activé et j’ai pas pu payer sur Amazon (ou un site équivalent je sais plus).
sylvio50
@ iroteph,<br /> Autant prendre la RTX 4070 FE.<br /> Même perf (y compris en 4K), consomme moins, Ray Tracing, DLSS 3.
iroteph
Attention c’est une 6800XT mon lien, pas une 6750XT pour ce tarif…<br /> J’ai déjà eu des pulse dans le passé dont une 5600XT oc et il n’y a jamais eu de problème de chauffe, les températures étaient plutôt contenues contrairement aux asus milieux de gamme…<br /> @sylvio50, je préfère rester chez amd pour profiter de la synergie de la plateforme am4 avec par exemple le sam…
StephaneGotcha
Disons qu’à 550€ ça serait une sacrée bonne carte et je me serais peut être laissé tenté …<br /> Mais entre temps j’ai acheté une PS5 qui, quoi qu’on en dise, balance du lourd en (fausse) 4k. GOW Ragnarok et Horizon 2 en tete.
Blackalf
iroteph:<br /> Attention c’est une 6800XT mon lien, pas une 6750XT pour ce tarif…<br /> J’avais vu. <br /> iroteph:<br /> J’ai déjà eu des pulse dans le passé dont une 5600XT oc et il n’y a jamais eu de problème de chauffe,<br /> Normal, pour une 5600, mais la 6750 ayant des fréquences de fonctionnement beaucoup plus agressives, j’ai préféré un refroidisseur haut de gamme. ^^<br /> iroteph:<br /> @sylvio50, je préfère rester chez amd pour profiter de la synergie de la plateforme am4 avec par exemple le sam…<br /> Attention que le SAM ne fonctionne qu’avec un combo minimum RX 6***-Ryzen 5***.
Kam7r
en clair la 6950xt est moins cher et plus puissante… et ça ca vaut 9/10 ?
Palou
et elle est aussi en fin de vie (et vendue dès le départ autour de 1100-1200$, pas la même catégorie)
falcon007
Attention au CPU limited. Je viens d’acheter la carte (pny vortex 4070) et il faut que le CPU suive ! même en FHD, je suis loin des scores de Clubic !<br /> par ex sur Forza 5 : FHD extreme (Compliqué de tester en 2K / 4K)<br /> i3 9100F : 95 fps<br /> Ryzen 3600 : 110 fps<br /> I5 11400F : 118 fps<br /> Sur Grid Legend<br /> i3 9100F : 92 fps<br /> Ryzen 3600 : 117 fps<br /> I5 11400F : 133 fps<br /> Et sur far Cry 6 je dois avoir un pb car la 3060ti fait 74 fps et la 4070 78…<br /> Je ferai la 2K demain
Feunoir
Pour farcry 6 les jeux ubisoft sont exigeants coté cpu, et encore AC valhalla a progressé de coté là par rapport à AC odyssey, le 6700K que j’avais à l’époque avait plus de mal sur odyssey en centre ville. J’ai pas encore lancé farcry6 faudrait que je change de moniteur
Nicolas_SYMKO
Sauf que la 6950 XT consomme 2x plus d’énergie et oblige donc à avoir un système de dissipation de compétition.
Nicolas_SYMKO
Déjà une PS5 c’est 550 EUR, ensuite les soucis de Forspoken, Hogwart’s et Last of Us - des portages Playstation donc - viennent du fait que les studios ne savent pas porter des jeux sur PC. Ce n’est pas la même API (DirectX), la mémoire n’est pas unifiée entre GPU et CPU et ils ne trouvent rien de mieux que de balancer des textures ultra lourdes en 4k sans avoir une routine dans le paramétrage qui prévient que ça va poser problème. Pourtant je me souviens du vieux GTA 4 qui soulignait en rouge les risque de dépassements de VRAM quand on sélectionnait des options trop gourmandes en textures.<br /> D’autant plus dommageable que bien souvent la distinction entre des réglages ultra et medium est imperceptible en jeu alors que l’impact est énorme en FPS. Mais les testeurs ne se basent que sur le framerate sans faire attention au rendu visuel et aux sensations. Dans ce cas, autant remplacer le testeur par une IA si un test ne revient qu’à faire des relevés de FPS…<br /> Je ne comprends pas trop ce dépit qui consiste à dire qu’un PC est un gouffre à pognon vs une console à 550 EUR…une carte graphique à 300 EUR permet de faire tourner aussi bien sur PC un jeu que sur console pourvu que l’on ajuste les options graphiques.
Nicolas_SYMKO
Ce qu’on appelle optimisation sur console c’est bien souvent avant tout qu’ils rognent sur les options, le FOV etc…sur PC à rendu visuel égal, même s’il faut parfois plusieurs mises à jour, on finit par avoir un résultat souvent équivalent, d’autant que les jeux consoles qui sortent systématiquement optimisés, c’est désormais loin d’être la norme.
Feunoir
Faut aussi dire que sur pc on en a beaucoup qui ont un problème psychologique avec le ultra. C’est pas normal que cela ne tourne pas sur leur pc tout a fond<br /> Un Crysis ou the witcher 2 avec les options en ultra cela tuait les pc de l’époque : au feu les programmeurs<br /> Pour moi c’est le chemin normal si (et seulement si) les graphismes nous éclatent la rétine pour ce prix<br /> Doom eternal : 340FPS en full hd, 150 en 4K, pour la 4070, ouah trop bien la programmation. Quel gâchis pour moi, qu’est qu’on aurait eu comme graphisme avec un 140/60?<br /> Il y a que les « c’est moche mais c’est gourmand » ou l’on peut quand même discuter de l’optimisation, du cela n’en vaut pas le prix de cette gourmandise. Mais pour moi le mode ultra doit être pensé pour le moyen gamme de dans 3 ans donc normal qu’il fasse mal
gallean
toutafay, et les 90 sont le remplaçant des titan des gtx…
sylvio50
nrik_1584:<br /> Perso j’ai tendance à découper leur gammes comme ça :<br /> xx50 - xx60 : entrée de gamme<br /> xx70 : moyenne gamme<br /> xx80 : haut de gamme<br /> xx90 : luxe.<br /> RTX 3070 vs RTX 4070728×364 21.7 KB<br /> Pour le visuel, j’ai fait un petit croquis pour illustré la position de la RTX 4070 par rapport à la RTX 3070 en prenant le même écart du nombre de coeurs.<br /> En gros :<br /> Plus grosse carte (RTX 3090 Ti) =&gt; 10752 coeurs<br /> Plus petite carte (RTX 3050) =&gt; 2560 coeurs<br /> Ratio 10752 / 2560 = 4,2<br /> __<br /> Plus grosse carte (RTX 4090 Ti) =&gt; 18432 coeurs<br /> Plus petite carte (« RTX 4050 » : 18432/4,2 = 4608 coeurs) =&gt; 4608 coeurs<br /> On voit mieux la position réel de cette carte dans la gamme par rapport à la série RTX 3000. On est berné par la dénomination qui est trompeuse (et également par l’extension vers le bas de l’entrée de gamme puisque la RTX 4050 devrait avoir 2560 coeurs au lieu de 4608 coeurs si l’écart de gamme était resté le même que pour la série RTX 3000).
Kam7r
la 6950xt est a 684€ sur amazon, un peu osef du MSRP, tout ce qui compte c’est le street price… c’est ça qu’on paie a la fin…
Kam7r
son « système de dissipation » lui suffit trés bien… aprés, si les gens ont un boitier « cocotte minute » lâ, gros TDP ou pas , ils auront des problèmes… pour la conso, je part du principe que si tu veux être « green », de base, tu prend pas un PC gaming…
Kiri6
je me rends compte que je suis toujours bien avec ma 1080 Ti aorus
Kaggan
659€ ? C’est 741 € quand on clic sur le lien, soit 100€ de plus.
sebzuki
En réalité non : des chiffres ici : NVIDIA Reportedly Limiting Production of GeForce RTX 4070 GPUs Due To Poor Sales<br /> La preuve c est que nvidia ralentit la fabrication !<br /> Cette carte n offre pas de plus value de perf pour un tarif bien supérieur, il faut toujours comparer avec les précédentes gen, dire que cette carte a un bon rapport qualité prix c’est faux de ouf
Nicolas_SYMKO
C’est vraiment bizarre de dire que la carte a un mauvais rapport qualité prix car en l’état elle n’a pas de concurrence hors la 6800 XT qui est juste 60 balles moins chère, est un peu moins performante et consomme plus. Donc qu’elle ne convienne pas, admettons, mais l’absence de concurrence actuelle sur son créneau ne justifie pas de baisser le prix. La 4070 Ti qui est plus perf est 300 voire 350 EUR plus chère et la 4080 est deux fois plus chère. Or, la 4070 dans le positionnement que lui donne Nvidia (1440 easy) tient ses promesses. La 3060 Ti c’est 33% de perf en moins (en moyenne) en 1440p pour à peine 100 EUR de moins. La 3070 Ti est au même prix et fait moins bien ! Tandis que tout le monde encense la 6950 XT qui fait 10% de perf en plus avec conso x2 et au moins 50 EUR de plus (hors modèle XFX)…
svenos
La 3060ti MSRP c’était 420€, donc 240€ moins cher que la 4070. La 3060ti a donc un meilleur ratio perf/prix si on s’en réfère à l’article.<br /> D’autant que c’est le max qu’un CPU mid tier pourra gérer optimalement. jusqu’au 5600X/12600K. Si tu prend au delà d’une 3070, il y’aura un CPU bottleneck et de la perte de perf qui peuvent même occasionner du stuttering (micro saccade), et la carte graphique ne sera pas exploité à fond.<br /> Donc en gros si tu as un cpu mid budget , que tu mèttes 400€ ou 2000€ dans ta carte graphique, tu auras plus ou moins les même performance.<br /> Autant optimiser le truc en rajoutant par exemple 30/70€ de plus dans le budget ram pour un bon kit, avec lequel tu vas gagner 10/25% de perf.<br /> Et là éventuellement tu pourras aller chercher un peu plus haut, style 3070, 6700XT/6750XT ou future 4060ti, mais pas plus. Au delà des 500€ tout ce que tu pourras rajouter pour la carte graphique sera de l’argent gaspillée.<br /> Il faut minimum un CPU style 7700/7700X ou plus puissant pour exploiter correctement une carte « mid tier » comme la 4070. Et à ce moment là je pense que ce n’est pas le bon choix, autant partir sur une 4070ti ou plus haut.
AtomosF
Intéressant, elle fait jeu égale avec la 3080, et même si l’écart se creusera avec le DLSS3, j’ai bon espoir que le FSR3 (qui est open source) puisse redonner un coup de boost aux RTX3000 abandonnées volontairement par Nvidia.
sylvio50
Cette article est intéressant. Merci.
sylvio50
D’un autre coté, qu’apporte la RTX 4070 par rapport à l’ancienne RX 6800 XT / RTX 3080 ? Les gens changent lorsqu’il y a un bon en avant au niveau rapport perf/prix (doublement des performances pour un prix 20% plus élevé par exemple).
AtomosF
Le DLSS3, et 30% de conso en moins environ (300W pour la 3080 vs 200W pour la 4070). Je me tâte à prendre une 3080 d’occaz à la place… Car la future 4060TI sera au même prix, mais ils vont lui cloquer 8 Go de VRAM avec un bus bien bridé.
sylvio50
A mon avis, 450/500 € la RTX 3080 d’occasion, c’est correcte, mais au dessus, ça commence à faire cher.<br /> La RTX 4060 Ti sera probablement à 499 € en France et aura des perfs très légèrement inférieur à la RTX 3070 avec la même quantité de VRAM.<br /> La RTX 4060 Ti va se retrouver en face des RTX 3070 8 Go et RX 6800 16 Go (non XT). La RX 6800 16 Go est parfois disponible à partir de 500 € (mais difficilement trouvable).<br /> La RTX 4070 n’est pas un mauvais choix en soi, c’est juste que comme il n’y a pas de concurrence, Nvidia abuse de sa position dominante sur le TSMC N4 et vendent leur GPU au même rapport perf/prix que les « vieux GPU » sortis il y a 2 ans. Mais comme tu le dis, le RTX 4070 a le DLSS3 et consomme beaucoup moins que les GPU en Samsung N8/TSMC N7.
sebzuki
En effet, je comprends ton com, mais c’est pas le prix dans l’absolu qu’il faut regarder, mais celui par rapport à la segmentation, c’est trop cher pour ce que ça apporte par rapport à la génération précédente, et pour plus cher en plus ! Alors qu’en principe ça doit être le même prix <br /> Donc autant acheter la gen d’avant ou attendre celle d’apres
Patpat
je pense qu’elle est intéressante pour les personnes n’ayant pas une RTX série 3000 et qui ont encore une GTX ou une Série 2000. Moi elle m’intéresse car ca va être facile de l’échanger avec mon ancienne( une 2070). Même taille, 8 pin (pour le modèle que j’ai choisi) et une conso qui va pas s’envoler…
Voir tous les messages sur le forum
Haut de page

Les derniers tests

Carte graphique : tous les derniers tests