Test NVIDIA GeForce RTX 4080 Founders Edition : la nouvelle reine du jeu en 4K

Colin Golberg
Tech Chief Editor
16 novembre 2022 à 09h44
66
rtx 4080

NVIDIA a dévoilé le haut de gamme des cartes graphiques de la série 40, sous l'architecture "Ada Lovelace". Après la monstrueuse GeForce RTX 4090, vitrine technologique destinée aux joueurs les plus exigeants (et fortunés) voire aux professionnels, il est temps de tester la GeForce RTX 4080 Founders Edition, supposée nouvelle reine du jeu en 4K.

NVIDIA GeForce RTX 4080
  • Performances excellentes
  • DLSS3 très efficace
  • Ventilation silencieuse même dans un boitier moyen tour
  • Design réussi
  • La taille imposante (triple-slot)
  • Le prix

Si NVIDIA a ouvert le bal avec la GeForce RTX 4090, deux modèles de RTX 4080 ont également été annoncés lors de l'événement GeForce Beyond. L'un devait embarquer 16 Go de mémoire, et l'autre 12 Go. Depuis, la marque a fait machine arrière et a tout bonnement annulé le modèle 12 Go, probablement pour simplifier la gamme, et l'on peut imaginer que NVIDIA renommera ce modèle en RTX 4070 Ti. Entre-temps, AMD a annoncé ses Radeon RDNA3, dont la RX 7900 XTX qui devrait venir concurrencer notre star du jour.

Fiche technique NVIDIA GeForce RTX 4080

Performances

Fréquence de base
2,21GHz
Fréquence Boost
2,5GHz
Processeurs de flux
9728
Mémoire vidéo
16Go
Interface mémoire
256-bit
Type de mémoire
GDDR6X
Consommation
320W

Affichage

Technologie(s) d'affichage compatible(s)
G-Sync
VR Ready
Oui
VirtualLink
Non
Définition d'affichage maximale
7680 x 4320 pixels

Connectivité

Sorties vidéo
DisplayPort (x3), HDMI 2.1
Connecteur(s) d'alimentation
PCI Express 8 Broches
Bus
PCI Express 4.0 16x

Caractéristiques physiques

Longueur
304mm
Largeur
137mm
Epaisseur
61mm
LED
LED RGB
Type de refroidissement
Actif (fansink)
NVIDIA GeForce RTX 4090 FE © NVIDIA
La famille actuelle du très haut de gamme © NVIDIA

Nous ne reviendrons pas ici sur l'architecture Ada Lovelace que nous avons déjà exploré en détail lors du test de la GeForce RTX 4090. Si vous souhaitez en savoir plus sur les nouveautés matérielles et logicielles, nous vous invitons à consulter le test de Nerces.

specs 4080
Fiches techniques comparées des RTX 3080 Ti et RTX 4080 © NVIDIA

Si l'on compare les GPU, l'AD103 (4080) totalise « seulement » 9 728 cœurs CUDA contre 10 240 sur le GA102-225 (3080 Ti). Il est aussi question de 76 streaming multiprocessors contre 80, de 76 cœurs RT contre 80 et de 304 cœurs Tensor contre 320. Côté mémoire, la capacité, l’interface et la fréquence évoluent. La capacité passe de 12 à 16 Go sur la RTX 4080, l'interface de 384 à 256-bit et la fréquence de 9 500 à 11 200 Mhz. Le GPU profite d’une fréquence de boost largement améliorée, 2 505 MHz contre 1 665 MHz, grâce à la finesse de gravure réduite. Si certains chiffres sont revus à la baisse sur cette GeForce RTX 4080, le nombre de transistors explose, passant de 28,3 milliards sur la RTX 3080 Ti à 45,9 milliards sur la RTX 4080.

RTX 4080 : la Founders Edition dans le détail

Vous n’êtes pas sans savoir que NVIDIA compte sur de nombreux partenaires pour produire des cartes graphiques RTX 4080 en plus du modèle Founders Edition que nous testons. Ces modèles « partenaires » présentent un design nettement différent et souvent plus volumineux que la carte NVIDIA avec une triple ventilation qui doit permettre de pousser un peu les fréquences de fonctionnement du GPU.

Dans le cas de la Founders Edition, on se trouve en présence d’un design très proche de celui des GeForce RTX 4090 FE et RTX 3090 Ti FE. NVIDIA a opté pour un design triple-slot, alors que les RTX 3080 et 3080 Ti étaient en double-slot. Un changement majeur qui limitera les amateurs de configurations compactes. Cela dit, la carte n'a posé aucun problème dans un boitier moyen tour, et l'augmentation de la taille du système de refroidissement s'accompagne d'une chauffe contenue et de nuisances sonores quasiment inexistantes.

4080 3080
La RTX 4080 est beaucoup plus imposante que la RTX 3080 © Colin Golberg

Un carénage au style très épuré vient masquer l’imposant dissipateur, lequel est conçu autour d’un assemblage de caloducs et d’une chambre de vapeur. Ces deux éléments viennent « extraire » la chaleur émise par le GPU pour la conduire vers les multiples ailettes du bloc de dissipation.

rtx 4080
l'AD 103 et son PCB à poil
rtx 4080
rtx 4080
rtx 4080
rtx 4080
rtx 4080

Notre GeForce RTX 4080 Founders Edition sous toutes les coutures © Colin Golberg

NVIDIA souligne que malgré la proximité apparente du design, son dissipateur a été retravaillé afin d’accentuer son efficacité. Il précise surtout que de nouveaux ventilateurs ont été mis en place : plus grands, exploitant des roulements dits « fluid dynamic » et placés en rotation inversée, ils doivent produire un flux plus important tout en réduisant les nuisances sonores. Pour le même niveau de bruit, NVIDIA évoque un flux 15% plus efficace.

La Geforce RTX 4080 FE sera disponible le 16 novembre 2022 pour la modique somme de 1 469 €.

Protocole de test

Afin de faire honneur aux cartes graphiques de nouvelle génération, nous avons largement revu notre protocole de test. Bien sûr, la base reste la même en ce sens qu’il ne nous semblait pas utile de refondre la configuration mise en place.

Nous enchaînons ensuite avec les multiples onglets de CPU-Z © Nerces

Configuration de test

  • Carte mère : ASUS ROG Maximus Z690 Hero
  • Processeur : Intel Core i9-12900K
  • Mémoire : Kingston Fury DDR5-4800 CL38 (2x 16 Go)
  • SSD « système » : Kingston KC3000 2 To
  • Refroidissement : ASUS ROG Ryujin II 360
  • Alimentation : be quiet! Straight Power 11
rtx 4080 gpuz
Avant de conclure cet état des lieux avec GPU-Z © Colin Golberg

Les logiciels mis en œuvre ont évolué. Nous sommes sur Windows 11 en version Professionnel 64-bit 22H2 22621.607. NVIDIA nous a fourni la dernière mouture de ses pilotes (526.72) afin que la RTX 4080 FE soit reconnue et notre plateforme Z690 exploitait les pilotes chipset Intel 10.1.18838.8284. Pour la Radeon RX 6900XT, ce sont les pilotes AMD 22.20.29.01 RC6 qui ont été employés.

NVIDIA GeForce RTX 4090 FE © Nerces

Tout est en place, même l'adaptateur et les câbles 8 broches ! © Nerces

Qu’en est-il des performances ?

La GeForce RTX 4080 est une carte très puissante taillée pour la 4K, il n'est donc pas utile de la comparer à une GTX 1650 par exemple. Nous avons décidé de réduire considérablement les graphiques et de ne comparer notre cobaye du jour qu’aux GeForce RTX 3080, RTX 3080 Ti, RTX 3090, RTX 4090 et Radeon RX 6900XT.

3DMark

3Dmark 4080
Performances observées sur 3DMark © Nerces

Utilisé depuis la nuit des temps, 3DMark est un outil pratique pour évaluer rapidement une configuration. Il ne saurait toutefois se substituer à des tests « réels », ce n’est qu’un indicateur. De manière générale, les Radeon RX se comportent bien avec ce soft, mais la RTX 4080 n'est devancée que par la RTX 4090.

Sur TimeSpy Extreme, la RTX 4080 est 56 % plus rapide que la RTX 3080. On est loin du score hallucinant de la RTX 4090 qui vient doubler les performances de la RTX 3090, mais le gain reste tout de même impressionnant.

Blender Benchmark

blender 4080
Performances observées sur Blender Benchmark © Nerces

Nous avons décidé d’intégrer un outil plus « professionnel » afin de rendre compte d’un usage moins ludique. Par son moteur de rendu 3D, Blender Benchmark met davantage à contribution les GPU puissants et exploite pleinement les 16 Go de GDDR6X de la GeForce RTX 4080.

De manière encore plus nette que sur 3DMark, la petite dernière de NVIDIA s’assure une seconde place méritée. Aucune contestation n’est possible et si les Radeon RX 6000 ne brillent pas sur cet exercice, même les plus puissantes cartes Ampere sont largement distancées : on parle tout de même d'une amélioration de 30 à 56 % selon les tests par rapport à la RTX 3090.

Cyberpunk 2077

cyberpunk RT off 4080
Performances observées sur Cyberpunk 2077 © Nerces

S'il est toujours difficile de parler de « plus beau jeu du monde », il est certain que Cyberpunk 2077 est une merveilleuse vitrine technologique du monde PC. Pourtant, notre premier test ne cherche pas à mettre genoux les cartes graphiques en se focalisant sur le seul rendu « ultra ». La RTX 4080 fait des merveilles en 4K où l'on note un progrès de plus de 57 % par rapport à la RTX 3080 Ti.

Cyberpunk 2077 et le ray tracing

cyberpunk RT on 4080
Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces

Afin d'enfoncer le clou et, surtout, de se tourner vers l’avenir, nous faisons un second test Cyberpunk 2077 en activant cette fois le ray tracing en mode « ultra ». Nous optons aussi pour le mode de super-échantillonnage le plus indiqué de chaque carte (ici le DLSS), en réglage « équilibré ». Une configuration qui sied à merveille à la RTX 4080.

Les valeurs en 1 080p et 1 440p n’ont pas grand intérêt, mais en 4K, la carte écrase la concurrence (en dehors de la RTX 4090) avec des performances en progrès d’environ 50 % sur la RTX 3080 Ti. Ray tracing oblige, la Radeon RX 6900XT n’est pas à son aise et les progrès sont ici de 133 % en se tournant vers la carte Lovelace. Impressionnant.

Far Cry 6

far cry 6 4080
Performances observées sur Far Cry 6 © Nerces

Sur le jeu d’Ubisoft Montréal, la RTX 4080 est moins à son aise. D’emblée, on note qu’il n’est pas question de jouer en 1 080p ou en 1 440p sur une telle carte : elle ne fait pas réellement mieux que les RTX 3080 Ti / RTX 3090, elle est comme on dit dans le jargon CPU bound, limitée par le CPU.

En 4K, elle se place sous la RTX 4090, mais les écarts sont moins nets que sur Cyberpunk 2077. Par rapport à la RTX 3080 Ti, sa poursuivante la plus performante, la RTX 4080 assure des progrès d’exactement 20 % sur Far Cry 6 avec le ray tracing activé.

Forza Horizon 5

FH4 4080
Performances observées sur Forza Horizon 5 © Nerces

Sur notre nouveau protocole, la course automobile est représentée par le magnifique Forza Horizon 5 qui ne souffre que d’un défaut : la prise en charge du ray tracing se limite au seul garage. En jeu, les écarts sont malgré tout très importants et la dauphine de notre cobaye du jour est de nouveau la RTX 3080 Ti, laquelle ne peut toutefois rien faire et le gain est cette fois de 30 %.

Marvel’s Guardians of the Galaxy

GoG 4080
Performances observées sur Marvel's Guardians of the Galaxy © Nerces

Encore un peu moins d’écarts avec Marvel’s Guardians of the Galaxy qui permet à la RTX 3080 Ti de mieux figurer. Option ray tracing activée et super-échantillonnage (DLSS) sur équilibré, la carte Ampere signe 88 images par seconde : la RTX 4080 ne fait « que » 30 % de mieux pour atteindre un flatteur 114 ips.

Red Dead Redemption 2

rdr2 4080
Performances observées sur Red Dead Redemption 2 © Nerces

Les années passent et le jeu de Rockstar Games reste une merveille graphique qui nous permet, en plus, d’ajouter un jeu Vulkan à notre sélection. Une fois encore, nous nous focalisons sur le jeu en 4K avec les détails en ultra et, une fois encore, la GeForce RTX 4080 fait des merveilles.

Par rapport à la Radeon RX 6900XT d’AMD (67 ips), la carte NVIDIA signe des performances 50 % plus élevées. Notre duo de RTX 3080 Ti/RTX 3090 fait un peu mieux bien sûr. Pourtant, la RTX 4080 fait encore 35 % de mieux pour assurer une moyenne de 100 images par seconde.

Total War Warhammer 3

TWW3 4080
Performances observées sur Total War Warhammer 3 © Nerces

Le dernier jeu de notre sélection n’est autre que le Total War Warhammer 3 de The Creative Assembly. Plusieurs scènes étant disponibles, nous avons retenu celle du champ de bataille, théâtre de nouveaux exploits pour la RTX 4080.

Notons qu’il s’agit du seul jeu de notre sélection où les cartes graphiques ne sont pas limitées par le processeur et, même en 1 080p, la hiérarchie s’installe aisément avec une RTX 4090 supérieure de 53 % à sa dauphine, la RTX 3080 Ti, et une RTX 4080 qui devance la RTX 3080 Ti de près de 35%.

Coup de projecteur sur le DLSS3

Les RTX 40 marquent le lancement du DLSS3, nouvelle version de la technologie d'upscaling intelligent de NVIDIA. Nous avons fait des tests sur quelques-uns des jeux d'ores et déjà compatibles avec cette technologie, en le comparant au DLSS2.

A Plague Tale: Requiem (4K Ultra, DLSS Auto)

plague tale dlss3 4080
Performances observées sur A Plague Tale: Requiem © Colin Golberg

Sur le jeu d’Asobo Studios, on note le boost de performances offert par l'activation du DLSS 3. Au-delà de la seule moyenne du nombre d’images par seconde, c’est d’ailleurs le 1 % faible qui impressionne. En revanche, la latence augmente, ce qui n'est pas gênant dans ce type de jeux.

Cyberpunk 2077 (4K Ultra, DLSS Auto)

cyberpunk dlss3 4080
Performances observées sur Cyberpunk 2077 © Colin Golberg

Enfin, pour obtenir un tableau encore un peu plus complet de la situation, nous revenons vers l’inévitable Cyberpunk 2077. Comme les précédents titres, il est parmi les premiers à prendre en charge le DLSS 3, mais nous avons pu ici davantage jouer avec les réglages.

Sans surprise, le DLSS 3 permet d’atteindre les plus hauts niveaux de fluidité et, grâce à Reflex, il peut le faire sans ajouter de latence au réglage DLSS 2 seul. NVIDIA ne s’en cache pas : DLSS 3 n’a pas vocation à faire disparaître DLSS 2. Il s’agit d’une solution complémentaire qui arrive pour améliorer le rendu graphique. Dès lors que l’on parle de jeux ultra-compétitifs, la légère latence induite incitera les joueurs à garder DLSS 2 + Reflex.

De l’efficacité d’Ada : à cheval sur la conso ?

Nous avons peu évoqué la chose, mais en optant pour le processus 4N (ou 5 nanomètres) de TSMC, NVIDIA insiste autant sur la densité de transistors que sur la remarquable efficacité énergétique. Sans trop entrer dans les détails, NVIDIA précise qu’il est peut délivrer « les plus hauts niveaux de performance par watt ». Voyons cela.

Consommation électrique

conso 4080

Sur le strict plan de la consommation électrique, la GeForce RTX 4080 est gourmande, mais elle se paye le luxe d'être moins énergivore que la RTX 3090 et la RTX 3080 Ti, pourtant bien moins performantes. En charge sur le test Time Spy Extreme de 3DMark, la consommation grimpe à 311 watts.

Tentons de rassurer les usagers : sur aucun jeu, sur aucune définition d'images et à aucun niveau de détail, nous avons atteint les 320 watts correspondant au TGP annoncé par NVIDIA. Dans l'immense majorité des situations ou des logiciels, la moyenne haute s'établit plutôt autour des 275 watts.

Notons en revanche qu’au repos la carte est plus sobre et que, comme toutes les RTX 3000, elle a l’avantage de couper sa ventilation quand elle le peut.

Efficacité et « rentabilité »

ratio 4080

Exprimé en euros, le prix public conseillé (MSRP) est représenté sur le graphique ci-dessus par les barres bleues. La valeur chiffrée est précisée à côté de chaque carte.

Entre les sorties des RTX 3000 et 4000, le taux de change euro/dollar a fortement changé affaiblissant le ratio performances/prix de la RTX 4080.

Au-delà de sa consommation, il nous semblait utile d’évoquer deux indicateurs de l’efficacité de la carte : les performances par Watt et les performances par Euro en prenant à chaque fois le résultat 3DMark TimeSpy Extreme. D’abord en le divisant par la consommation enregistrée et, ensuite, en le divisant par le MSRP au lancement de la carte.

Sur le plan énergétique, il est réconfortant de voir que NVIDIA ne pense pas qu’aux performances : sa RTX 4080 est loin devant les autres cartes graphiques haut de gamme testées sur Clubic — exæquo avec la RTX 4090 — et nous sommes impatients d'observer ce que cela peut donner sur des modèles plus modestes.

Du côté des performances par Euro, la RTX 4080 est moins à son aise et se fait damer le pion par la RTX 3080 confirmant l’exceptionnel rapport qualité/prix de la pionnière de la gamme Ampere. Handicapé par la conversion Euro/Dollar défavorable, Lovelace n’a toutefois pas à rougir et, là encore, nous attendons la suite.

NVIDIA GeForce RTX 4080 FE : l’avis de Clubic

9

Si la GeForce RTX 4090 a fait à nouveau un pas de géant concernant les performances, la RTX 4080 n'a pas à rougir pour autant. Proposée à un tarif largement inférieur à sa grande sœur, celle-ci présente des performances impressionnantes, parfaitement adaptées au jeu en 4K avec tous les curseurs poussés au maximum.

L'architecture Ada Lovelace apporte par ailleurs des nouveautés bienvenues, comme le DLSS3 qui permet encore d'améliorer la qualité graphique et les performances des jeux les plus gourmands.

Oui la RTX 4080 est énergivore, mais c'est le prix à payer pour un tel niveau de performances. Par ailleurs, son efficacité énergétique est tout simplement la meilleure jamais relevée lors de nos tests.

Reste à savoir si vous avez besoin d'une telle carte ? Si vous ne voulez aucun compromis lors de vos sessions de jeu en 4K, la GeForce RTX 4080 saura combler vos attentes, mais il faudra vérifier que votre boitier accepte une carte aussi imposante. Si vous visez le 1440p, il faudra attendre les prochaines déclinaisons de la gamme Lovelace.


Les plus

  • Performances excellentes
  • DLSS3 très efficace
  • Ventilation silencieuse même dans un boitier moyen tour
  • Design réussi

Les moins

  • La taille imposante (triple-slot)
  • Le prix
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés sont susceptibles d'évoluer. 
Lire la charte de confiance
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
66
32
bennj
Test complet, mais ne pas parler du prix doublé de la 4080 par rapport à la 3080 c’est assez limite surtout pour lui mettre un 9/10. Le taux de change n’excuse pas tout. Voir les prix en $ qui ont aussi énormément augmenté :<br /> twitter.com<br /> VideoCardz.com<br /> @VideoCardz<br /> Spot the impostor 👀 https://t.co/FsMQZeEq9j<br /> 9:54 AM - 15 Nov 2022<br /> 1.2K<br /> 200<br />
Nabilouche
Tant qu’il y aura des pigeons pour acheter …
rsebas3620
a 1200 Euro… je vais attendre l’offre d’amd… le jeux pc est devenu trop cher pour moi chez nvidia
sylvio50
1470 € plutôt.<br /> 1200 €, ça correspond au prix de la RX 7900 XT (qui sera probablement 10~20% plus perf que cette RTX 4080).
Spleen_0
1200€ ? Non … Le prix de la FE est de 1500€ en Europe. Le prix des cartes AIB commencera à partir de 1700-1800€ pour les modèles de bases.<br /> Rien que le prix devrait déjà enlever 3 ou 4 points à la note finale ! Donc le 9/10 est totalement injustifié, sauf si effectivement, vous avez perdu toute valeur de l’argent et du cout de la vie.<br /> Nvidia est littéralement entrain de scammer les joueurs et tous les reviewers sont là « Ouaaaaais c’est trop une bonne carte avec un ratio perf/prix excellent » Oui, mais non.<br /> C’est un véritable désastre.<br /> Non parce que à ce tarif là, la review du 13700K devrait lui donner un 10/10 vu qu’il atomise le 7700X sur les plans. Mais ça, c’est si on devait suivre la logique.<br /> Conclusion, ne jamais regarder les notes finales des tests. Elles sont toujours biaisées, d’une façon ou d’une autre.
MisterG55
vive le retrogaming
luck61
Vu son prix elle mérite que 3 pas plus 9 non
Lepered
Ma GTX1080 TI joue tout à fond en ultrawide 1440P. Certes sans ray tracing et pas sur FS2020.<br /> Le jour ou ma carte claque, ça sera une AMD. Même leur modèle milieu de gamme font mieux que ma carte actuelle. Nvidia n’aura pas mon argent c’est clair.
stef78
Modique somme de 1490Euros (2 fois la génération précédente) vous plaisantez j’espère. Et dans les tests, aucun comparatif avec une 3090 ti, qui montrerait qu’elle n’apporte pas grand chose en gain. Bref Clubic Sponso par Nvidia !!!
thekiller3
9/10 ?? vraiment ??<br /> non, ça ne les vaux pas.<br /> le prix est démesuré ! il à doublé depuis la 3080 ya 2 ans !!<br /> ça ne mérite que 4 ou 5, pas plus.<br /> en plus, la carte est énorme, elle ne rentre pas dans tous les boitiers !
pecore
Puisses tu dire vrai mais vu les résultats plutôt bons de la 4080, je m’attend plus à du kif kif avec la RX 7900 XT et le 10 à 20% de plus plutôt pour la XTX.<br /> Dans les deux cas, je m’en contenterai largement, vu la différence de prix. Et si c’est mieux, ce sera du bonus.
pecore
La RTX 4080 est encore un très bon produit de chez Nvidia que j’aurai applaudi s’il avait couté 400$ de moins. Mais entre le prix MSRP, les partenaires laissés libres de faire tout et n’importe quoi, le taux de change et la TVA, on va avoir des cartes entre 1720 et 2200€ et là, fini l’excuse du « mais ce n’est pas pour le gaming, c’est pour les pros ».<br /> Donc encore une fois je déplore qu’on ne tienne pas compte des prix dans les notes. Des prix pareils devraient être rédhibitoires et entrainer une notation punitive ou tout du moins, une baisse de celle-ci.
Spleen_0
Derrière, Nvidia qui justifie ça par une augmentation des dépenses pour l’assemblage, les frais de gravure, le taux de change € / $, mais si on regarde bien …<br /> Intel vend ses CPU de 13th gen (13600K / 13700k / 13900k) au même prix entre l’Europe et les US !<br /> Même en Suisse, le 13700KF est vendu 426CHF TTC alors qu’aux US, il est affiché à 439US$ HT !<br /> Donc Nvidia va devoir s’expliquer sur la différence de prix US / Europe, mais également par le fait que le prix des cartes Ampere n’a pas diminuer (on est toujours largement au dessus du MSRP), et que surtout, la 4080 s’affiche avec 500$ de plus aux US et presque 1000€ de plus en Europe !! (800€ pour être plus précise).
yannadoo
Avant, a l’époque du taux avantageux €/$, c’était 1€=1$, et on « justifiait » ça par les taxes. Aujourd’hui on applique à la lettre le taux et les taxes
Delta243
Avis clubic Prix largement inférieur à sa grande sœur ? <br /> Parce que des Rtx 4080 entre 1600 et 2100 euros c’est largement moins que 1800 et 2300 euros pour la rtx 4090 .<br /> Y’a genre 200/250 euros max d’écart<br /> Sérieusement vous avez fumer quoi ?<br /> Parce que votre phrase c’est soit une blague ou du foutage de gueule.<br /> Je suis navré.
Popoulo
390.- TTC le 13700KF<br /> 810.- TTC la 3080<br /> 1’100.- TTC la 3090<br /> 1’730.- TTC la 4090<br /> Pour la 4080, annoncé ce jour à 1’380.- TTC. Et pour 400 balles de différence, si les perfs de l’AMD niveau applicatif sont comme avant à la ramasse, mon choix sera vite fait.
bafue
9/10 pour une carte qui coute le prix d’un pc gaming …<br /> Paye bien Nvidia…!!<br /> Après si il y a de bon mouton pour payer ce prix il on raison d’en profiter !!<br /> 2x plus chère qu’une 3080…lol…<br /> Ma 3080 sera remplacer par une carte AMD …
ryanto
mais pourquoi vous ne testez pas le jeu Flight Simulator 2020 qui est quand même l’un des jeux les plus gourmands?<br /> Pourquoi vous ne parler pas des performances en VR ?<br /> Sinon, merci pour ce test
tofou
Celui qui a les moyens de rouler en Ferrari est un pigeon aussi ? Toujours aussi pitoyable cette mentalité à la française !<br /> Si vous n’avez pas les moyens de vous payer une telle carte, ben passez votre chemin (comme moi).
tofou
Pourquoi ? Votre 3080 ne fait pas le taf ? Pourquoi toujours vouloir avoir une plus grosse que celle du voisin ?
Nabilouche
@tofou<br /> Qui a dit que je n’avais pas les moyens de me l’acheter ? Ce n’est pas car toi tu ne peux pas que ça s’applique forcement aux autres.<br /> Le prix n’est aucunement justifié. La 3080 est 2 fois moins cher ! Pourquoi cette escalade de prix ?<br /> On ne parle pas ici de produits de luxe, on parle de cartes graphiques qui font tourner des jeux vidéo. Rien à voir donc avec une Ferrari ou un sac Vuitton.
Spleen_0
D’accord … Donc tu confonds une Ferrari, assemblée en quantité limitée et qui perdure dans le temps, à un GPU …<br /> Donc on est sur de la comparaison bien foireuse … Et si tu veux ce type de comparaison, d’accord.<br /> Une 4080, c’est le prix d’une Twingo en état d’occasion … Et quand tu vois le gap qu’il y a entre la 3080 et la 4080 en terme de prix, cela voudra donc dire que pour le prix d’une 3080, tu auras une carte en deça de la gamme Lovelace pour le même prix !<br /> 700€ te donneront le droit à avoir une carte Lovelace qui aura donc les même perfs qu’une 3080 (probablement la 4070 ou 4060Ti).<br /> Si là, tu ne vois pas le problème, personne ne peut rien faire pour toi …<br /> Et la différence de prix entre les US et l’Europe n’est absolument pas justifiée puisque Intel vend ses 13th gen au même prix sur les deux continent ! Donc Intel peut le faire, mais pas Nvidia ??! Elle pue un peu la logique …<br /> En précisant tout de même qu’AMD aura un MSRP égale à la gen précédente avec les RX7000.
Grebz
Quel est l’intérêt de remplacer une 3080 par une carte de la génération suivante, que ce soit AMD ou Nvidia ?<br /> Quel est l’intérêt de changer de carte graphique (ou de processeur, d’ailleurs) au bout de deux ans, voire moins ?<br /> Hormis une motivation professionnelle, je ne vois qu’une explication… l’ego.<br /> C’est aussi intelligent que de changer de smartphone à chaque nouveau modèle ou de changer de voiture parce que le cendrier est plein.
Spleen_0
1730.-CHF pour la 4090, sans stock, et déférencée (c’était la PNY/Gainward et elle n’a JAMAIS été en stock, jamais) pour être ajustée au prix de 2200.-CHF pour le premier prix chez OrderFlow.<br /> Les 4080 sont annoncées pour minimum 1700.-CHF pour les modèles de bases, les premiers prix en dessous ne seront que des listings et des prix d’appels mais la réalité, tu n’en trouveras pas une seule à ce prix là !<br /> Et on connait déjà le prix de la 4080 Asus RoG qui devrait avoisiner les 2100, 2200€ (2145€ précisément en Allemagne)
bafue
Le prix d’une Ferrari ne double pas d’une année sur l’autre …Il sont réaliste …
bafue
Quelle le fasse ou pas ne change absolument rien …Je ne vois pas le rapport …
sylvio50
Grebz:<br /> Quel est l’intérêt de remplacer une 3080 par une carte de la génération suivante, que ce soit AMD ou Nvidia ?<br /> Quel est l’intérêt de changer de carte graphique (ou de processeur, d’ailleurs) au bout de deux ans, voire moins ?<br /> Ici, la technologie utilisé par TSMC permet de caser environ 2,5 x plus de transistors par unité de surface.<br /> Le second bénéfice est de permettre « à performance égale » (on le verra mieux sur les versions mobiles) de consommer moins dans les mêmes proportions. Mais normalement, la RTX 4080 @ 1,8 GHz devrait consommer dans les 130 W en charge (valeur TGP) et être aussi perf que la RTX 3090 (350 W).<br /> L’inconvénient de cette technologie est le prix (qui ne semble pas avoir été beaucoup répercuté sur les 7 nm) :<br /> 1777×1000 179 KB<br /> source : AMD Explains the Economics Behind Chiplets for GPUs | TechPowerUp<br /> Les AMD en chiplet (RX 7800/7900) n’auront pas ce problème de prix.
Cleever
Non mais vous pouvez la tester dans tous les sens, aucun intérêt de payer 1400 € pour ça, ça les vaudra jamais.<br /> Surtout quand tu as là 7900 XFX qui sera à 1200€ et qui fera mieux en décembre.
Cervicales_Torticolis
C’est toujours pareil, les mêmes pleurnicheries ça vient étaler sa frustration sur les prix élevés et ça fait passer pour des idiots ceux s’achètant cette carte. Et quand t’as les moyens d’acheter cette carte et que tu t’y refuses par principe tu viens pas étaler ta frustrations ici. On le sait que les prix sont élevés, venir pleurnicher ça ne changera rien du tout. Laissez les gens dépenser leur argent comme ils le veulent. Laissez les gens d’acheter une RTX 4090/4080 ou le dernier cpu. C’est votre argent peut être ?? Non ben foutez leur la paix.<br /> Et faut oser critiquer clubic en disant qu’ils sont sponso par nvidia car la review ne vous plaît pas car ils ne disent pas que nvidia c’est des vilains qui vendent leurs cartes trop chères. C’est typiquement français cette mentalité.
Spleen_0
Et du coup, les prix sont tombés en Suisse. Rien en dessous de 1500.-CHF pour la Gigabyte de base …<br /> Et à partir de 1700.-CHF pour les modèles les plus aboutis …<br /> On est très loin des 1380.-CHF … Donc je ne sais pas ou tu as pu voir une 4080 à ce prix là, mais …
Grebz
Merci, mais ce n’était pas du tout le sens de ma question. Bien sûr que les constructeurs améliorent (en tout cas, essayent) leurs processus de fabrication, la finesse de gravure, la consommation électrique (enfin ça… plus ou moins), la puissance de calcul, etc.<br /> Ça, ce n’est pas nouveau, c’est comme ça depuis les débuts de l’informatique.<br /> Ma question était du point de vue du consommateur, de toi, de moi… j’ai juste l’impression d’un immense gâchis quand je vois quelqu’un renouveler son matériel dès qu’une nouvelle gamme sort. Gâchis d’argent, de ressources, une sorte d’éternelle insatisfaction et de besoin compulsif d’avoir toujours le dernier truc sorti, de faire partie de ceux qui peuvent et s’achètent donc le matériel le plus puissant, alors même que ce qu’ils ont déjà à l’heure actuelle remplit parfaitement leurs besoins.<br /> Sauf bien entendu quand l’achat se justifie dans un cadre professionnel et permet de gagner du temps et de l’argent. Mais pour un particulier, pour du loisir, ça me dépasse.<br /> Renouveler son matériel une génération sur 2 ou sur 3 me paraît être un bien meilleur calcul. Après, bien sûr que chacun dépense son fric comme il veut, mais le raisonnement « je veux toujours être à la pointe »… oui, je vois ça comme du gâchis.
clockover
Bof NVIDIA vend bien au prix qu’ils veulent leur CG…<br /> Prix justifié ou pas, on s’en fout.<br /> Ceux qui veulent acheter et on les moyens le font, les autres non et puis voila.<br /> Ca a toujours été comme ça.
Blackalf
Au fond, oui. En 2010 j’ai acheté une Radeon HD 5870 pour 371 €, mais d’autres prenaient des HD 5850 ou 5830 moins chères.
AfricanJoker
« La Geforce RTX 4080 FE sera disponible le 16 novembre 2022 pour la modique somme de 1 469 €. »<br /> Sans ironie, le mot « modique » est-il réellement bien placé dans votre phrase alors que son prix a été doublé face à la génération précédente. (719 eur une founders 3080 VS 1469 eur pour celle-ci).
Spleen_0
Tout le monde se plaint du prix, y compris aux US ! Tout le monde se plaint, y compris en Suisse ! Mais je suppose que c’est parce que les suisses et les allemands sont français alors ? ….<br /> La 4080 c’est plus du double du prix de la 3080. À ce rythme cela veut donc dire que la 5080 sera le double du prix de la 4080 si on suit cette logique tarifaire !<br /> La 3080, c’était 729€ …. Hého, WAKE UP !!! Faut se réveiller Billy !!!
pecore
Si c’était aussi simple que cela et qu’il suffisait de dire que chacun est libre de gaspiller son argent comme il le veut juste pour avoir l’illusion d’appartenir à une élite, ce serait merveilleux.<br /> Mais ce n’est pas ce que font les autres qui nous dérange, nous les pleurnichards, pour te citer.<br /> C’est que ce genre de comportement idiot tire tous les prix vers le haut et fait quasiment disparaitre l’entrée de gamme, voire le milieu de gamme. Donc ceux qui dépensent sans réfléchir font du tort à tous les autres en les obligeant soit à suivre le mouvement de la dépense excessive soit à rester sur le carreau.
lynaz
« Intel vend ses CPU de 13th gen (13600K / 13700k / 13900k) au même prix entre l’Europe et les US ! »<br /> Pas mal votre mauvaise foi NVIDIA &amp; Intel : le 13700k coute 519€ &amp; 439USD soit 18.2% de dif - la 4090FE 1949€ &amp; 1599USD 21,8% de dif… C’est très similaire. Etant commerçant d’import je peux vous garantir que TOUS les produits importés coutent près de 25% plus qu’il y a 1 an a cause de l’euro qui s’est cassé la gueule &amp; de l’augmentation des couts de transport. Les prix n’augmentent pas c’est juste notre portefeuille qui a perdu plus de 20% de valeur. C’est bien de crier au loup mais les responsables ne sont pas nvidia intel amd mais a l’Elysée avec cette guerre qui a fait perdre a notre monnaie sa valeur.
pecore
Mais beaucoup d’entre nous basent leur raisonnement sur le prix en dollars, donc avant l’application de la TVA et du taux de change, vu qu’en effet ce sont les seules choses qu’on ne peut pas imputer à Nvidia.<br /> Or, même en dollars, le prix a énormément augmenté et encore plus pour les customs. Et là, ni l’Élysée ni la guerre n’y sont pour rien.
Spleen_0
Le 13700kf est actuellement à 426.-CHF pour un MSRP à 429US$ HT … Et il en est de même pour tous les CPU de la gamme Raptor Lake. Donc oui, Intel respecte les MSRP sans non plus faire gonfler la note entre les US et l’Europe.<br /> En revanche, Nvidia se gave d’une force, rien que sur le prix des Founder Edition, et ça que ce soit aux US ou en Europe (sauf que dans le cas de l’Europe, c’est encore mieux puisqu’on a droit à 100% d’augmentation par rapport à la gen Ampere).<br /> Et les ambitions de Jensen sont claires. 500 millions de chiffre d’affaires d’ici la fin de Q4 2022 pour le dernier trimestre !<br /> Réduction de la production sur Lovelace, augmentation des capacités de production sur Hopper (H100) et A100, et sortit du A800 pour contrebalancer l’embargo US sur la Chine.<br /> Et comment forcer les joueurs à porter leur choix sur la gen Ampere afin d’écouler les stock ? Proposer des prix indécents sur Lovelace !<br /> C’est aussi simple que ça !
Spleen_0
La 3080 était à 689US$ pour 729€ … La on passe de 1190$ à presque 1500€ … alors à moins que la TVA est augmentée de façon drastique … Bref …<br /> Et ça n’explique pas l’augmentation de 100% du MSRP entre Ampere et Lovelace ! (Sauf à forcer les joueurs à partir sur une carte Ampère pour vider les stocks)
lynaz
Le 13700KF oscille entre 497 &amp; 535€ chez la plupart des revendeurs… On va pas se baser sur un prix suisse qui n’appartient pas a L’UE pour établir une vérité de la politique de prix en Europe.<br /> « La 3080 était à 689US$ pour 729€ … La on passe de 1190$ à presque 1500€ … » vous comprenez pas comment fonctionne le taux de change en fait :<br /> 3080 : 729/689 : 5,8% - 1500/1190 : 26% …<br /> Entre la sortie de la 3080 et la 4080 l’euro a perdu 20% de valeur. Les chiffres se recoupent… Ne faites pas votre parti pris prendre le dessus sur votre raison…
lynaz
Je ne parle en aucun cas l’augmentation abusive ou pas des prix d’nvidia mais de la malhonnêteté de vouloir imputer une augmentation de prix mécanique ( taux de change + inflation + cout du transport ) a nvidia. Aux us la 3090 a 4090 c’est 1299 (elle ne c’est jamais vendu a ce tarif la) a 1599 usd vis a vis de l’inflation, la gravure chez tscm plus chère et les cout de transport plus chers ce n’est pas si révoltant. C’est sur que nous en euro l’addition est beaucoup plus salée a cause de l’euro qui se casse la gueule.
Cervicales_Torticolis
Je te parle pas du fait de se plaindre du prix je te parle du fait que certains insultent d’idiots ceux achetant cette carte. Evites de tout mélanger.
Cervicales_Torticolis
Ben faut plus acheter de cg entrée/milieu de gamme comme ça ils devront baisser les prix sur ces segments.
StephaneGotcha
« pour la modique somme de 1 469 € »<br /> Ok super, cette carte ne sert à rien…<br /> Je me rappelle (il y a longtemps) de ma 8800 GTX achetée genre 600€. J’avais l’impression d’être le roi de 3dMark!<br /> Avec cette 4080 j’aurais l’impression d’être le roi des pigeons
Spleen_0
Le taux de change actuel donne la 4080 à 1190$ pour 1153.11€. Aller, on rajoute la TVA française pour un prix total de 1390€.<br /> En sachant que le prix HT en Europe est en réalité plus bas que 1153€, notamment car Nvidia (comme AMD, Logitech, Intel, Microsoft, etc) passent tous pas des holding aux Pays-Bas qui leur permet de baisser les taxes et augmenter les marges !<br /> Donc ce prix là, il est dans le cas où la TVA française s’appliquerait partout en Europe, ce qui n’est bien sûr pas le cas.<br /> PS : Intel 13700KF au prix moyen de 437€ dans les bonnes crémeries allemandes !
Spleen_0
Pourtant … AMD qui propose la 7900XTX au prix de la 6900XT à sa sortie, fait aussi graver chez TSMC, à les mêmes contrainte, et pourtant, leurs cartes sont moins chère …<br /> Non, parler d’inflation, de taux de change (1US$ = 0.96€ au taux de change actuel …), etc. C’est vraiment nous prendre pour des cons.<br /> Non … La vérité c’est que Nvidia a prit goût aux prix surévalués de 2020-2021, puisqu’après tout, si les gens étaient prêt à mettre 1500€ dans une 3080 qui coûtait en réalité 729€, pourquoi ne pas en profiter officiellement ??!<br /> Nvidia c’est 500 millions de chiffres d’affaires pour Q4 avec les uniques ventes de puces H100 / A100 alors les gamers …. Fermez la et achetez !!<br /> Jensen qui doit chantonner dans sa tête : « Acheeeete, ma merde ! Acheeeete, ma merde !! »
kervern
moi ce qui m’étonne, c’est 2 jours avant je recois un mail de nividia disponible a 15h le 16 novembre, le 15 je passe sur le site, tient déja affiché sur le site et en rupture, ok pourquoi pas, le jour de la sortie je me pointe 5 min avant, j’ai beau rafraichir, rien ! mais vraiment rien, je me dis 15h de quel pays, j’ai fais le même coup +6h heure de NYC que dalles ! nvidia nous a t il encore fait le coup de la rareté pour justifier le prix ? quelqu’un a t il vu la même chose ?
kervern
je sais pas, le peux de fois ou je regardais le prix d’une 3080 hors FE et sont prix officiel, les autre ce situer a 1300€, maintenant la FE été toujours indispo, et les plus gros acheteur sont les autres constructeurs: asus, msi, nvidia n a pas a te rendre des comptes, par contre au autres constructeurs qui sont leurs principaux acheteurs oui ! et il faut vendre les gpu déja acheté, ceux précommandé et pas encore reçu et pouvoir les vendre, donc le wake up tu peux bien te le garder et te rendormir dans ton monde de bisounours
Spleen_0
Exactement … Tu as tout dis !! Les cartes de générations Ampère gardent leur prix de pendant la pénurie malgré les surstocks, et derrière, les cartes Lovelace ont donc un MSRP encore élevé que les prix hors MSRP des cartes Ampere …<br /> Ou comment forcer les joueurs à acheter les invendus au prix fort, en leur faisant un doigt au passage, et dire ensuite « n’achetez pas si vous ne le pouvez pas, ou achetez une RTX3000 bande de cnnards de gamers de mrde ! »<br /> Donc si, à un moment donné, faut arrêter de dire « ouais bah si t’as pas l’argent, achète pas !! » parce que c’est en fermant sa gueule qu’en’ la prochaine gen va se retrouver à 200% du prix d’une 3080FE ….<br /> Et enfin, pour Lovelace, on va se retrouver avec une carte à 800€, qui aura les perf d’une 3080, et qui sera une 4070. Et tout le monde applaudira … Parce qu’on est con !
Shinpachi
Pour citer un film de Coluche : depuis le temps qu’on vous prend pour des cons, avouez que vous êtes vraiment des cons
AfricanJoker
La FE 4080 a bien été disponible le 16/11 à 15h00 pile sur ce lien suivant:<br /> https://store.nvidia.com/fr-fr/geforce/store/?page=1&amp;limit=9&amp;locale=fr-fr&amp;manufacturer=NVIDIA&amp;gpu=RTX%204080<br /> Cependant, malgré sont prix, celle-ci ne l’a pas été plus de 5 minutes.<br /> C’est écoeurant, effectivement, surtout pour une somme pareille. Tu veux claquer 1500 balles et c’est même pas possible…<br /> Si tu veux être alerté, il faut t’abonner au telegram de « Bavarnold », « Founders x Bavarnold » pour être exact si c’est une Founders que tu cherches.<br /> Tu peux retrouver les infos sur le discord « Bavarnold ».<br /> Une trentaine de custom 4080 à des prix supérieurs ont également été disponibles. (Toujours via le tip)<br /> NB: je vais en faire rager certains, ne m’en voulez pas de partager les bons plans car même ceux-ci sont loin d’être faciles pour arriver à buy une CG.<br /> Cette indisponibilité (volontaire ou non) est limite honteuse, on devrait tout simplement boycotter Nvidia, mais avec la pénurie de 2 ans, cela ne se fera jamais.
kervern
non mais je comprends, merci de ta réponse en tout cas et du/des liens
Emmanuel_Angulo
Mon dieu que c’est pénible ce genre réflexions… A un moment, il va peut-être falloir comprendre qu’il y a des gens qui ont plus de pognon que vous et qui n’en ont rien a faire de ce que vous pensez.<br /> Non, les gens qui ont les moyens de se payer ça ne sont pas des pigeons, ils ont juste une vie différente de la votre et il se font plaisir , tout simplement.<br /> Les autres attendront les 4060 , il en faut pour toutes les bourses
Emmanuel_Angulo
C’est ce que je dis aussi à chaque fois …. Laissez les gens qui ont du fric se faire plaisir, nous on prendra les cartes adaptées à nos moyens
alexbrute
Elle est splendide c’est sur mais elle coûte le prix d’un PC neuf à peu de chose prêt.<br /> Je vais attendre et m’en refaire un entier quand les prix seront abordables.
steven19
on n’est dans le politiquement correct pour une rédaction<br /> Avec juste un avis négatif sur le prix noyer dans du positif (sérieux heureusement encore)<br /> Bref comme Apple , Nvdia nous fait un belle fumisterie entre de DLSS 3 non retro compatible la ou AMD y arrive avec les cartes de sont concurrent ,et que dire pour les pigeon qui on acheter les 3090 Ti depuis le début d’année au prix fort pour s’entendre dire oups pas compatible → mais si tu aime on peut te la remettre une deuxième fois
Shinpachi
Ceux qui ont une vie différente de la nôtre et se font plaisir, ils achètent une RTX 4090.<br /> La RTX 4080, c’est censé être le haut de gamme du mainstream.
Emmanuel_Angulo
Oui si on veut… On ne va pas faire exprès de faire de la surenchère juste pour se mesurer ce que l’on a dans le caleçon, hein …<br /> Tout ça pour dire que les gens achètent ce qu’ils veulent avec leur argent et que ce serait bien d’arrêter de systématiquement prôner l’URSS a chaque fois qu’une carte graphique dépasse 400 euros.
sylvio50
VideoCardz.com:<br /> Les acheteurs de RTX 4080 devraient plutôt envisager de construire un PC complet avec une Radeon RX 6900 XT<br /> La RTX 4080 coûte le prix d’un PC complet avec RX 6900 XT:<br /> 2500×870 272 KB<br /> VideoCardz.com<br /> Gaming PC with Radeon RX 6900XT GPU can still cost less than GeForce RTX 4080...<br /> RTX 4080 shoppers should consider building whole PC with Radeon RX 6900 XT instead Even week after launch NVIDIA is struggling to sell the excess inventory of GeForce RTX 4080 graphics cards.  NVIDIA RTX 4080 is the first graphics card launched...<br /> Est. reading time: 3 minutes<br />
sylvio50
Combien est-ce que tu devrais payer pour la RTX 40801892×871 78.6 KB<br /> TechPowerUp Forums<br /> How much would you pay for RTX 4080?<br /> With all the controversy surrounding the RTX 4080 launch, we're wondering. How much is the card worth in your opinion? What's the highest you're willing to pay for it?<br />
Blackalf
sylvio50:<br /> VideoCardz.com:<br /> Les acheteurs de RTX 4080 devraient plutôt envisager de construire un PC complet avec une Radeon RX 6900 XT<br /> La RTX 4080 coûte le prix d’un PC complet avec RX 6900 XT<br /> Si tu retires le prix d’une RX6900XT d’un pc à 1.175 $, il ne reste pas grand-chose. Le mien, monté début 2022 avec des composants trouvés à prix raisonnables (hors carte graphique), m’a coûté un peu plus de 1.500 €.
StephaneGotcha
Personne se fait plaisir en achetant quelque chose nettement trop cher pour ce que c’est.<br /> Le RMiste qui achète le dernier iPhone est un pigeon.<br /> Le millionaire qui achète le dernier iPhone est un pigeon.<br /> C’est juste que pour le dernier ça n’a probablement aucune conséquence.
sylvio50
C’est évidemment « symbolique ».<br /> Par exemple, ici en France (depuis la Belgique aussi je suppose), la XFX Speedster SWFT 319 AMD Radeon™ RX 6900 XT est pile 2 x moins cher que la RTX 4080 1er prix, ce qui est énorme.<br /> La RX 7800 XT devrait probablement être dans les 600$ ou 700 € et concurrencer directement par le bas la RTX 4080 (en gros, la RTX 4080 sera 15 % plus perf pour 100% de prix en plus).
Blackalf
Oui, j’ai vu les XFX, mais c’est une marque que je ne connais pas. ^^<br /> J’ai encore le souvenir d’une époque où tout le monde faisait la promo des Gainward Golden Sample, et il s’est avéré par la suite que c’était de mauvaises cartes qui ont connu de nombreux problèmes. Bref, je vise plutôt une Gigabyte, une Sapphire ou peut-être une Asus (j’ai une R9 280X Matrix qui a 9 ans et fait encore tourner très honorablement des jeux comme Control ou Far Cry 5).
sylvio50
J’avais une XFX HD 6970 : rien à signaler.
Voir tous les messages sur le forum

Derniers tests

Test Marshall Woburn III : une enceinte premium et énergique, à la connectivité limitée
Test Apple iPad (2022) : des nouveautés, et des frustrations
Test Apple TV 4K (2022) : la dernière box TV d'Apple frise la perfection
Test Fitbit Sense 2 : la montre connectée sport de Google rate le coche
Test de l'option Power de Shadow : nos impressions sur le PC dans le cloud sous stéroïdes
Test Sennheiser Ambeo Soundbar Plus + Ambeo Sub : une immersion sonore sacrément bien négociée
Test Withings Body Comp : la balance connectée qui prend soin de votre santé
Test Marshall Acton III : une mini enceinte de salon à la puissance surprenante
Test TCL 55C635 : un téléviseur abordable qui marque des points
Test Mate 50 Pro : Huawei peut-il encore se hisser parmi l'élite ?
Haut de page