NVIDIA officialise les GeForce RTX 3090 Ti et GeForce RTX 3050

04 janvier 2022 à 18h15
18
© NVIDIA
© NVIDIA

Au CES 2022, NVIDIA a annoncé deux nouvelles cartes graphiques desktop : les GeForce RTX 3090 Ti et GeForce RTX 3050.

Ces deux références viennent étendre la gamme RTX 3000 à chaque extrémité, jusqu’ici bornée par les GeForce RTX 3090 et GeForce RTX 3060.

8 Go de GDDR6 pour la GeForce RTX 3050

Commençons par la plus modeste des deux, la GeForce RTX 3050. Déjà présente sur le segment mobile, elle débarque finalement sur le segment desktop. Les rumeurs évoquaient 4 ou 8 Go de GDDR6 ; NVIDIA a tranché pour la seconde option.

© NVIDIA
© NVIDIA
© NVIDIA
© NVIDIA

Cette GeForce RTX 3050 met à disposition 18 cœurs RT et 73 cœurs Tensor, selon la diapositive de la présentation. En principe, à partir de ces valeurs, le nombre de cœurs CUDA devrait être de 2 304. Cependant, NVIDIA en évoque plutôt 2 560 dans son communiqué. Si tel est le cas, le nombre de cœurs Tensor et RT est respectivement de 80 et 20. Pour la comparaison, la GeForce RTX 3060 possède 3 584 cœurs CUDA, 112 cœurs Tensor et 28 cœurs RT. Cette dernière est également mieux dotée en matière de VRAM, avec 12 Go de GDDR6.

Du côté des performances, NVIDIA annonce environ 9 TFLOPS FP32. La GeForce RTX 3060, elle, en offre 12,74.

La GeForce RTX 3050 sera disponible le 27 janvier à partir de 249 dollars.

GeForce RTX 3090 Ti : le monstre sort de son antre

Vous l’attendiez, la voici : la GeForce RTX 3090 Ti. NVIDIA n'a pas détaillé toutes les spécifications, qui ont pourtant fait l'objet de nombreuses fuites au cours des derniers jours.

En principe, la GeForce RTX 3090 Ti embarque 10 752 cœurs CUDA, 336 cœurs Tensor et 84 cœurs RT. Ce serait un peu plus que la GeForce RTX 3090, qui est pour sa part "limitée" à 10 496 cœurs CUDA, 328 cœurs Tensor et 82 cœurs RT.

En revanche, la version Ti se démarque assurément par sa VRAM. Elle hérite toujours de 24 Go de GDDR6X, mais à 21 Gbits/s au lieu de 19. Résultat : la bande passante mémoire bondit à 1 008 Go/s. NVIDIA mentionne aussi une puissance FP32 d’environ 40 TFLOPS, tandis que la GeForce RTX 3090 en délivre 35,58.

Aucune date de sortie et aucun prix n'ont été annoncés, mais NVIDIA promet plus d’informations dans les prochains jours.

Source : NVIDIA

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (18)

dante0891
Si la RTX3050 est en stock et au prix normal (on l’espère), elle pourra être un bon compromis pour avoir un PC gamer abordable <br /> Parce qu’elle a l’air de tenir la route sur la papier ^^ (même si en face AMD a annoncé sa RX6500XT qui a l’air équivalente :))
Emmanuel_Angulo
J’espère que la 3050 sera mauvaise en hashrate et sera dispo facilement. Comme cela je pourrai remplacer la 1660 de mon PC secondaire…
Emmanuel_Angulo
Après, j’ai vraiment du mal à comprendre la cohérence de gamme de chez AMD… pourquoi sortir une 6500 XT alors que la 6600 est là pour occuper ce terrain du 1080p milieu de gamme.<br /> Une 6500 «&nbsp;tout court&nbsp;» aurait été suffisante pour de l’entrée de gamme. C’est comme si Nvidia sortait une 3050 ti trop proche de la 3060
_Reg24
Je sens venir le prix MRSP de la 3090ti à 1999$, et ça ne se trouvera pas en dessous de 3000€!<br /> Après, ça reste une carte pour des joueurs (très) fortuné / pro qui n’a pas les moyens pour un Quadro.
dante0891
La 6500XT est proposé pour 200€<br /> Et la 3050 pour 250€<br /> Donc à voir les tests quand elles seront dispo
Emmanuel_Angulo
Selon moi, ces deux cartes seront plutôt dans les cordes de la 1650 super
dante0891
J’espère plus parce que la 1650super est limité dans les gros jeux récents. Surtout que les nouvelles CG annoncés supporte le raytracing.<br /> Mais on verra ça dans quelques mois et de toute façon niveau dispo… lol
DrCarter95
Pensez à prévoir une alimentation de 2 000 Watts.
dredd
En tous cas nVidia la place au dessus d’une 1650 dans son descriptif en disant que ces cartes ne sont plus à même de supporter les gros jeux de la dernière génération alors que la 3050 le pourra.<br /> Mais sinon, si elle était en effet du niveau d’une 1650 même super, pourquoi l’attendre pour remplacer une 1660 comme tu l’évoque ? Quel gains à part du RT quasi inutilisable ? Le DLSS ?
Emmanuel_Angulo
Je crois pas mal au DLSS en effet.
Emmanuel_Angulo
De toutes façons la 3090ti est un paper launch d’estime. Il y en aura 5 de produites dans le monde et 2 youtubeurs qui vont s’en procurer une… Les autres seront des exemplaires prêtés à la presse pour qu’ils s’astiquent le manche sur les benchmarks
Urleur
la 3050 à 249 en théorie, faut compter 500 de nos jours, triste monde. Les gros jeux utilisent facilement plus de 4go de Vram minimum, c’est pas du luxe d’être en 6.
Emmanuel_Angulo
Si AMD réussi à placer sa 6500 XT dans les 350/400 euros réels, ça laisse de l’espoir pour la 3050
fox-idcom
+1 avec toi Emmanuel : et puis lancer un flagship quelques mois avant Ada lovelace , je trouve ça vraiment bizarre de la part d’Nvidia.<br /> De toute façon , au vu des specs , cette carte serait à peine quelques % au dessus de la 3090 (cf la diff 3080 Ti/3090 vraiment minime) , il y en aura peu de dispo et vu la nouvelle gen quelques mois plus tard cette 3090 Ti n’a vraiment que peu d’intêret.<br /> suffi de voir la maigre présentation qu’on a eu !<br /> du coup , oui , la 3050 est clairement la plus intéressante des deux.
donjuju
Curieux de voir les benchs de la 3090Ti vs 3090…
Emmanuel_Angulo
A mon avis pas grand chose. Au point que je pense que Nvidia va sortir la 3090 de la gamme.
fox-idcom
ouep , je pense comme toi Emmanuel , possible que la 3090 laisse place à cette version Ti finalement car je vois pas l’intérêt de faire cohabiter les 2 cartes vu qu’elles auront sensiblement le même niveau de perf
Archeus
C’est marrant ça parce que plus le temps passe moins elles consomment.En 2010 , les CG consommaient 450 W (exemple gtx 480). Aujourdh’ui, elle sont souvent en dessous des 250 W. Mais pour savoir ça , il faut lire les fiches techniques et ne pas e fier à ses «&nbsp;à priori&nbsp;»…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet