NVIDIA travaillerait sur une RTX 3050 8 Go, pour répondre à Intel ARC

Nerces
Spécialiste Hardware et Gaming
03 décembre 2021 à 14h15
16
© NVIDIA
© NVIDIA

À l'évidence, une question se pose : qu'en sera-t-il des tarifs et de la disponibilité réelle de cette nouvelle carte graphique ?

Alors que les pénuries semblent ne jamais devoir s'arrêter et que les tarifs sont toujours au plus haut, nous n'avons jamais eu autant d'annonces et d'informations autour de nouvelles cartes… avec un point commun : cela concerne principalement l'entrée de gamme.

AMD et NVIDIA souhaitent-ils contrer Intel ?

En toute fin de semaine dernière, nous évoquions la question de la NVIDIA RTX 3050 qui doit être plus puissante que l'ancienne GTX 1660 SUPER, mais qui risque de se frotter à l'entrée de gamme d'Intel, l'ARC Alchemist A380. Un affrontement qui semble devoir intriguer NVIDIA.

La RTX 3050 devrait intégrer 8 Go de GDDR6 sur bus 128-bit © Videocardz
La RTX 3050 devrait intégrer 8 Go de GDDR6 sur bus 128-bit © Videocardz

Aux dernières nouvelles, la sortie de cette RTX 3050 serait sensiblement avancée. Alors que nous ne l'attendions pas avant le second trimestre 2022 - sans autre précision - notre confrères de Videocardz citent un petit nouveau dans le domaine du leak de cartes graphiques.

Il convient donc de rester prudent quant à la solidité de la source, mais ce @hongxing2020 explique, via Twitter, que cette GeForce RTX 3050 sera lancée le 27 janvier prochain. Rappelons qu'AMD semble aussi devoir lancer une carte d'entrée de gamme en janvier : les deux ténors du GPU tenteraient-ils de couper l'herbe sous le pied d'Intel ?

Source : Videocardz

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (16)

SPH
NVIDIA pourrait faire un effort sur les 3070 et 3080. J’attends ça moi
Zetmor
Si y’a le decode/encode nvenc 7th gen comme les 2060/3060, ça peut servir, pour un PC stream ou de montage vidéo.
SPH
Bin, de mon côté, ce serait pour jouer en full HD.<br /> Mais bon, j’ai un espoir : quand INTEL s’attaquera aux cartes haut de gamme, NVIDIA suivra avec les 3070 et 3080…
tx41
En QHD ma 1080 TI custom tient bien la route mais pas de RT mais 700€ à l’époque. Visiblement les constructeurs rush sur l’entrée de gamme limite pour de l’ultra en FHD et RT inactivable,je ne sais pas trop avec les séries 2060 qui ont droit à leur refresh mais ces cartes sont-elles encore d’actualité en bientôt 2022 et à quel prix ?.<br /> Effectivement à quand un effort sur les 3070/80 dispo et à des prix décents car à ce rythme la série 40XX RTX sera dispo.
sebzuki
8Go pour de l’entrée de gamme hum… ça servira juste à la rendre plus cher à fabriquer…<br /> c’est inutile pour du 1080p…
sebzuki
avec 4Go tu peux manger un 10aine de stream sur un 1050… quel est l’intéret ?
Zetmor
La 1050 n’a pas le nvenc turing (7th gen), c’est la 6ième gen (pascal) : le nvenc est top dans sa dernière version (s’approchant du x264 medium), mais la 6ième gen c’est franchement pas terrible (pour du stream à bitrate 8000 et en dessous en tout cas).<br /> Pour une machine dédiée stream, c’est mieux d’avoir la dernière : GTX 1660 (ou limite une 1650 avec mémoire GDDR6, mais pas les premières), RTX 20x0 ou RTX 30x0.<br /> Après pour juste accélérer pour du montage vidéo, pourquoi pas, ça suffit pour le décodage, en faisant le rendu final en software.
mamide
La VRAM doit être en cohérence avec la puissance … un GPU qui a beaucoup de VRAM mais pas assez de puissance ne sert à rien car généralement on a besoin de plus de 4 Go de VRAM en 2K (et plus) avec des options graphiques élevées … hélas cette carte n’est pas du tout taillée pour de la 2K.<br /> Elle va être bridée par la puissance du GPU avant d’être bridée par sa VRAM. Sans oublier son bus ridicule de 128-bit.
mamide
sebzuki:<br /> 8Go pour de l’entrée de gamme hum… ça servira juste à la rendre plus cher à fabriquer…<br /> c’est inutile pour du 1080p…<br /> Tout à fait d’accord avec toi … autant de VRAM en FHD ça sert à rien et au delà du 1080p elle sera larguée à cause de sa puissance donc la VRAM importe peu !<br /> Peu être que certains trouveront un usage mais pour moi c’est une carte disproportionnée (bus ridicule, VRAM conséquent, nombre de coeurs qui ne correspond pas à la catégorie de cette carte).<br /> Du coup elle sera proposée à un prix pas du tout attractif pour ses specs !
pecore
Bien évidement qu’AMD et Nvidia ne veulent pas laisser le secteur d’entrée de gamme tomber dans le giron d’Intel. Ce serait la tête de pont qui pourrait lui permettre de pénétrer le marché plus vite et plus fort que les rouges et le verts ne le voudraient.
sylvio50
8 Go de RAM, c’est justement la quantité la plus adapté pour les jeux en 1080p pour 2021, 2022 et 2023. L’activation du DLSS pompe de la RAM par exemple.<br /> Ensuite, 3072 coeurs, c’est beaucoup pour de l’entré de gamme en 8 nm. L’Ultra haut de gamme - qui n’oublions pas, est limité par son TDP - ne fait que 4 fois plus environ soit 10288 coeurs à peu près.<br /> Lorsque l’on combine nombre de coeurs et TDP, l’écart se réduit entre l’ «&nbsp;entrée de gamme&nbsp;» et l’ «&nbsp;Ultra haut de gamme&nbsp;».<br /> Son bus de 128 bit est justement pas ridicule au regard de celui de la RTX 3090 qui fait 384 bit seulement, et cela semble suffire. Il ne faut pas reproduire l’erreur d’ATI avec sa HD 2900 512 bit dont on sait parfaitement aujourd’hui que la HD 4670 qui avait une même architecture et ne possédait que 128 bit, n’avait une chute de performance que de 25% environ. La HD 2900 256 bit quand a elle avait les même perfs.<br /> Tant que le bus ne bride pas les perfs générales de plus de 10% dans les situations extrême, ça sert à rien d’augmenter la taille du bus.
sebzuki
Pour du 1080p; les benchmarks montrent que 6Gb c’est un maximum.<br /> La VRAM sert à stocker des textures et la définition ne change pas d’un jeu à l’autre.<br /> La bande passante de la VRAM va influencer le résultat plus que ça…<br /> Quelques options peuvent la charger, mais 8Gb c’est 2Gb de trop qui ne seront jamais exploité car la carte ne va pas devenir plus puissante au cours de sa vie…<br /> Des cartes d’entrée de gamme comme les x50 ne seront pas assez puissantes pour en exploiter plus, même avec salades, tomates oignons textures et éclairages…<br /> Je ne parle pas d’édition video ou autre, mais pour du gaming, aujourd’hui ça reste juste un argument marketing…<br /> C’est bien pour ça que 10Gb c’est déclaré suffisant jusqu’au moins 2024 pour du 4k !<br /> Alors que le 4K représente des textures 4x plus grosses à stoker que le FHD (1080) !<br /> Et on a pas un rapport de 4 entre la 3080ti (12Gb) et la 3050 qui se veut 8Gb…
sylvio50
sebzuki:<br /> Pour du 1080p; les benchmarks montrent que 6Gb c’est un maximum.<br /> Je suis d’accord avec ça.<br /> 4 Go sont déjà parfois insuffisant en 2021 donc.<br /> Quelques options peuvent la charger, mais 8Gb c’est 2Gb de trop qui ne seront jamais exploité car la carte ne va pas devenir plus puissante au cours de sa vie…<br /> C’est possible. Tant que ça dépasse 4 Go de toute façon, 8 Go devient une bonne quantité.<br /> C’est bien pour ça que 10Gb c’est déclaré suffisant jusqu’au moins 2024 pour du 4k !<br /> Alors que le 4K représente des textures 4x plus grosses à stoker que le FHD (1080) !<br /> Et on a pas un rapport de 4 entre la 3080ti (12Gb) et la 3050 qui se veut 8Gb…<br /> Ça ne marche pas comme ça. Le passage du 2K (2 MPixels) au 8K (32 MPixels) n’engendre pas un passage de par exemple 5 Go de RAM occupé pour le 2K à 80 Go de RAM pour le 8K ( (32/2) * 5 = 80 Go de RAM ). Ça se saurait si ça avait été le cas.<br /> Un jeu en 2K peut tout à fait prendre plus de RAM qu’un autre jeu en 4K par exemple. Certains jeux prennent beaucoup de G-RAM et d’autre, peu.<br /> Je ne parle pas d’édition video ou autre, mais pour du gaming, aujourd’hui ça reste juste un argument marketing…<br /> Pour moi, non.<br /> 16 Go, oui, ça aurait été un (mauvais) argument marketing car payé bien cher. La GDDR6 coûte cher.<br /> Ensuite, si le GPU tient encore 2 ans, 4 Go de RAM seront insuffisant sur trop de jeux d’où le passage nécessaire à 8 Go de RAM pour de la pérennité.
sylvio50
Je viens juste de comprendre <br /> En faite, je pense que tu n’as (semble t’il) pas compris le lien entre la valeur du bus et la quantité de RAM graphique.<br /> Les fabricants utilisent une quantité de RAM multiple de la valeur du bus. Par exemple, la RTX 3060 a un bus de 192 bit, alors le fabricant met soit 1,5 go, soit 3 Go, soit 6 Go, soit 12 Go, soit 24 Go etc… . Mais pas 8 Go, ni 16 Go.<br /> Les 192 bit répartis avec des puces mémoires de 32 bit nous donne 6 puces. La densité de stockage des puces est variable (512 Mo, 1 Go, 2 Go, etc…).<br /> Avec 6 puces de 1 Go, on est à 6 Go pour la RTX 3060 par exemple.<br /> Exemple où on voit clairement les 6 puces :<br /> 997×720 308 KB<br /> (source : Palit GeForce RTX 3060 Dual OC Review - Circuit Board Analysis | TechPowerUp)<br /> La RTX 3080 a un bus de 320 bit, dans ce cas, les quantités possibles sont :<br /> 5120 Mo (10 puces de 512 Mo), 10240 Mo (on retrouve les 10 Go de la RTX 3080 dont tu parle), etc…<br /> Sur cette photo, on voit clairement les 10 puces associées au GA102 :<br /> 1220×720 287 KB<br /> (source : NVIDIA GeForce RTX 3080 Founders Edition Review - Must-Have for 4K Gamers - Circuit Board Analysis | TechPowerUp)<br /> Et enfin, pour terminer, ici, le HD 2900 XT 512 bit où l’on voit bien les 16 puces (8 sur chaque faces) associé au R600 :<br /> 3264×2448 2.6 MB<br /> 3264×2448 2.79 MB<br /> (source : ATI Radeon HD 2900 XT Review - A Closer Look | TechPowerUp)<br /> C’est pour ça que Nvidia serait bien embêté de mettre 8 Go à la RTX 3050 et laisser 6 Go à la RTX 3060. Donc, pour une question de cohérence (respect de la hiérarchie entre les GPU), la RTX 3060 passe à 12 Go. De toute façon, 6 Go est trop limite pour l’avenir.<br /> Nota : Car d’après ce que j’ai compris, tu aurais voulu que Nvidia dote la RTX 3050 (128 bit donc) avec 6 Go de RAM car selon toi, c’est suffisant, pas besoin de 8 Go car les jeux demandent moins de 6 Go mais parfois plus de 4 Go et en choisissant 8 Go, il y a 2 Go en trop et donc, c’est du gâchis ?<br /> Si il faisait ça, il devrait désactiver une partie du GPU comme c’est le cas avec les RTX 3080 (320 bit au lieu des 384 bit du processeur GA102).<br /> La RTX 3050 serait alors muni d’un bus de 96 bit au lieu de 128 bit et de 3 puces de 2 Go ? Cette carte serait moins bonne malheureusement.
Zetmor
Et sinon, pour un PC stream ou PC montage vidéo y’a moins cher : une PNY T600 !<br /> 4 Go de VRAM, bus 128 bits (160 Go/s), 640 cores cuda … ouaip c’est nul pour du jeu.<br /> Ca correspond en gros à une 1650 Mobile, sur une carte PCIe 3.0.<br /> Mais pour un PC stream ou montage vidéo, c’est top, car c’est un chip turing, avec le nvenc 7th gen : deux encoders hardware &amp; un decoder nvenc, le même qu’une 3090 par exemple, et le tout à 220€ sur amazon.<br /> Là nvidia sort une «&nbsp;grosse&nbsp;» 2060 juste pour écouler de la RAM (apparemment ça ils en ont en stock) et vendre une carte dépassée à un prix abusé.
sylvio50
Salut,<br /> J’ai regardé vite fait.<br /> Tu peux regarder ici : Comparez les GPU GeForce&nbsp;RTX série&nbsp;30 pour PC portables<br /> Encodeur NVIDIA : 7e génération<br /> Décodeur NVIDIA : 5e génération<br /> Pour toute les RTX, y compris la 3050. La T600 ne semble pas avoir 2 encodeurs matériels. C’est juste écrit que l’on peut lancer 3 sessions concurrentes (lire en parallèle). A voir plus en détail, mais cela dit, ça ne m’intéresse pas spécialement.<br /> Nota : Le décodeur de Turing est de 4th génération. On peut le voir ici aussi : Comparatif des GPU GeForce ultimes
sebzuki
D’accord avec toi, certains ne comprennent pas que 8Go sur une carte d’entrée de gamme c’est du gâchis qui coute cher, ils se rassurent en se disant que c’est bon pour l’avenir <br /> Mais en fait dans l’avenir ils changeront de carte car la leur sera de toute façon trop peu puissante… et ça n’est certainement pas la VRAM qui les sauvera… mais bon…<br /> Vous êtes de très bonnes victimes du marketing ^^
Voir tous les messages sur le forum