Intel : les processeurs de bureau 10 nm Alder Lake arriveraient cette année

Nathan Le Gohlisse
Spécialiste Hardware
10 avril 2020 à 15h25
38
Intel-CPU-processeur.jpg

Des documents émanant d'Intel en fuite sur les réseaux sociaux chinois nous informent sur ce que pourrait être la feuille de route du groupe fin 2020. Les informations dévoilées par ces documents méritent néanmoins d'être prises avec des pincettes.

Revenir à la loi de Moore et exploiter une nouvelle finesse de gravure tous les deux ans. C'était le but affiché l'année dernière par Intel lors d'un meeting dédié à ses investisseurs, en mai. Si l'on en croit un plan de route en fuite sur la plateforme chinoise Weibo, Intel s'en tiendrait à ses déclarations. La firme prévoirait ainsi de commencer à exploiter un protocole de gravure en 7 nm courant 2021 et en 2022, tandis que la seconde moitié de l'année 2020 serait sous le signe du 10 nm avec les lancements successifs de cinq produits gravés en 10 nm.

Intel10nmroadmap.jpg
Intel via Weibo


Alder Lake, la génération de puces de bureau hybride en 10 nm prévue cette année

Cette possibilité rejoint en tout cas de précédentes déclarations de Bob Swan, le PDG d'Intel. En l'état, la firme miserait sur les lancements de processeurs basse consommation Tiger Lake (pour PC portables), de puces pour serveurs Xeon Scalable sous architecture Ice Lake, de SoCs Snow Ridge (pensés pour les relais 5G et déjà lancés en partie sur le premier trimestre 2020), de ses premières cartes graphiques dédiées DG1 et enfin de processeurs de bureau Alder Lake, eux aussi gravés en 10 nm.

Pour rappel, ces processeurs de bureau Alder Lake seront vraisemblablement conçus selon une architecture BIG.little, à la manière des puces Lakefield annoncées l'année dernière par les Bleus. En clair, cette nouvelle génération de processeurs serait équipée d'une part de huit cœurs haute performance, de type Willow Cove ou Golden Cove ; et d'autre part de huit cœurs Tremont ou Gracemont, moins performants et pensés avant tout pour l'économie d'énergie.

Intel10nmroadmap-1.jpg
Intel via Weibo


Une fin d'année à deux vitesses pour Intel ?

Reste que la fin d'année pourrait être chargée pour Intel sur le secteur du processeur pour ordinateur de bureau. Selon les rumeurs, la firme préparerait également le lancement, sur cette période, de CPUs Rocket Lake. Toujours gravés en 14 nm, ces derniers prendraient le relais des processeurs Comet Lake-S attendus dans les prochaines semaines et apporteraient notamment le support du PCI-Express 4.0... tout en intégrant des iGPU Xe Graphics, à la manière des SoCs Tiger Lake.

Nous irions alors vers une offre à deux vitesses, avec la cohabitation de puces de bureau 14 nm et 10 nm... un peu comme ce que l'on trouve actuellement sur laptop avec les gammes Comet Lake-U (14 nm) et Ice Lake-U (10 nm).

Sauf clarification et/ou changement de plan entre temps, les lancements d'Intel pour les prochains mois pourraient donc perdre un peu plus encore le consommateur, et ce tandis qu'AMD, au contraire, réussit depuis deux ans à clarifier son offre avec des gammes relativement bien définies d'un point de vue technologique.

Source : Tom's Hardware

Nathan Le Gohlisse

Spécialiste Hardware

Spécialiste Hardware

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, i...

Lire d'autres articles

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, ici et ailleurs. N’hésitez pas à me retrouver sur Twitter !

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (38)

Pernel
Sauf que tu confonds TDP et consommation. D’autant qu’Intel et AMD ne le calcul pas du tout pareil, les CPU Intel consomment beaucoup plus et chauffent bien plus.<br /> Les soucis de RAM sont de l’histoire ancienne depuis bien longtemps déjà et c’est valable pour toutes les nouvelles architectures, Intel y est passé aussi.<br /> Ce qui importe au consommateur c’est le rapport perf/prix, dans ce domaine Intel est a l’amende.<br /> Sans compter que l’arlésienne du 10nm chez Intel est plus un running gag maintenant qu’un vrai espoir. Il devait sortir en 2016, tous les ans ils annoncent que ça arrive mais on ne le voit jamais, ils ont tellement de mal a produire leur puces actuelles c’est pas prêt de s’arranger sauf s’ils font graver ailleurs, c’est pas les fondeurs qui manquent.<br /> Intel ne barratine pas ? Leurs perfs supérieurs, qui ne sont qu’au mieux 5% devant dans de très rare cas pour beaucoup plus cher et plus de chauffe et conso. Le 10nm qui va tout défoncer en 2016, leurs super iGP etc.<br /> J’ai rien contre Intel tant qu’ils ne foutent pas de la tronche du monde, force est de constater que depuis qu’AMD est revenu ils essayent de sauver les meubles et ne produisent rien (enfin ça fait bien 5 ou 6 ans qu’ils ne produisent rien de nouveau). J’ai du matos de chez eux et de chez AMD en machine principal, j’en monte beaucoup et que se soit moi ou les prestataires SAV, il n’y a pas grand chose a reprocher a AMD depuis Zen+ (Zen était tout nouveau et avait son lot de défaut, personne ne dira le contraire).
TotO
En 1990 les CPU AMD étaient soit-disant plus puissantes que celles d’Intel.<br /> En 2000 les CPU AMD étaient soit-disant plus puissantes que celles d’Intel.<br /> En 2010 les CPU AMD étaient soit-disant plus puissantes que celles d’Intel.<br /> En 2020 les CPU AMD sont soit-disant plus puissantes que celles d’Intel…<br /> La réalité, c’est qu’AMD n’y arrive pas et à chaque fois c’est de l’esbroufe et des soucis de compatibilités hardware. L’histoire se répète, personne apprend de l’histoire et Intel proposera une CPU plus puissante jusqu’à la prochaine tentative d’AMD en 2030.
Blackalf
On va revenir au sujet et arrêter là les trolls puérils sur Amd <br /> PS : j’ai dit « trolls sur Amd », mais ça concerne aussi bien les trolls sur Intel, d’où les messages supprimés depuis…ça fait 25 ans que j’entend les mêmes bêtises dans les deux camps, et les mentalités n’ont pas changé depuis…faut-il en rire, ou en pleurer ?
newseven
Intel a bien faite d’attendre pour incorporer le PCI-Express 4.0.<br /> Est-ce-que les processeurs Comet Lake sont ils abandonnés pour les Alder Lake ? ou rester pour les ordinateur portable .<br /> Je suis un peut perdu là !<br /> En plus ce n’est pas fini parce-que la ddr5 va sortir et va rendre les anciennes architectures complètement obsolètes .<br /> L’année va être chargé.
Pinkuik333
J’ai un peu de mal à comprendre l’architecture BIG.little pour du desktop : c’est une recherche d’économie en utilisant la même architecture que les portables ou il y a une raison autre ?
_Dorsoduro
Pourquoi aurait il bien fait d’attendre le PCI Express 4
sources
Il n’y a de toute manière aucune domination de personne. Le retour d’AMD remet juste l’église au centre du village en rappelant à Intel qu’ils ne sont pas tous seuls. Les gens peuvent ainsi choisir entre les 2, mais ça ne changera jamais leur vie, y a du bon des 2 côtés.
fg03
Je ne sais pas ou tu as lu ou entendu ça.<br /> Intel a toujours été plus fort en perf que AMD et il est vrai que Intel et AMD n’ont pas la meme définition du TDP ce qui ne rend pas facile à juger des perf par watt consommé… les seuls fois ou Intel s’est vu inquiété c’etait à l’époque des Athlon Barton de mémoire et ou Intel avait décidé d’augmenter la consommation de façon exagéré jusqu’à 140W… par la suite les architecture multicores ont était nettement dominé par Intel jusqu’à maintenant car Intel a la même roadmap depuis 5 ans. Si tu regardes la roadmap de 2015 il parlait deja qu’ils allaient passer du 10nm au 7nm. lol<br /> Donc on peut résonnablement dire qu’AMD est en passe de battre Intel pour la 1ere fois depuis ever… reste à se mettre d’accord sur les protocoles de bench.<br /> Pour l’instant Intel est encore un chouia meilleur en jeux il me semble mais pour tout ce qui est calcul scientifique et utilisation serveur c’est AMD qui est devant. a confirmer je ne suis pas un expert et suit de loin cette saine concurrence.
christophesurman
Je lis des avis de spécialistes, des avis partisans de fans incontestés. Mais en fait tout est une question de fréquence : la fréquence à laquelle vous changez votre matériel. Demain il y aura toujours mieux, mais votre ordinateur ne suffit il pas déjà largement à l’utilisation que vous en faites?
Blues_Blanche
Pour comparer les processeurs il faut regarder le rapport prix/performances et pas les puces elles même. Intrinsèquement les Intels sont bons et forcément bien maîtrisés pour la compatibilité mémoire ou autre, vu que l’architecture est très ancienne. Par contre ils ont beaucoup de failles de sécurité qui n’ont pas été corrigées, vu l’absence d’évolution de l’architecture. Ces failles jouent sur l’optimisation des performances (cache, prédictions…).<br /> D’ailleurs au passage ces nouveaux processeurs 10 nm vont-ils intégrer des nouveautés de ce côté là ?
brice_wernet
Franchement il y en a qui ont la mémoire courte. Début 2000, quand Intel était sur les P4, d’expérience sur énormément de choses (mais pas la vidéo), un Duron 1100 valait un P4 2400 autrement plus cher. Et en calcul, AMD avait des unités de virgule flottantes de bourrin, en parallèle. Intel non.<br /> Actuellement, on peut toujours comparer le super haut de gamme, en jeu AMD est encore un peu derrière Intel, mais en traitement lourd, Intel se fait écraser régulièrement.<br /> Concernant la mémoire, Intel reste très conservateur, avec des bus à 2.4, 2.6 et seulement maintenant 2.9 GHz. AMD laisse le consommateur prendre le risque.<br /> Intel a de gros problèmes de throttling sur les 10nm, avec souvent des contre perfs entre un modèle et un modèle plus cher de la même gamme. Le 10nm pour Intel ne me paraît pas maîtrisé, soit par Intel, soit par les constructeurs.<br /> AMD sur la conso fait très très fort: Intel semble dans la panade comme à l’époque du P4, et avec les mêmes slogans: « on a plus de GHz ». Alors certes, sur 1 coeur et en boost, là où AMD mène ses CPU à leurs limites. A perfs égales, on voit des config AMD consommer moitié moins que chez Intel (en charge CPU uniquement, avec une charge GPU la proportion est moindre)<br /> Il faut bien reconnaître qu’AMD se défend hyper bien actuellement sur les CPU, marquant des points à chaque fois et si AMD n’écrase pas partout Intel, c’est un vrai concurrent.<br /> Concernant les problèmes de mémoire, les plate-formes pro AMD sont un peu bridées (2.6 ou 2.9GHz) et aucun problème n’est à signaler à ce niveau.<br /> Par ailleurs, les CPU AMD ont souvent pour moins cher plus de coeurs, et quand on fait du Web ou de l’excel, on en profite immédiatement et c’est un plus grand gain que la fréquence…<br /> Maintenant il faut reconnaître qu’AMD a une archi récente, là ou Intel ne fait rien de fondamentalement nouveau depuis 10 ans.
TotO
« Je ne sais pas ou tu as lu ou entendu ça. Intel a toujours été plus fort en perf que AMD » … C’est ce que je dis… Mais tu as toujours des magazines ou autres média pour te faire miroiter le contraire. Intel c’est la force tranquille et la garantie de compatibilité hardware.
newseven
Quand Nvidia va sortie leurs nouvelles cartes graphiques qui vont exploité le PCI-Express 4.0 .<br /> Ceux qui auront juste du PCI-Express 3.0 seront très désavantagé.<br /> La seule raison qu’on ne voir aucun avantages pour le PCI-Express 4.0 c’est parce-que la rx 5700 xt n’est pas assez puissant pour bien exploité le PCI-Express 4.0.<br /> Mais les carte graphique de Nvidia comme la rtx 2080 sature déjà le débit du PCI-Express 3.0 aux maximum et donne des contraintes.<br /> Une chose qui est sur c’est si vous avez déjà une bonne configuration N’investissez pas votre argents maintenant parce-que il va avoir de très très très gros changement en fin de l’année.<br /> Si vous voulez obligatoirement investir le PCI-Express 4.0 est plus que bienvenus.<br /> Les processeurs qui vont fonctionner avec la ddr5 seront vraiment définitivement être super plus puisant et aucun processeur actuelles ne pourront rivaliser et la 9900k deviendra juste du milieu ou du bas gamme.<br /> hitek.fr<br /> La DDR5 sera bientôt disponible et la DDR6 est déjà en cours de développement<br /> La prochaine génération de mémoire vive (RAM) va arriver très vite.<br /> On a juste a comparer les carte graphique d’AMD quand ils sont passé de la gddr4 à la gddr5 le bon technologique était magistral.
frigo
La RTX 2080 SATURE Déjà le débit du bus PCI EXPRESS 3.0 ?<br /> What ? whesh ?<br /> Le PCI express 3.0 X16 qui correspond à un débit de 16 Go/sec entre le cpu et le gpu est largement plus que suffisant !!! bien mal vous en fasse !<br /> Le PCI express 4.0 X16 qui est à un débit porté à 32 Go/sec est complètement inutile du moins dans le gaming ! C’est avant tout un argument marketing pour vendre des cartes mères à chipset x570.<br /> TechPowerUp<br /> NVIDIA GeForce RTX 2080 Ti PCI-Express Scaling<br /> It takes a lot of bandwidth to support the fastest graphics card, especially one that can play anything at 4K 60 Hz, with an eye on 120 Hz. The GeForce RTX 2080 Ti could be the most bandwidth-heavy non-storage PCIe device ever built. PCI-Express gen...<br /> l’apport éssentiel du PCI EX 4.0 x16 est pour les périphériques !! comme les SSD Nvme où avec le double de bande passante et de lignes PCI EX.Vous pourrez Mettre Plus de «disques» SSD Nvme PCI express en parallèle. à part ça ? ,ce surplus de bande passante n’a aucun intérêt ! pour celui qui ne possède pas plusieurs Périphériques SSD en m2 Nvme,sata,et GPU…
_Dorsoduro
je suis d’accord avec toi, pour l’instant il n’y a que les ssd m2 qui sature en PCI express 3. mais attendre que les cartes graphique le saturent aussi pour le sortir est complétement débile.<br /> la carte graphique bouffe déjà énormément de ligne et de bande passante. passez en PCI express 4 permettrait d’encaisser tout les pics de transfère .<br /> Pay attention to RX 5700XT Core Clock higher with X470 Chipset and R7 3700X boost<br /> better<br />
frigo
Oui ? et donc est stupide ta réponse ! Le Pci Express 4.0,en l’état n’est utile que pour les configurations disposant de 3 SSD M2 nvme + GPU dédié + cartes d’extensions telles qu’une carte son,Réseau (Wifi,Ethernet…).<br /> Pour ta vidéo de gaming,le bus, Lien de 16 Go/sec (PCI 3.0 x16) entre le CPU et le GPU est loin d’Être saturé par un misérable Jeu ne fusse que BF1 !<br /> Il faudra certainement encore attendre au moins 2 générations de cartes graphiques pour que le Bus Pci 3.0 soit saturé et génère un goulot d’étranglement.<br /> 16 Go/sec,cela peu paraître petit comme vitesse de transferts de communication ENTRE LE CPU ET LE GPU ; suffisse LARGEMENT APPAREMMENT actuellement pour les programmes vidéo-ludiques !
frigo
La seule différence Notable peut se percevoir en 1080P. Seul résolution où le CPU et Le GPU communique plus activement.<br /> En 4K,8K…Les CPUs actuels ne produisent pas assez de données vers les GPU via le bus PCI express pour saturer en donnée les GPUs même haut de gamme.<br /> Dans le Gaming ? à moins que Le CPU gère plus de tâches qu’actuellement ?? tels qu’une IA,une Physique plus élaboré…La Vitesse de 16 Go/sec sera loin d’Être dépassé ! et d’être un facteur limitant pour le GPU.
KlingonBrain
les seuls fois ou Intel s’est vu inquiété c’etait à l’époque des Athlon Barton de mémoire et ou Intel avait décidé d’augmenter la consommation de façon exagéré jusqu’à 140W<br /> Si on parle du passé, AMD a fait de meilleurs processeurs qu’Intel sur ses K7 et K8. Donc à l’époque du Pentium 4. Le P4 Prescott chez intel n’était pas une grande réussite (contrairement au Northwood), même s’il s’en tirait dans les benchs, mais à quel prix (un vrai four).<br /> Après, il faut dire la vérité, les chipsets et cartes mères intel étaient bien meilleures que les Via et nForce qu’on trouvait côté AMD.<br /> Globalement, le côté AMD était plus technique à configurer. Je me souviens de la longue quête de packs de drivers non officiels qui marchaient bien entre le nForce et ma carte graphique ATI et son bridge AGP. Et je ne parle même pas du support dans le temps parce que nVidia à arrêté les chipsets.<br /> Et sur K8 les northbridge nForce avec ventilateur… qui lachaient sur certaines carte mère, tuant le chipset.<br /> Donc pour dire la vérité, il y avait d’un côté la machine la plus perf… et celle qu’on préférait. Même si je doit dire que j’ai évité le prescott, j’ai quand même préféré intel et son P4 Northwood.<br /> Et puis c’était l’époque des condos foireux sur de nombreuses carte mères, mais la, pas de jaloux, c’était valable aussi bien côté AMD que Intel. C’est vraiment pas une époque que j’ai regretté. Je dirais pas que c’était mieux avant. Ce qui est venu après était bien meilleur. Le Core 2, quel bonheur. Et puis les composants de cette époque étaient vraiment costaud.<br /> Je sais pas si au final je me laisserait retenter par AMD pour mon prochain PC, même si je ne l’exclut pas. Mais bon, c’est pas trucs qui sortent en ce moment qui me donnent envie de changer de bécanne.
Steevenoo
En même temps les processeurs Intel ont une fréquence plus élevées que ceux d’AMD ce qui explique qu’ils sont légèrement devant en chauffant davantage !!!
GhostKilla
Un 3700x c’est 88 watts en pleine charge, un 9900k c’est 167 watts en pleine charge, donc il y a le double à dissiper chez Intel et ce serait AMD qui chauffe plus ?<br /> Et je reviens sur ton com du début sur le 3900x, sauf que le consommateur averti remarquera que sous Ashes comme tu le fais si bien remarquer, les performances sont exactement les même (à 3/4 fps) tant sur le 1080p que la 4k pour un 3700x, donc tu prends le modèle qui t’arrange pour que ça aille dans ton sens…<br /> C’est relou les fanboy qui ne peuvent accepter qu’AMD fait aussi bien avec une conso largement moindre.<br /> Et je ne parle même pas du prix, ça serait enfoncer le couteau dans la plaie !
sebzuki
Merci ça fait plaisir de voir de la modération la dessus ^^
frigo
Dans ta vidéo de gaming en plus de ne voir aucune différence de fps entre Le pci express 3.0 et 4.0 si ce n’est 1 ou 2 fps.La plupart du temps,la configuration en PCI express 4.0 a son CPU ryzen 3700X overclocker de 50-75 mhz et pareillement pour la RX 5700XT qui a sa fréquence Turbo augmenté de quelques dizaines de mhz. Et même avec ça,les résultats sont identique <br /> Donc très mauvais exemple que cette vidéo pour démonter les bienfaits du PCI 4.0.<br /> Une vidéo de Benchmark sur les transferts et débits de SSD m2 nvme en PCI 3.0 vs PCI 4.0 aurait été plus judicieuse et les résultats auraient été significatifs et bien différent dans une configuration à plusieurs SSD Nvme.
frigo
Un 3700x est à 88 watts ? sous quel logiciel ?<br /> Non! un Ryzen 3700X@stock sous prime 95 FFTS,c’est environ 130 watts de consommation pour 4.0 ghz seulement<br /> Un I9 9900K@5.0ghz ! @1.23v sur les 8 cores,sur prime 95 ffts avx,on est en début du test à 150 watts avec des pics à 200 watts. mais pour 1 Ghz de plus !<br /> Sur ce I9 9900K@5Ghz,le gars ne dépasse même pas les 80 degrés.<br /> Un 3700X @5 Ghz (Si cela été possible ) devrait-être plus ou moins au même niveau de consommation malgré sa finesse de gravure à 7 nm.Voir peut-être beaucoup plus en consommation et dépasser les 200 watts sous prime 95 FFTs avec 1 ghz en plus<br /> On est ici à 125 watts pour seulement 4.0 ghz mais avec des pic de température de 95 degrés !<br /> Comme quoi le processus de gravure des Ryzen,est encore à peaufiner pour dépasser les 4.0 ghz.<br /> Un i9 9900K en 10nm voir 7 nm,je serai bien tenté !<br /> Mais les Prochains Ryzen 4000-5000 avec du 7nm amélioré qui pourront monter en boost peut-être à 5 Ghz,je prend de suite !<br /> Edit:En même temps,Prime 95 FFTS avx est le test qui sollicite le plus vos composants et pas vraiment représentatif de l’utilisation que vous en faites,pas seulement la température du CPU mais l’ensemble de votre PC,L’étage d’alimentation ou Vrm de la carte mère est fortement sollicité ! L’alimentation ou PSU pareillement doit tenir le coup pour passer ce test.<br /> Si vous avez confiance en votre matos,allez-y ! mais si vous avez une carte mère avec 4 Vrms de 40 Ampères à chipset B450,il y a un gros risque de cramer l’étage d’alimentation.<br /> Le mieux étant un Prime 95 «normal»,Un ffts pas plus de 10 minutes,un OCCT de base voir mieux un Asus Real Bench,un Cinebench et autre Blender…Pour valider la stabilité de votre PC.
_Dorsoduro
Apparemment j’ai posté le mauvais lien. J’avais une ou l’on voyait la différence (genre +10fps) mais sa devait être du full HD. Donc moins intéressant.<br /> Pour rester dans le gaming, tu peux voir que la<br /> Futur ps5 a fait le choix d augmenter les débit entre ssd et cpu. Bcq de développeurs semblent satisfaits et comptent exploiter ce débit pour éliminer les temps de changement.
frigo
Sur PC,depuis que je suis ne serait-ce que sur des SSDs Sata 600, les chargements sont quasiment imperceptible ! Et si vous installez vos jeux PC sur des SSDs m2 Nvme,les chargements ont disparu ou presque ( pour les pointilleux ).
frigo
Les SSDs sur PS5 ne vont pas augmenter les Fps mais permettront d’éviter les Freeze,les micro-saccades.Les jeux seront plus fluide.Ils pourront alimenter plus rapidement en texture le GPU par exemple et faire office de mémoire centrale secondaire du fait de leurs débits élevés 8 à 9 Go/s (selon les dires ) contrairement à un HDD de PS3,PS4 avec ses 100-150 mo/sec <br /> Quoiqu’il en soit, si vous disposez d’au moins un CPU 6 Cores/12Threads comme un Ryzen 3600x ou un I7 8700K et avec la prochaine génération de carte graphique Nvidia et AMD comme les Nouvelles RTX 3000 series et les GPU AMD RX 5800XT,5900xt…accompagné de bon SSD nVME,les performances seront supérieures aux futures consoles. (avec au moins une RTX 3070 )<br /> espérons que la concurrence AMD sera là sur les Prochains GPUs pour baisser les prix que pratiquent Nvidia.<br /> 1500 EUROS VOIR PLUS LA RTX 2080 TI alors qu’une GTX 1080 TI ne dépassait pas les 750 euros à sa sortie.<br /> Edit:selon DICE, le future Batleflied 5 sera programmé et optimisé pour un CPU avec un Minimum de 6 cores et 12 threads. Ils disent cependant que les anciens Intel I7 4C/8Threads fonctionneront relativement bien, si ils sont «clockés» très haut en fréquence.
_Dorsoduro
J’ai un ssd nvme PCI 4 de chez corsair. En benchmark il montre 5025mo/s. Les debit sont excellents et en applicatif aussi, c’est bcq plus transparent en charge. Par exemple, une sauvegarde complet du système pendant une partie est totalement transparente. Par contre en gaming il faudra qu’il optimise leur code. Parceque tu gagnes casi rien.<br /> Édit: Justement je penses pas que sa soit seulement une question de threads. Battlefield 5 sur ssd nvme de pc reste long à charger.<br /> Le ssd de la ps5 sera aussi rapide que la ddr3. Mais sa sera aux développeurs de choisir la répartition des données entre ram et ssd. Sans bottleneck plus besoin de tout charger en ram. Si on a ce genre d optimisation sur pc. Sa serait top.
frigo
Personnellement,je n’ai qu’un SSD Nvme 500 go Samsung 970 evo sur lequel,j’ai installé le système d’exploitation.<br /> Pour le Gaming ? Mes Jeux sont installés sur des SSDs Samsung 860 Evo 1TO (Sata) et un 500 go 850 evo (Sata) avec le rapid mode actif.<br /> Les chargements sont présent mais pas omniprésent et cela ne nuit en rien à l’expérience du Jeux,aucun Freeze,aucune saccade.<br /> C’est le jour et la nuit avec un HDD classique !<br /> Si il y avait un Disque dur mécanique à conseiller pour le Gaming,ce serait les SSHD de Seagate , Les Firecuda qui dispose de 8 GO de mémoire Nand MLC. Quand les textures et autres données du jeux sont chargés dans le cache de 8 go,les chargements sont imperceptibles au recommencement de niveau et les micro saccades,freeze,de même ne sont pas perceptible à moins d’être très pointilleux.<br /> Mais dés que ce Disque Défailli,je le remplace pour un SSD. Le cache de 8 GO accélère certes les temps de chargement,les temps de réponses… mais ce n’est pas suffisant au regard des performances d’un SSD sata 600 et encore mieux d’un SSD Nvme.<br /> Mais pour 110 euros les 2 TO,c’est une bonne affaire ! pour celui qui ne peut se permettre de mettre 550 euros dans un SSD nvme de 2 TO.<br /> Le Top pour Un PC,serait 3 SSD Nvme de 1TO + 1 SSD 2 TO Sata (Minimum). La facture serait très salé mais les performances seraient au rendez-vous !
frigo
Attention,les Débits de la DDR3 même en 1600 mhz c’est 18 et 25 go/sec,on est vachement loin des débits annoncés en compression de la PS5 au max 9 Go/sec.<br /> Tout système informatique passe par un chargement des données en mémoire vive.<br /> Même dans la PS5,il y a différentes mémoires, les 16 go gddr6 + la Mémoire du SSD.<br /> Pour que les Données soit lu directement par le CPU sans passage par différentes mémoires,il faudrait comme un Gigantesque Cache Mémoire ultra rapide tout en faisant office de support de stockage.Chose impossible actuellement ou extrêmement coûteuse.<br /> Le bottleneck,cela signifie goulot d’étranglement.Le goulot d’étranglement est lorsqu’un composant limite la puissance d’un autre.<br /> Dans le cas du BUS Pci express par exemple, si il n’ y avait qu’un débit de 1go/sec,il y aurait un goulot d’étranglement.Le GPU ne recevrait pas assez de données du CPU.<br /> Pour le CPU,il y a goulot d’étranglement lorsque celui-ci ne débite pas assez de données,d’images à traiter pour le GPU. C’est ce que l’on nomme CPU Bottleneck.<br /> Sur PC,si votre configuration est équilibrée,il n’ y a aura pas de goulot d’étranglement.<br /> Ne pas mettre par exemple un i7 2600K avec une RTX 2080 TI,le GPU sera clairement sous alimenté.<br /> Pour les futures consoles à priori, il n’ y aura PAS de goulot d’étranglement comme avec la PS4 ET XBOX ONE X qui était limité par leurs CPUs Jaguar vraiment peu puissant !<br /> Ici à priori,les Cpus Ryzen «modifiés» des nouvelles Consoles ne vont plus limiter la partie GPU.
newseven
tu as parfaitement raison pour tout suite mais bientôt les nouvelles cartes de Nvidia vont sortir et c’est sûr que Nvidia va exploité le pci express 4.0 au maximum dans les futures drivers.<br /> Là le pci express 4.0 n’est pas encore rendu une norme démocratisé dans le monde du pc.<br /> Mais avec l’arriver de la nouvelle génération d’Intel et la démocratisation du pci express 4.0 les chose vont changer.<br /> C’est quand même moins pire que l’histoire entre le PCI vs AGP vs.PCI Express lol. <br /> Ce qui est le plus dommage c’est que rien vas sortir pas avant la toute fin de l’année 2019 et début 2020.<br /> Surtout avec la situation actuelle dans monde.<br /> tout est paralysé à cause de la maladie.<br /> Et en plus pour en rajouter une couche les consoles seront de vrai machine de guerre et pourraient faire de l’ombre dans le monde du pc.<br /> Donc il y a beaucoup de changement dans l’air.
frigo
La bande passante du PCI express 4.0 qui est de 32 go/sec contre 16 go/sec pour le 3.0 ne sert qu’au chargement des textures et des niveaux en Vram.<br /> Là où le PCI express 4.0,pourrait apporter un gain dans les jeux -vidéo,c’est essentiellement pour les cartes graphiques disposant d’une faible quantité de mémoire vidéo.<br /> Le manque de mémoire vidéo est puisé dans la mémoire vive via la connexion à 32 go/sec du PCI express 4.0.Ce qui augmente jusqu’à 40 % les fps sur certains jeux sur des cartes graphiques équipées de seulement 4 go.<br /> Mais pour la même carte en 8 GO,l’effet du PCI express 4.0 est Nulle puisque sa mémoire vidéo est suffisamment grande.<br /> Et pour les Prochaines Nvidia RTX 3000 série,elles seront toujours câblées en 3.0 x16 !<br /> Le Comptoir du Hardware – 23 Dec 19<br /> Le PCIe 4.0 : un avantage pour les cartes en manque de VRAM ?<br /> La RX 5500 XT sauce 4 Go révèle une sensibilité toute particulière à la bande passante PCIe, mais pourquoi ?<br /> Pas vraiment d’intérêt qu’est le PCI Express 4.0 EN GAMING.Les futures chipsets Z490 pour les CPUs Intel Comet Lake seront toujours câblés également en 3.0.<br /> Le surplus de Lignes PCI express est utile pour la bande passante des SSD M2 Nvme mais complètement inutile pour le gaming <br /> Et c’est vrai ! rien que pour la vitesse des ssds en PCI express,il serait temps qu’Intel passe au PCI EXPRESS 4.0 !<br /> Enfin,pour les Consoles dans un premier temps,elles seront très puissante début 2021 mais vite rattrapé par l’évolution sans cesse des composants PC.<br /> à partir de la Prochaine génération de GPU Nvidia ici sortant vers l’été (les RTX 3000), et les cpus Intel Comet Lake en I9 10900k 10C/20T @ 5.3 ghz et les I7 10700k 8C/16T @ 5.1 ghz ,les consoles auront déjà pris un coup de vieux !
GhostKilla
Dans ta vidéo le PPT du 3700x est modifié, de 88 watts (soit la valeur par défaut) à 130 watts, forcément la consommation monte à 125 watts, tu t’attendais à quoi ?<br /> Donc je ne vois pas où tu veux en venir, moi je te parle en restant sur les valeurs par défaut, le 3700x égale le 9900k en restant deux fois moins gourmand, je ne te parle pas d’OC ni quoi que ce soit du genre.
newseven
De tout façon pour moi les jeux se passe avec une télévision 4k en 60 hz.<br /> Donc entre une 9400f ou 9900k cela fait pratiquement aucun différence pour moi.<br /> Je suis limité par la puissance de la carte graphique.<br /> Tout le monde sait que les processeurs d’AMD n’aime pas overclocking .<br /> Mais la démocratisation du pci express 4.0 avec le perfectionnement des logiciels et des drivers les chose vont certainement évoluer.<br /> Ce que je dis c’est que le pci express 4.0 est juste une corde de plus à son arc.
pemmore
J’ai deux pc similaires, un intel atom d510, 1,7 ghz un quadcores avec 4 go de ram, et un acer avec aussi un quadcores AMD 4 go de ram, des vitesses similaires, ben l’intel atom rame parce que le pipeline est en ligne et réagit comme un dualcores les proc utilisés continuellement à 100%, sur l’acer sauf hasard ça se traine tous les 4 à 30% sans plus car le pipeline est not in line, chaque core est alimenté ensemble.<br /> En gros amd en fait plus avec moins de moyens dans ce cas.<br /> J’espère qu’intel a abandonné ce truc stupide sur les proc à 600€ et laissé tomber le pipeline en ligne.
_Dorsoduro
Frigo a très bien résumé. Et il a raison .Dans le cadre du gaming le pci express 4 ne sert a rien. NVIDIA et AMD ont déjà doté leur carte graphique de mémoire ultra rapide en grande quantité. Pour l’instant il est utile que sur les gros postes de plusieurs ssd nvme. c’est une bonne chose, Intel dort un peu trop sur c acquis. Même si les gains sont mineurs malgré tout elles serviront. Manquerait plus qu’un leader (ex. Samsung) se décidé de faire un haut gamme compatible…<br /> AMD n a pas le choix,<br /> Avec la multiplication des coeurs dans leur techno. Il faudra bien nourrir les CPU. (Mobo bi CPU). Chez ps5 aussi ils veulent accélérer les debits. Ils font la chasse au temps de chargement.<br /> Mais vu qu ils sont tout seul. C’est pas sûr que sa se démocratise. Comment sa serait kiff si les développeurs décident de charger les textures au fur et à mesure que tu te déplaces dans la map et non en one shot au début.
_Dorsoduro
@frigo les données du ssd de la ps5 passeront forcément par la ram. Les 9go/s seront décompressés en ram mais a cette vitesse le PCI Express 3.0 x 4 ne passe pas.
frigo
Le Comptoir du Hardware – 7 Jul 19<br /> Test • AMD Zen 2 : X570 &amp; Ryzen 7 3700X / Ryzen 9 3900X<br /> Test des premiers CPU ZEn2 : les Ryzen 9 3900X et Ryzen 7 3700X, ainsi que leur chipset compagon l'AMD X570. Les cartes mères utilisées sont les Gigabyte X570 Aorus Master et Asrock X570 Taichi.. Comparaison de 15 références CPU sur des jeux,...<br /> Sous (Visual Studio 2019),le Ryzen 3700X avec ses 4 Ghz «seulement» (consommation à la prise en charge ) consomme 150 watts contre 147 watts pour le I9 9900K avec des pointes en turbo sur 2 cores à 5 ghz.<br /> En consommation en charge (12V),donc en lecture logiciel moins précise le Ryzen 3700X donne 96 watts contre 106 watts pour l’I9 9900K.<br /> Donc non,il est loin d’égaler l’I9 9900K ! et sa consommation est plus ou moins similaire pour un écart de fréquence de 1 ghz et malgré une finesse de gravure de 7 nm pour l’AMD.<br /> à 5Ghz @1.30V,les Ryzen 3700x explosent le compteur en watt !<br /> Et cette vidéo linké ci-dessus était juste un test sous prime 95 FFTS d’un Ryzen 3700X à défaut donc à 4.0 ghz dont la consommation était de 125 watts.<br /> La consommation est en rapport avec le voltage,la fréquence,L’architecture et la finesse de gravure.<br /> Le Comptoir du Hardware – 14 Nov 19<br /> Test • Ryzen 9 3950X vs Core i9-9900KS<br /> Test des processeurs Ryzen 9 3950X à 16 cœurs et Core i9-9900KS à 8 cœurs. Comparaison de 25 références CPU sur des jeux, encodage, traitement d'image et vidéo, rendu 3D, compression, encryptage, compilation et divers benchmarks synthétiques et...<br /> Sur Handbrake X264,un logiciel de compression,non seulement le 3800X consomme plus que le I9 9900K 145 watts contre 195 watts pour le 3800x et qui plus est l’Efficacité énergétique sur ce logiciel bien précis est supérieur 127.2/watts pour le i9 9900K contre 105.1/watts pour le 3800X.
frigo
Depuis les Cpus intels Haswell,Intel utilise un Ring Bus qui est un bus de communication circulaire qui relie chaque core aux blocs de LLC le cache L3 (également appelé LLC, Last Level Cache).<br /> Ce ring bus relie également la partie chipset (System Agent) et le GPU intégré.<br /> Pour ton Intel Atom D510,ce n’est pas un 4 cores mais «seulement» un 2 cores /4Threads où les 2 cores sont reliés par les différents caches mémoires,sans architecture à «maillage» sans bus circulaire mais avec un simple bus en ligne.<br /> Du coté de Amd ce n’est pas mieux niveau architecture et élégance,car pour un CPU 8 cores, ce sont des blocs de 4 cores (les ccx) collés aux 4 autres blocs de 4 cores par un unique bus ou pipeline en ligne (l’infinity fabric).<br /> Et dans ces Blocs de 4 cores ,les 2 cores sont aussi collés aux 2 cores adjacent par LE CACHE L3 .<br /> C’est ce qui rendait très lent les premiers Ryzen 1700X à cause des latences des caches mémoires très lentes.<br /> La solution a été d’augmenter la latence de ses caches,la vitesse du bus infinity fabric,l’accès au contrôleur mémoire et pour avoir une rapidité dans les jeux mettre un gros cache mémoire démesuré (le game cache) 32 MO L3 sur les Ryzen 3700X.<br /> à voir si à terme,cette architecture «si simple» en apparence pourra être encore optimisé au point d’obtenir + 25 % de performances par rapport au Ryzen 3000.<br /> Le vrai défi pour AMD est la montée en fréquence de cette architecture,seul point où ils peuvent grappiller des performances.<br /> Pour Intel,c’est leur Finesse de Gravure qui les Freine.
newseven
J’ai rien contre les comparaisons .<br /> Mais pouvons nous comparer des processeurs de même valeur parce-que le 9900k vaut environ 33% plus cher que le 3700x .<br /> Tout monde sait que le 9900k est le meilleur processeur pour les jeux sa fait aucun doute pour tout suite.<br /> Mais même sur la 14 page du test du lien on peut voir que Metro Exodus et gta 5 sont nez à nez.<br /> C’est très surjectif les test ; tout dépend des choix de la résolution et des jeux que l’on choisit .<br /> Souvent pour des test de processeur on prend souvent le 1080p ou le 1440p mais pas jamais le 4k parce-que la différence est très subtile 1 à 2 fps maximum.<br /> Aussi je constate qui a une évolution dans les performances des processeurs d’AMD avec des meilleurs drivers et l’optimisation des bios.<br /> Je me souviens que les performances du ryzen 3600x était beaucoup moins performant à la sortie.
GhostKilla
Un bon article, déjà pour savoir que personne n’atteindra les même valeurs :<br /> https://www.anandtech.com/show/13544/why-intel-processors-draw-more-power-than-expected-tdp-turbo<br /> exemple Anandtech arrive à 167 watts en pleine charge, Tom’s Hardware arrive à 155 watts en pleine charge (encodage vidéo), bref y’a plein d’exemple qui prouve que selon ta config, ton 9900k peut consommer bien plus qu’attendu.<br /> Et les derniers bruits dans la presse spécialisé sur les 10900 ne sont pas encourageant du tout avec des proc qui dépassent les 200 watts
newseven
Il ne faut pas oublier le facteur de la carte-mère et de la mémoire qui peuvent jouer un rôle dans la consommation.<br /> La qualité du Power-supplies 80 plus(gold)(platinum)(silver)(titanium)(bronze) ect.<br /> Température de la pièce.<br /> Une pièce plus chaude demandera plus de puissance pour le refroidissement.<br /> Il y a tellement de facteur qui peut revenir en compte.<br /> Il y a aussi des subterfuge comme des petits oc caché dans le bios des carte-mères pour dire quel est plus performante que d’autres.<br /> Dans les nouvelles carte-mères d’AMD la x570 consomme plus que sur une x470 qui fait la même job sans le pci express 4.0 ou (± compatible).
frigo
Ton article que tu présentes en lien explique la différence entre le TDP et la consommation en watt d’un CPU.<br /> Mais le TDP, dans son sens le plus strict, concerne la capacité du refroidisseur à dissiper la chaleur. Et beaucoup de personnes confondent TDP et consommation du CPU.<br /> Bien sur qu’un I9 9900k peut avoir une consommation différente selon les Usages,c’est une évidence ! un I9 9900K @ stock dans la plupart des jeux-vidéo ne dépassera pas les 70 watts de consommation.<br /> Par contre encore une fois sous PRIME 95 FFTS avec les instructions AVX,un I9 9900K @ 5 ghz @ 1.23v pourra atteindre en PIC les 200 watts de consommation ! mais c’est un cas extrême ! personne ne sollicite son CPU comme Prime 95 FFTs peut le faire.<br /> La consommation en watts d’un CPU, dépend de son Voltage,de l’ampérage ,de sa fréquence,de sa finesse de gravure et de la charge d’utilisation des cores par le Logiciel.<br /> Tom's Hardware<br /> AMD Ryzen 7 3800X Review: Core i7 Has a New Challenger<br /> We grabbed a Ryzen 7 3800X off a retail shelf to give it a spin in our test lab.<br /> On peut voir dans cette article la consommation sous des logiciels comme Handbrke,Y-Cruncher,aida 64.<br /> Rtzen 3700x @4.3 ghz 126 watt i9 9900K 113 watts sous aida 64<br /> Rtzen 3700x @4.3 ghz 138 watt i9 9900K@stock 138 watts sous Handbrake<br /> Rtzen 3700x @4.3 ghz 132 watt i9 9900K@stock 126 watts sous Y-Cruncher<br /> à défaut les Ryzen 3xxx consomme peu mais dés que l’on hausse la fréquence ne serait ce que de 200 mhz la consommation s’envole !<br /> Autre exemple un 3900X:<br /> https://www.overclock.net/forum/10-amd-cpus/1726514-amd-ryzen-7-3700x-3800x-ryzen-9-3900x-54.html<br /> Un 3900X:<br /> Stock auto everything Cinebench R15:<br /> 3138-3160 score<br /> 4017.5mhz-4042.5mhz clock speed<br /> 61.6 C temp<br /> 145.263 watts power draw<br /> Stock auto everything Prime95 small fft:<br /> 3718mhz-3742mhz clock speed<br /> 58.1 C temp<br /> 132.190 watts power draw<br /> 4.3Ghz @1.3V manual OC Cinebench R15<br /> 3328-3349 score<br /> 67.6 C temp<br /> 161.340 watts power draw<br /> 4.3Ghz @1.3V manual Prime95 small fft:<br /> 93 degrees C temp<br /> 245.083 watts power draw<br /> Enfin dernier exemple sous ce test tout en bas: POWER Consumption<br /> ExtremeTech – 7 Jul 19<br /> AMD's Ryzen 7 3700X and Ryzen 9 3900X Reviewed: Red Storm Ryzen - ExtremeTech<br /> AMD's third-generation Ryzen 7 3700X and 3900X CPUs are a comeback 14 years in the making.<br /> Tout cela pour dire qu’il ne faut pas exagérer les propos et que pour du 14 nm à 4.7 ghz sur les 8 cores,la consommation n’est pas exagéré.<br /> Les reproches fait à Intel n’ont jamais été envers une consommation excessive ! mais le rapport Performance/prix,l’absence, d’innovation de l’architecture,la finesse de gravure qui est toujours en 14nm,et la marge d’overcloking plus limité que les précédentes «architecture».<br /> Les 10900 K seront des 10C/20Threads toujours en 14 nm avec des fréquences dépassant les 5.3 ghz,inutile de dire que sous prime 95 en PIC,on sera à plus de 200 watts.<br /> Les Ryzen 3000 ont été une innovation majeure dans les Cpus grand public qui a permis d’avoir des cpus avec plus de 4c/8T.<br /> Espérons que AMD continue sur sa lancée et nous propose des Ryzen 4000 avec des Fréquences plus haute,seul frein à la montée en performance.<br /> Pour les Futurs Ryzen 4000,ne nous attendons pas à un saut de performance de + 25 % comme entre les 2000 et les 3000,tout au mieux ce sera du +10-15 %.En tous cas,la concurrence cela est bon pour le consommateur et enfin pour la Prochaine Fournée de CPUs,les Prix seront probablement revue à la baisse du moins chez Intel.<br /> En tous cas pour moi, même si il n’ y a que 10 % de performance en plus chez les Ryzen 4000,je me prend une configuration Full AMD.<br /> INTEL c’est Fini !
Voir tous les messages sur le forum
Haut de page

Sur le même sujet