NVIDIA : un processeur ARM avec GeForce intégrée pour les PC Windows en 2025 ?

31 mai 2024 à 14h32
13
NVIDIA veut profiter du boom à venir des PC d'IA. © Rokas Tenys / Shutterstock
NVIDIA veut profiter du boom à venir des PC d'IA. © Rokas Tenys / Shutterstock

Les premières rumeurs concernant le prochain processeur de NVIDIA dédié aux PC Windows commencent à parcourir la toile, et elles donnent d'importants indices sur les ambitions du géant des semi-conducteurs.

Lors d'une interview avec Bloomberg, Jensen Huang et Michael Dell, dirigeants respectifs de NVIDIA et de Dell, ont suggéré l'arrivée, dès l'année prochaine, d'un SoC destiné aux PC Windows signé NVIDIA. Leur intervention a intensifié les spéculations sur ce très attendu processeur, avec la parution des possibles caractéristiques dont il serait doté.

Des premières caractéristiques font surface

Ainsi, la partie traitement de la puce serait basée sur l'architecture Cortex-X5 BlackHawk d'Arm, d'une carte graphique intégrée NVIDIA Blackwell, la prochaine puce d'IA superpuissante de l'entreprise, et d'une mémoire LPDDR6, le tout dans un seul et même boîtier. Concernant le nœud utilisé, les systèmes 3 nm d'Intel et de TSMC sont cités, le constructeur taïwanais semblant tout de même un choix logique que son homologue américain au vu des collaborations récentes de NVIDIA.

Cette puce serait, par ailleurs, issue de son étroite collaboration avec la société MediaTek, qui fabrique également des cockpits automobiles basés sur GeForce RTX.

Dès la fin de l'année dernière, la très renseignée agence de presse Reuters assurait que NVIDIA travaillait sur une puce ARM pour venir équiper les PC Windows, avec un focus spécifique sur l'intelligence artificielle. L'objectif : parvenir à faire tourner les modèles localement sans forcément passer par le cloud. Ces nouvelles rumeurs tendent, aussi, à pencher dans cette direction.

NVIDIA a présenté sa puce Blackwell au mois de mars. © NVIDIA
NVIDIA a présenté sa puce Blackwell au mois de mars. © NVIDIA

La demande en puces d'IA pour PC va drastiquement augmenter

S'immiscer sur le marché des CPU tombe sous le sens pour NVIDIA. L'entreprise est l'une des grandes gagnantes du boom de l'IA générative, tandis que de plus en plus de fabricants de PC souhaitent intégrer la technologie dans leurs appareils. L'annonce récente de Copilot+ PC par Microsoft le prouve.

Pour l'heure, aucun autre détail sur ce nouveau SoC n'a été précisé, à l'instar de la puissance du NPU, du nombre de cœurs du CPU ou des caractéristiques du GPU basé sur Blackwell. Il est encore trop tôt pour connaître ces détails, que NVIDIA devrait élaborer dans les prochains mois. Une chose est sûre : la compétition avec Qualcomm s'annonce féroce. Le géant américain a récemment présenté ses puces Snapdragon X Elite, proposant des capacités d'IA avancées.

Quels sont les meilleurs processeurs ? Comparatif 2024
A découvrir
Quels sont les meilleurs processeurs ? Comparatif 2024
15 mai 2024 à 11:00
Comparatif

Source : VideoCardz

Mathilde Rochefort

Avide de nouvelles technologies et particulièrement férue de la marque à la pomme, j’en fais mon métier depuis près d’une décennie. Réseaux sociaux, IA et autres applications… Je partage mon expertise...

Lire d'autres articles

Avide de nouvelles technologies et particulièrement férue de la marque à la pomme, j’en fais mon métier depuis près d’une décennie. Réseaux sociaux, IA et autres applications… Je partage mon expertise quotidiennement sur le World Wide Web.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (13)

norwy
L’IA locale et sans Cloud sera le nemesis de tous ces nouveaux acteurs qui misent sur des data centers pour parasiter les terminaux de leurs futurs utilisateurs et leur coller un abonnement souvent inutile.<br /> Bravo.
julla0
SOC utilisable pour une nouvelle shield ?
_Reg24
Ce virage du x86 vers ARM pourrait donner des choses très intéressante, le duopole Intel / Amd seront concurrencé par d’énormes monstres comme Qualcomm et Nvidia.
Agalma
La fin du x86 d’Intel s’amorce.<br /> Les errements d’Intel, entreprise d’ingénieurs transformée en machine à cash par la financiarisation de l’économie US (comme Boeing qui passe sous le contrôle d’une agence étatique pour gérer les c* des financiers). Pour ces entreprises le résultat est structurellement identique.<br /> Patent, le manque d’investissement dans la finesse de gravure et la subite incapacité des ingénieurs embauchés à avancer a été fatal puisque TSMC qui était bien retard a finalement rattrapé et dépassé Intel. Vieux jeu d’instructions (1978), moins efficient énergiquement, inadapté pour les téléphones mobiles, et pas d’évolution de la finesse de gravure pour compenser la consommation, la liste commence à être (très) longue pour le x86 face à ARM (1990). Et ce n’est pas fini.<br /> La transcription de Windows pour ARM (2011) aurait dû sérieusement les alerter, il n’en a rien été. Celle de la Pomme (2020) vient clore le débat.<br /> Intel n’ a jamais eu de véritable concurrent ; AMD était battu à plate-couture et ne pouvait rivaliser avec leurs ingénieurs jusqu’à l’arrivée de Lisa Su (2014) qui a, littéralement, sauvé AMD de la faillite. AMD a remonté la pente et a pris des parts de marché tant pour le grand public que pour le secteur professionnel où il n’existait pas. Et ce n’est toujours pas fini dans la dégringolade.<br /> Incapable d’avancer sur la gravure, Intel est obligé de demander à TSMC de lui graver ses processeurs pour rester compétitif dans le marché des portables qu’il possédait (toujours) à 100%.<br /> Fidèle parmi les fidèles d’Intel Dell a mis des années à introduire AMD dans son offre portable, et seulement pour un ou trois modèles d’ordinateur.<br /> Là, sans quitter x86 pour autant, avec W11 ARM Dell passe à ARM avec Qualcomm et l’an prochain Nvidia.<br /> Le coup de grâce arrivera quand MS va transcrire Direct X 12 sur ARM ce qui n’est pas (encore) le cas pour W11 ARM. MS ne peut pas laisser Vulkan comme API de jeu des futurs ordinateurs ARM qui tourneront sous Windows comme il l’est déjà pour les téléphone mobiles/tablettes Android. C’est impossible. Cela ferait basculer le monde du jeux (PC et à terme console) vers une API libre de droits et la fin du monopole sur les jeux. Donc x86 perdra aussi, à terme, le monopole du jeux sur ordinateurs. Que va-t-il rester au x86 d’Intel ?<br /> Sous l’impulsion d’un fonds actionnaire, au vu de la situation, Intel a nommé (2021) Pat Gelsinger PDG. Ex Intel, ingénieur, il a compris le danger ; il veut rattraper TSMC sur la gravure, créer un TSMC-like, et se mettre au travail. Intel reçoit actuellement les dernières machine d’ASML, seul fabricant des machine lithographiques pour processeurs. Gelsinger est l’artisan de la fabrication des Arrow Lake qui vont sortir bientôt, mais gravés en 3nm par TSMC.<br /> Ces processeurs x86 vont-ils être aussi efficient que les ARM de Qualcomm et de Nvidia en terme énergétiques ? Parce que la question est là et nulle part ailleurs. Or, par nature, le x86, contrairement à ARM, n’a jamais été pensé en ces termes.<br /> C’est le moment de vérité pour Intel. Arrow Lake va donner une première réponse bancale : gravé en 3nm par TSMC, que vaudra-t-il face à Qualcomm et au futur Nvidia ?<br /> Intel saura-t-il arriver au 3nm tout seul ?<br /> Combien de temps vont-ils sous-traiter à Taiwan ?<br /> Enfin, le x86 est-il encore viable ?<br /> Voilà les questions posées.
wackyseb
Quand on regarde objectivement les perf des puces Apple, les fameuses M1 à M4, force est de constater qu’elles sont loin d’être ridicules face aux X86.<br /> Si on regarde l’autonomie des PC portable, là, il n’y a même pas débat. Apple laisse sur place tous les concurrents.<br /> Je ne suis pas très PC portable, ni console portable d’ailleurs.<br /> Ce que j’attends, c’est justement un PC fixe en ARM Nvidia sans solution graphique integré (ou le minimum mais desactivable) pour y adjoindre une vrai carte graphique dédiée.<br /> Et là, il y a de grandes chances (si les API sont prêtes et performantes) de rivaliser, voir écraser et même enterrer le X86.<br /> On devrait pourvoir drastiquement réduire la consommation de l’ensemble, voir trouver un nouveau form factor pour le format tour
brice_wernet
Pas en tablette, il semble que l’accord avec Nintendo courre toujours (NVidia ne peut pas créer de tablette)
brice_wernet
Ca va plus loin. C’est la fin annoncée de l’ordinateur «&nbsp;industriel&nbsp;» comme on le connaît. Nos PC avec des cartes d’extensions, c’est fini. C’est anti écologique, c’est inutile, c’est extrêmement coûteux à produire (carte mère multicouches, avec plein de bus), et c’est une architecture surannée avec un CPU central qui fait tout.<br /> Ce n’est pas tant le x86 qui pèse (80k transistors pour l’implémenter) que l’héritage «&nbsp;industriel&nbsp;» du PC.
brice_wernet
Actuellement, on peut jouer sur des PC qui consomment 60W à fond. Adjoindre une RTX, ça ne changera pas grand-chose à la conso.<br /> Un ARM «&nbsp;performant&nbsp;», c’est jusqu’à 60W de conso (chiffres qualcom, et même Apple) pour rivaliser avec un Ryzen (qu’on peut mettre à 60W aussi)…<br /> Un Apple M1, c’est proche des perfs d’un Ryzen 25-35W (bon, parfois il l’écrase, parfois c’est le ryzen qui l’écrase)<br /> La conso CPU, c’est beaucoup le cache. Ensuite, il y a la RAM qui consomme pas mal non plus.<br /> Je n’attends pas vraiment de miracle si on compte garder les programmes actuels et leur complexité (100Mo de ram consommés mini pour afficher des SMS sur un tel, standard d’affichages stupides comme le HTML et le CSS, beaucoup moins automatisables que du PDF ou du Postscript en son temps …)
julla0
Dans mon cas c’est plutôt la box qui m’intéresse.
wackyseb
On ne doit pas parler des memes PC alors.<br /> J’ai une consommation en pick de 650W. J’ai une alim de 1000W<br /> Rien que le GPU c’est plus de 300W.<br /> Le CPU c’est 105W de TDP. Je ne connais pas sa consommation réelle.
brice_wernet
Un Ryzen 7 de 105W, à 65W il donne plus de 90% de ses perfs.<br /> J’utilise depuis des années des PC à conso limitée (alim de 300W maxi pour celui de jeux, CG de 70W maxi). Mon PC principal est un Ryzen 35W. Pas de CG. Conso en pointe: 60W (alim: 65W). Utilisation: dev, internet, jeux, et maintenant IA (mais là un NPU ferait du bien).<br /> Du coup, je vois bien l’intérêt de PC ARM, mais aussi que ça ne va pas changer grand-chose dans mon cas, ou dans le cas des PC bureautiques, sauf le prix.<br /> Et l’argument n°1, c’est TOUJOURS le prix pour la plus grande masse (pas pour les passionés).<br /> Les ARM permettront de créer des PC normalement moins chers - mais on l’a déjà fait avec les Atom, Celeron, Pentium ou la Surface RT… on sait que ça se vend à la pelle. En espérant que les variantes ARM futures soient plus convaincantes.
wackyseb
brice_wernet:<br /> J’utilise depuis des années des PC à conso limitée (alim de 300W maxi pour celui de jeux, CG de 70W maxi).<br /> Je ne doute pas qu’il démarre et serve à faire quelques jeux casual.<br /> Je vois beaucoup moins un PC de ce genre faire tourner un Cyberpunk en 1440p raytracing !!!<br /> Même avec le DLSS, çà ne fonctionnera pas du tout.<br /> Idem pour de l’encodage vidéo où c’est la carte graphique qui me permet d’encoder à 475 fps soit 16x la vitesse en H264 1080p.<br /> brice_wernet:<br /> Mon PC principal est un Ryzen 35W<br /> Le miens un Ryzen 9 3900X stock. Aucune modif de fréquence.<br /> Le GPU une RTX 3080 12Go<br /> brice_wernet:<br /> Et l’argument n°1, c’est TOUJOURS le prix pour la plus grande masse (pas pour les passionés).<br /> L’argument pour moi est un peu différent. J’ai besoin de puissance de calcul pour le traitement vidéo, pour les encodages. Et aussi ne pas attendre 10j où je ne pourrais pas utiliser mon PC car monopolisé pour une tache.<br /> Je ne change pas tous les 4 matins de config non plus. Le boitier a déjà vu passer 3 config.<br /> mon précédent processeur était un Intel I7 3770k. Il a eu une longue carrière<br /> Ma précédente carte graphique était une 1080 qui s’est retrouvé limité à une époque où j’ai eu un écran 4K pour bosser.<br /> brice_wernet:<br /> En espérant que les variantes ARM futures soient plus convaincantes.<br /> Je te rejoins totalement.<br /> Même si je sais que les premières machines seront certainement des PC Portable et là, je ne suis clairement pas la cible.<br /> Comme Apple l’a fait avec son M2 décliné en M2 Pro puis M2 Max puis M2 Ultra, c’est un modèle type Max ou Ultra que j’attendrais.<br /> 48 ou 76 Coeurs physiques.<br /> La partie NPU et toutes déclinaisons IA, je n’en vois pas l’utilité. Seule le traitement d’image DLSS ou DLAA mais c’est la CG qui gère.<br /> J’ai bien testé des IA mais pour le moment je n’y trouve absolument rien d’utile.
Guillaume1972
Pour ceux que ça pourrait intéresser, un petit comparatif des performances de l’Intel i9-14900HX vs M3 Max, alors si certains pourront arguer que l’on ne peut pas comparer, il ne faut pas oublier que l’on peut utiliser de plus en plus d’applications x86 sous ARM grâce à Rosetta 2 (et son émulation «&nbsp;à la volée&nbsp;»). Quand les applications ne sont pas ARM nativement. Là où Apple a fait fort, c’est le peu de différences de performances entre les programmes émulés et natifs.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet