Intel Arc : l'A350M à la peine dans les benchmarks, en deçà de la GTX 1650

Nathan Le Gohlisse
Spécialiste Hardware
01 avril 2022 à 13h30
26
© Intel
© Intel

Fraîchement lancée, la puce GPU A350M d'Intel ne fait pas très forte impression en benchmark. Sous 3DMark, elle se classerait deux pas derrière la vieillissante GTX 1650.

Installée aux côtés d'un Intel Core i7 1260P, à bord du nouveau Galaxy Book Pro 2 de Samsung, et testée sur 3D Mark (Firestrike puis TimeSpy), l'Intel ARC A350M n'impressionne pas. On découvre que sur ces deux benchmarks, la nouvelle puce GPU d'Intel ne parviendrait pas à surclasser la NVIDIA GeForce GTX 1650… dont le lancement et la technologie commencent maintenant à dater : sa sortie sur PC portable remonte en effet au début d'année 2019.

Un GPU Intel raplapla ?

Notons que l'A350M se place sur l'entrée de gamme des nouvelles solutions graphiques dédiées d'Intel. Elle regroupe 6 cœurs Xe et 6 unités de calcul vouées au ray tracing, et monte à une fréquence de 1150 MHz. Elle profite pour le reste de 4 Go de VRAM en GDDR6, placés sur un bus 64-bits, et dispose d'un TGP configurable entre 25 et 35 W.

Il ne s'agit donc pas d'une bête de course, mais ses performances restent décevantes si l'on en croit les données rapportées sur Twitter par @harukaze5719. En l'occurrence, l'intéressé a testé la puce d'Intel sur les deux modes de performances proposés par le Galaxy Book Pro 2, lui même équipé de 16 Go de mémoire vive en LPDDR5.

Sur cet appareil, et dans le meilleur des cas, l'A350M recueille notamment un score graphique de 3 197 points sur 3DMark Time Spy. Sur le même benchmark, la GTX 1650 mobile parvient à faire aussi bien… voire bien mieux dans certains cas. On relève notamment un score graphique de 3435 points sur Time Spy pour la version mobile de la carte.

Des scores à prendre avec (un peu) de recul

Comme le souligne Tom's Hardware, il faut toutefois prendre ces premiers indices de performances de l'A350M avec un peu de recul. On ignore encore quelles sont ses prestations effectives dans les jeux, en conditions d'utilisation réelles. Par ailleurs, la puce d'Intel vient tout juste d'arriver sur le marché. Il est donc tout à fait possible qu'une partie de ces mauvais résultats s'expliquent par des pilotes graphiques encore immatures.

Pour avoir une idée claire et objective de ce que permet réellement la puce, il faudra vraisemblablement attendre quelques semaines…. mais admettons que ce premier bilan n'est pas très engageant.

Source : Tom's Hardware

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (26)

neaufles
un gros flop
Yannick2k
pour faire du word et du excel ça devrait bien suffire
Popoulo
Laissez leur le temps d’optimiser les pilotes pour les benchmarks <br /> Après ça reste de l’entrée de gamme. Si on regarde de plus près, pas étonnant qu’elle soit derrière une 1050ti ^^<br /> Intel : 1150mhz - 64bits - 35W<br /> Nvidia : 1620mhz - 128bits - 75W
Gus_71
C’est contradictoire avec ce qui est annoncé dans GNT …<br /> Qui a raison ?
Kriz4liD
le soucis , c’est que c’est vendu en tant que processeur graphique dédié , une puce à part qui prend de la place sur une carte mère et qui consomme.<br /> Intel a déjà une puce pour ce type d’app (IRIS) c’est
Theodri
S’ils vendent ça plus de 75€ … ça va se vendre par millions à 300€ vu le public …
Popoulo
@Gus_71 : c’est pas faux. Mais en 2022, c’est Twitter qui fait l’information et non des sites spécialisés.<br /> « Elle confirme ce positionnement en obtenant des scores se situant entre ceux de la GTX 1650 Max-Q et de la GTX 1650 Ti Max-Q, avec tout de même l’avantage de supporter le raytracing matériel et le décodage AV1, sans compter l’upscaling XeSS d’ici cet été. » (source GNT)<br /> Et comme dit dans un com sur ce site, au final, ça reste très correct pour de l’entrée de gamme.
iroteph
Il y a une coquille dans l’article, c’est des gtx 1650/Ti maxQ qu’il sagit et non de la gtx 1050ti qui obtient elle dans les 1800 points sur firestrike, les versions normales de gtx 1650/Ti étant devant…<br /> VideoCardz.com – 10 Oct 16<br /> NVIDIA GeForce GTX 1050 Ti 3DMark Fire Strike and Time Spy performance |...<br /> GeForce GTX 1050, GeForce GTX 1050 Ti NVIDIA GeForce GTX 1050 Ti NVIDIA GeForce GTX 1050 Ti is a new graphics card based on Pascal GP107 GPU that is expected to hit the shelves later this<br /> Est. reading time: 1 minute<br /> Niveau performance c’est pas mal pour une carte 64bits.<br /> Article sur les perfs de l’A350M : https://videocardz.com/63775/nvidia-geforce-gtx-1050-ti-3dmark-fire-strike-and-time-spy-performance
_Reg24
C’est de l’entrée de gamme, donc par définition pas fait pour faire des gros scores sur les beanch.<br /> J’attend de voir de quoi ce que leurs plus grosse puces seront capable.
Popoulo
Je viens de voir qu’une MSI GTX 1050ti X Gaming OC (1800mhz) faisait un graphic score de 2520pts et un result score de 2771 sous Time Spy en 1080p. Avec un score de 3000+ en 1440p pour l’Intel, en quoi une 1050ti (même mobile) pourrait lui être supérieure comme annoncé dans l’article ?<br /> Un peu confus tout ça.
merotic
Ça ressemble à un poisson d’avril …<br /> Ça en est un apparemment.
Popoulo
@Meroric : comment on s’est fait pull si c’est le cas…
craxxou
Donc incomparable quoi
Popoulo
Si on peut quand même comparer. NVidia compare bien sa dernière CG à celle de la gen précédente par exemple (3090ti-2080ti). Ce sont juste les résultats qui me chiffonnent dans le cas présent.
StimpackFactory
Effectivement, il semble que Tom’s Hardware se soit trompé (et moi aussi…). J’ai mis à jour l’article, ce sont bien les performances de la GTX 1650 qui sont devant celles de l’A350M d’Intel sous 3D Mark. Merci pour votre commentaire !
Ccts
Ça me choque pas. Un équivalent de 1650 en entrée de gamme si le positionnement tarifaire est bon ce sera toujours tellement mieux qu’une solution intégrée au processeur Intel.
pecore
En gros ce que tu dis c’est que c’est toujours mieux que pas de carte graphique du tout. C’est pas faux. <br /> Mais pour ma part je ne vois pas comment on peut trouver encourageant ou satisfaisant un GPU tout récent qui n’arrive même pas à faire aussi bien que l’entrée de gamme de l’avant, avant dernière génération de CG Nvidia. On dirait presque la méthode coué.
iroteph
Il ne faut pas oublier que cette carte même si elle est un peu juste pour du jeu sérieux, embarque des unités de calcule RT en plus d’être supporté par une solution type dlss/fsr à la sauce intel, chose absente sur les gtx, du coup cela risque de devenir plus intéressant en entrée gamme, reste à voir le tarif.
Blackalf
La question que personne ne semble se poser, c’est « à quel point les perfs vont s’effondrer en activant le RT dans les jeux ». ^^<br /> Bref, qu’il soit supporté est une chose, qu’il soit vraiment utilisable en est une autre. Pour rappel, en perfs pures une GTX 1650 est largement en-dessous d’une RTX 2060.
iroteph
Les perfs s’effondre avec toutes les cartes en activant le rt à moins d’avoir un monstre à plus de mille balles, ce que Intel explique dans sa présentation c’est qu’il faudrait que les développeurs implémentent plusieurs niveaux de qualité pour pouvoir profiter de cette techno sur des petits gpu, un peu comme le niveau de détails graphique pour la rastérisation, ce qui au final serait bénéfique pour toutes les cartes.
DrCarter95
Lol
Lerian
On sent bien que comme celle des processeurs, la technologie des CG se heurte à un mur pour la consommation.<br /> Il n’y a que NVIDIA qui parvient à augmenter les performances de façon significative d’une génération sur l’autre, mais pour eux aussi la consommation augmente inexorablement. Et je ne parle pas du prix qui devient absurde pour des cartes réellement exploitées pour un ou deux jeux avant qu’elles ne deviennent obsolètes 18 mois plus tard. Par ailleurs, le raytracing matériel ne sert à RIEN, c’est juste marketing. Vous avez déjà vu une démo de jeu « avec / sans » où la version « sans » est significativement plus laide ?<br /> Bref, le seul résultat de cette affaire c’est que les PC sont condamnés à perdre leur hégémonie sur les jeux vidéo au profit des consoles dont le prix est plus contenu et la durée de vie bien supérieure à une CG gaming. Il ne restera que des escrocs pour acheter des CG à 3000€ et les rentabiliser en leur faisant miner des cryptomonnaies dans des organismes publics (universités, administrations, etc.) histoire de ne pas payer la facture d’électricité. Ou alors pour faire de l’apprentissage en IA.
pecore
C’est vrai que plus j’en entend parler et plus ce ray tracing resemble à une Snake Oil, ou poudre de perlimpinpin pour les non-anglophones. On peut saluer la machine marketing de Nvidia pour avoir réussi à nous faire croire que sans le RT point de salut, alors qu’avec la rasterisation on peut tout à fait obtenir des résultats similaires avec moins de puissance de calcul. Et même si ce n’était pas le cas, dans le feu de l’action d’un jeu AAA, qui remarquerait vraiment la différence au point que ce soit game-changing.<br /> C’est pourquoi c’est pour moi le comble du foutage de gueule que d’intégrer une technologie à l’intérêt déjà discutable dans une puce qui ne pourra jamais la supporter, faute de puissance de calcul.
Freex
Le placement tarifaire, c’est bien le problème avec Intel…
joneskind
@pecore<br /> Étant moi-même utilisateur de Mac, je ne peux pas vraiment dire ce que le ray tracing apporte au monde du jeu vidéo. Par contre, je peux dire que sur du rendu graphique dans Blender, la technologie RTX fait vraiment des miracles, avec des performances multipliées par sept sur certains calculs de rendu (entre les moteurs Cycles et CycleX).<br /> Alors c’est peut-être une utilisation de super niche (à ma connaissance il n’y a que Blender qui sache tirer parti des core RTX dans le monde du rendu 3D) mais ça reste quand même très impressionnant.<br /> Par contre, je suis vraiment très étonné d’apprendre que l’activation de RT dans les jeux se faisait au détriment des performances globales. Pour moi c’était plutôt une technologie hardware incrémentale sur l’existant, et pas quelque chose de coûteux pour le calcul. Ça voudrait dire que l’activation des core RT signifie la désactivation ou le bridage d’autres cores de calcul ?<br /> Intéressant en tout cas.
FardocheX
Quel est le prix ?
Voir tous les messages sur le forum