Intel Arc est meilleur que l'Apple M1 Max en décodage vidéo

04 août 2022 à 12h03
25
Gunnir Intel Arc A380 © Videocardz
© Videocardz

À chaque nouvelle puce, Apple promet des performances jamais égalées, mais il semblerait qu'Intel ait tenu le pari pour le décodage vidéo !

En novembre 2020, Apple a annoncé en grande pompe sa nouvelle puce M1 et le passage de tous ses futurs appareils à des processeurs maison. Depuis cette date, la marque a déjà sorti quatre autres processeurs : M1 Pro, M1 Max, M1 Ultra et la puce qui équipe notamment le tout dernier MacBook Air : la M2.

Après avoir renversé la table, Apple se fait rattraper 

Force est de constater qu'Apple a frappé fort avec sa première puce maison. Les performances et l'autonomie étaient incomparables avec les précédentes itérations tournant avec des structures Intel. Ce changement de braquet a séduit les utilisateurs, mais il a aussi poussé les autres fabricants à dépasser leurs limites.

Depuis ce chamboulement, Intel a déjà bien rattrapé son retard. Dans ce comparatif publié sur Twitter par David Huang, la dernière carte graphique de la marque, l'Arc A380, serait meilleure que la puce M1 Max sur le décodage vidéo. C'était pourtant le point fort mis en avant pendant la Keynote de présentation de la nouvelle itération de la M1. Dans l'échange Twitter, l'utilisateur ironise en rappelant qu'Apple « garde un avantage, et pas des moindres, il vend des machines ! ».

comparatif m1 max intel Arc A380
© hjc4869

En effet, la question de la puissance de la carte graphique d'Intel ne semble pas faire de débat, mais quand on compare plus largement un PC qui en est équipé à un MacBook M1 Max, l'optimisation logicielle reste du côté d'Apple. Avec FinalCut Pro et le ProRes notamment, la marque entretient sa chasse gardée, mais est-ce que ça suffira si la concurrence la surpasse sur les autres volets ?

Sources : WCCTech, David Huang

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
25
17
_Troll
La puce M1, je rigole.
spip74
Pouvez vous argumenter votre commentaire ? Su ce site, vous avez systématiquement des commentaires primaires dès que le mot « Apple » est utilisé et ceci sans aucune explication.
Gwynplaine
@ Lucas Guillemot<br /> Vous comparez un SOC avec une carte dédiée. Faut peut-être arrêter le comparatif sans queue ni tête.
_Troll
La puce M1 equipe des ordinateurs portables et de bureau. Le choix de ce chip unique est celui d’Apple et non du contributeur de cet article. Je trouve qu’il est tout a fait normal de comparer le M1 avec les solutions des autres fabriquants CPU et GPU, d’autant plus par rapport aux prix.
merotic
Il faut noter que la comparaison se fait avec une puce Apple qui a 1 an sur une technologie d’il y a 3 ans.<br /> Il faudrait comparer avec le M2.<br /> Très bon M1 sur mon Mac mini. Je continue de mettre 3x moins de temps en encodage vidéo par rapport à un Ryzen.
dredd
J’ai un axe de comm’ tout trouvé pour Intel :<br /> "L’intel Arc™ est plus performant en jeu vidéo* que ses concurrents !<br /> *Jeu vidéo en streaming cloud ou local uniquement."
_Troll
Sur le M2 d’un ordinateur portable, l’encodage video est limite a 8 secondes au maximum de sa vitesse.
_Troll
Le choix d’une puce unique sur ses ordinateurs est le choix (de marge financiere) d’Apple, rien ne les empeche d’ajouter un GPU Intel ou AMD, ou meme produit par eux-meme comme le font les autres constructeurs depuis tres longtemps. Aux choix du consommateur d’utiliser la partie graphique du CPU ou le GPU en fonction de son utilisation. A 1500 Euros et plus, le fait de se faire depsser par un « petite » Intel Arc, c’est marrant, je rigole…de la naivete des clients qui ont acheter ce genre de materiel. Mon commentaires precedent n’est pas "primaire’ comme vous le dites car il n’enfreint en rien les regles elementaire de bienseance.
boboss29200
Et cette carte vidéo sur un portable ? on fait comment ? Car le M1 est portable lui, avec une autonomie hallucinante… donc comparatif un peu nase…<br /> A quand l’article sur le serveur qui fout la raclée au M1 ?<br /> Ceci dit, il faut que la concurrence se réveille du côté pc, c’est clair !
Loposo
Heureusement, car le M1 utilise le gpu pour encoder. Le ryzen est un cpu même si il a un igpu, pour de l encodage on utilise pas un cpu qui va forcément être lent. Mais un gpu et la c est pas que 3 fois plus rapide que le ryzen mais bien plus<br /> Bref il faut comparer les même choses
Gwynplaine
Oh la carte Intel fait mieux que tous les SOC Samsung ! Les technologies sont différentes, tellement éloignées.<br /> Un peu de bon sens.
Loposo
Pourquoi un laptop avec une GTX 3060 fera mieux et le cuda est prit en charge<br /> Et sinon j’ ai une tablette plus de 10h d autonomie et une bonne connection 4g ou un bon wifi pour du stream hd full HD je la transforme en station de travail avec mon vieux i54460 gtx970 ( attend la chute des prix pour changer) même dans un autre pays le bureau déporté c est cool aussi.<br /> Même mon smartphone entré de gamme 2020 je fais tourner des soft comme DaVinci resolve, des jeux comme bf5 ou Forza 4
merotic
Avez-vous testé?<br /> Moi oui !<br /> La qualité en encodage sur une carte graphique est moins bonne que par un CPU d’où sa vitesse.<br /> Mais dans les faits, un CPU est meilleur en encodage de qualité et plus rapide à ce niveau qu’une carte graphique.
_Troll
On parle d’ordinateur grand public, portable ou de bureau, la puce M1 ou les solutions des autres fabriquants. Le multimedia et les jeux video qui exploitent la partie graphique d’un ordinateur sont des applications grand public. Etant donne le prix du materiel d’Apple, c’est tout a fait normal qu’il soit compare avec d’autres solutions. Je ne vois pas ou est le non sens. A sa sortie le M1 a bien ete compare a l’Intel I9 9900k. Le non sens c’est plutot que des personnes achetant un M1 ou M2 protable, pensent qu’elles achetent du materiel destine aux professionnels de certaines branches d’activites pouvant de dispenser d’une puissance graphique decente.
amonbophis
me réduire à naïf est choquant…<br /> Je ne suis pas un grand connaisseur technophile, mais en faisant une petite recherche de l’arc 380, au vu sa taille et de ses ventilateurs, je ne la vois pas rentrer dans mon MacBook Pro 14’. C’est ça l’avantage du M1.<br /> D’autre part, quid de la consommation de cette carte?<br /> Votre avis, tout comme cet article n’est malheureusement pas du tout argumenté. D’une part l’auteur copie le communiqué de Intel sans même le critiquer (positivement ou négativement), ce qui n’est pas du journalisme, D’autre part, vous concluez sans même remettre les données en perspective. (je pense que votre avis est plutôt basé sur un aprioris négatif d’Apple qui déforme toute les informations liées à Apple)
_Troll
Personne n’a parle de faire rentrer une carte graphique d’ordinateur de bureau dans un ordinateur portable. Les fabricants proposent une version de leur carte adapte a la puissance et la taille d’un ordinateur portable. Apres cette version arc 380 est repute pour sa faiblesse technique, si un jour Intel ssort une gamme de cartes pour portable, uelle n’en sera que certainement plus puissante ou a egalite.<br /> La puce M1 equipe aussi des ordinateurs de bureau donc la comparaison est tres valable.<br /> Ce n’est pas parce que les ordinateurs d’Apple ont des performances graphiques mediocres en comparaison des autres marques au meme prix qu’il faut penser que je deforme la realite des informations liees a cette marque. Et concernant l’autonomie de la batterie, lisez le dernier test Clubic sur le M2 qui dit "excellente autonomie en surf internet et multimedia leger’ Des taches qui son normalement reserve a des ordinateur portable de faible prix.
MisterDams
Comme d’hab, Truc est meilleur que Machin sur l’action Z par vent d’ouest quand le format du fichier est en MPOV avec un contenu d’une taille exacte de 183,2Mo.<br /> Ce que ça montre surtout, c’est que M1 a frappé très fort pour un nouvel entrant, mais qu’ils n’avaient finalement pas tant d’avance que ce ne pouvait en dire la presse à l’époque (ou Apple eux-même), si l’on exclue le sujet de la performance énergétique (qui n’est franchement pas toujours un critère de choix sur un ordi à usage pro).<br /> Pour moi, Apple bénéficie depuis longtemps de la primeur sur les finesses de gravure, grâce à leurs volumes de production faible (jamais Intel n’aurait pu passer toute sa CPU et assurer ses volumes de livraisons sur la même finesse…). Ils vont maintenant continuer d’en profiter un peu (jusqu’à ce que les volumes ne le permettent plus) et surtout tirer de meilleures marges et baisser les coûts de R&amp;D grâce à leur choix d’architecture.<br /> On le voit bien avec M2 qui est pas si transcendant par rapport au « choc » M1, on verra ce que donne M2 Max. Cela étant, en vrai c’est plutôt un rythme normal dans les générations de CPU/GPU/SoC. Apple n’est pas magicien et on est plus dans les années 90. Il y a quelques évolutions plus marquées, mais elles sont principalement ciblées sur des types de tâches beaucoup trop précises pour vraiment parler d’une révolution.<br /> Mais comme tout bon service marketing, ce sont celles qu’on valorise dans les communiqués de presse…
Pernel
Ce qui est logique, les Ryzen n’ont généralement pas de eGPU, et un CPU n’est pas fait pour ça.
LeChien
J’ai un M1 pro 16" qui est le format idéal pour mon usage (surface d’affichage) tout en offrant un très bon ratio autonomie/performance.<br /> Si un jour je décide de mettre du budget dans le pc fixe sur lequel je joue de temps à autre, j’inclurai les produits Arc à mon comparatif et si une de ces cartes sort du lot par rapport à mes critères tant mieux pour Intel… Sinon tant pis.<br /> J’ai du mal à comprendre certains commentaires… chacun peut trouver chaussure à son pied selon ses propres critères et indépendamment du nom du fabricant.<br /> Les produits écartés n’en deviennent pas pour autant des produits ridicules servant on ne sait trop comment de nourriture à troll.
pecore
Je trouve aussi la comparaison entre l’Arc et le M1 curieuse tant ce sont des produits différents. A moins que le M1 détienne jusqu’à présent le record en encodage et donc on voulait comparer l’Arc au détenteur du précédent record. Mais dans ce cas il aurait été bon de le préciser.<br /> De toutes façons la comparaison reste fausse car l’Arc n’encode rien toute seule, il lui faut un CPU pour l’épauler. Donc, une partie de la performance viendra du CPU et pourra varier en fonction du CPU utilisé.<br /> Donc oui, une drôle de comparaison.
Emmanuel_Angulo
le M1 fonctionne très bien quand il est dans l’écosystème Apple, c’est un produit très différent de l’Arc de toutes façons : le CPU utilisé fera varier les resultats
Francoimora
C’est quand même dommage d’avoir des commentaires comme ceux de « Troll » qui essaye de se poser en expert de l’architecture des M1/M2 alors qu’il n’a visiblement jamais testé la machine. Dire qu’Apple pourrait choisir d’adjoindre une puce graphique dédiée à ses processeurs démontre le manque absolu de compréhension de l’architecture unifiée, en rupture totale avec ce qui se fait traditionnellement aujourd’hui. Les processeurs M1/M2 ont des unités GPU dédiées, mais l’architecture générale change la donne sur les possibilités techniques. La comparaison avec des ordinateurs fixes est pertinente parce que les perfs des M1/M2 avec l’absence de compromis derrière permettent enfin d’envisager de se passer réellement d’un ordi fixe.<br /> Petit retour d’XP perso : je suis développeur de jeux-vidéo, à la tête d’un studio de 7 personnes, plutôt anti-Apple et avec une aversion profonde pour MacOS. Il y a quelques mois, on a échangé nos configurations fixes (Ryzen 3900X avec des 2080 Super) pour passer sur des M1 Pro (même pas Max) pour travailler avec en fixe et en portable. Le jeu-vidéo, ça demande de la ressource CPU mais surtout GPU, encore + quand on les développe, à cause du surplus généré par les outils.<br /> Conclusion de la transition : Notre jeu tournait à 80fps en simulation avec nos PC fixes, à 120fps sur le M1 Pro. Tout ça avec le confort d’un PC portable que je peux emmener avec moi partout, y compris dans le train. L’autonomie est juste INCROYABLE, ça relève de la magie noire à ce stade. Ca ne chauffe jamais, silence absolu tout le temps.<br /> Les benchmarks sont une chose. Mais la proposition qu’offre Apple avec les M1/M2 est toujours à l’heure actuelle très loin de la concurrence. Il n’y a rien du tout en face d’équivalent, ni maintenant, ni dans les mois à venir. Enfin des laptops qui permettent des usages très intensifs sans aucun compromis et qui peuvent remplacer une station fixe !
shakaw
D’un autre coté, vu les problèmes de fiabilité des ces GPU intel, le débat semble clos non?
Blackalf
Francoimora:<br /> C’est quand même dommage d’avoir des commentaires comme ceux de « Troll » qui essaye de se poser en expert de l’architecture des M1/M2 alors qu’il n’a visiblement jamais testé la machine.<br /> Bonjour, nouvel inscrit.<br /> Histoire de partir sur de bonnes bases et comprendre comment les choses se passent sur Clubic, un peu de saine lecture :<br /> Charte de la communauté Clubic Débat sur l'actu<br /> Charte de la communauté Clubic <br /> Cette charte propose quelques règles de conduite qui favoriseront des échanges respectueux et constructifs entre membres de la communauté. Merci à tous et à toutes de faire votre maximum pour respecter ces consignes. N’hésitez pas à solliciter l’aide des modérateurs si vous estimez que des discussions dépassent les limites fixées par cette charte. <br /> 1. Participez aux discussions <br /> Nous encourageons chacun à exprimer ses idées sur les sujets qui l’intéressent, et à f…<br />
pecore
Histoire que je ne commette pas l’erreur moi-même, quel était le problème avec le message de @Francoimora ?<br /> Parce que même si son avis n’engage que lui, j’ai trouvé son retour d’expérience plutôt intéressant.
Blackalf
Ca me paraît pourtant évident…<br /> C’est quand même dommage d’avoir des commentaires comme ceux de « Troll » qui essaye de se poser en expert de l’architecture des M1/M2 alors qu’il n’a visiblement jamais testé la machine<br /> Le point 5. de la charte n’est-il pas encore assez clair ? développer une idée ou exposer une opinion sans dénigrer un autre membre est tout à fait possible.
Voir tous les messages sur le forum

Derniers actualités

La mémoire Micron GDDR6X à 24 Gbps entre en production de masse
La DDR5-6000
Stadia permet à ses joueurs de streamer un jeu en petit comité
Cet ancien employé de Twitter espionnait les utilisateurs pour le compte de l'Arabie saoudite
Cyberharcèlement : en Europe, les parents protègent moins leurs enfants que dans le reste du monde
Apple déploie la 3e bêta publique d'iOS 16, d'iPadOS 16 et de macOS Ventura
Google veut faire de votre TV votre coach sportif
Taïwan a subi un pic de cybermenaces en marge de la visite de l'Américaine Nancy Pelosi
Ce vidéoprojecteur sera parfait pour vos soirées d'été !
Samsung annonce les Galaxy Watch 5 et ses Gala Buds 2 Pro
Haut de page