Apple bosse (évidemment) sur un M2 Pro, Max, Ultra et Extreme, mais pour quelles machines ?

29 juin 2022 à 08h00
37
© Nathan Le Gohlisse pour Clubic
© Nathan Le Gohlisse pour Clubic

La puce M2 d'Apple devrait se décliner en quatre versions encore plus puissantes pour équiper de futurs ordinateurs, du Mac Mini au Mac Pro, en passant par les Macbook Pro 14 et 16 pouces.

Lors de la dernière WWDC, Apple présentait sa puce de nouvelle génération, le M2, qui équipe les derniers modèles de Macbook Air et Macbook Pro du constructeur. Mais la marque à la pomme ne compte pas en rester là.

M2 Pro et M2 Max pour Mac Mini et Macbook Pro

Dans sa newsletter Power on, Mark Gurman, célèbre journaliste chez Bloomberg, fait savoir qu'Apple prépare quatre déclinaisons de son chipset : les M2 Pro, M2 Max, M2 Ultra et M2 Extreme, qui vont offrir divers degrés de performances.

Le premier concerné serait le Mac Mini, qui devrait bénéficier prochainement d'un rafraîchissement. Celui-ci serait commercialisé en deux configurations : l'une d'entrée de gamme avec le M2 de base, que l'on a déjà vu à l'œuvre sur les PC portables 2022 d'Apple, et l'une mieux équipée et qui aurait droit à un M2 Pro.

Le MacBook Pro ne devrait pas être en reste non plus. Si le modèle de 13,3 pouces a dû se « contenter » d'une puce M2, les variantes adoptant un format de 14 et 16 pouces profiteraient d'une meilleure puissance de frappe grâce aux SoC M2 Pro et M2 Max. On ne sait pas encore quand pourraient sortir ces machines.

Un Mac Pro sous M2 Ultra et M2 Extreme

Mark Gurman fait aussi mention de deux puces M2 visant le très haut de gamme, avec de potentiels M2 Ultra et M2 Extreme. C'est le Mac Pro qui devrait avoir l'honneur d'être propulsé par ces deux systèmes sur puce premium. Ceux-ci devraient dégager des performances absolument phénoménales pour des usages professionnels. Apple avait justement laissé entendre qu'un nouveau Mac Pro était en développement.

Nous n'avons en revanche aucune nouvelle pour l'iMac. La prochaine itération de la gamme ne devrait pas arriver tout de suite, et il se pourrait bien qu'Apple lance directement un iMac sous puce M3 en sautant une génération. Mais même sans lui, les prochains mois seront chargés en matière de sorties d'ordinateurs estampillés Apple.

Source : WCCFTech

Alexandre Schmid

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (37)

Stef_R
Pour les comptes en banque Pro, Max, Ultra et Extremement bien fournis
davidly
Un M2 Extreme qui arrive à battre le Xeon W à 28 cœurs (qui équipe en option le Mac Pro actuel) serait vraiment balèze !
Wen84
J’aime toujours les termes employés pour qualifier les perfs chez Apple. Genre « phénoménales »
eykxas
Ben c’est le cas. Quand tu vois ce que propose une actuelle M1 Ultra… Seul un ignorant ne peut pas être impressionné ;p
LeVendangeurMasque
Ben vu les daubes énergivores que sortent Intel ou Nvidia, n’importe quoi de raisonnable est meilleur !<br /> Ces deux boîtes de boomers se croient encore dans un monde où l’énergie ne coûtait presque rien et où la pollution n’existait pas.
LeVendangeurMasque
Non, c’est le prix d’une machine pro… Mais avec le silence, la compacité, les perfs, et le tout avec des centaines d’euros d’électricité économisé chaque année !<br /> Autant dire que pour un pro c’est parfaitement rentable. Ça tombe bien, ça s’adresse à eux.<br /> Et même pour un particulier ça serait une bonne affaire: c’est fiable, et le prix à la revente d’occasion des machines est excellent. Autant dire que le coût d’utilisation réel de la machine est très faible !
Stef_R
Sauf qu’un Pro, le déduit en charge ou en amortissement. Ce qui n’est pas le cas pour un particulier.<br /> Pour la consommation électrique, ton argument est faux.<br /> happ-e.fr<br /> Quelle est la consommation électrique d'un PC ? | happ-e | happ-e by ENGIE<br /> Vous voulez évaluer la consommation électrique de votre PC ? Découvrez combien consomme un ordinateur de bureau ou un ordinateur portable branché …<br /> extrait du lien :<br /> Combien consomme un ordinateur portable branché ?<br /> La plupart des modèles consomment entre 50 et 100 Wh. A l’année, la consommation d’un ordinateur portable en watt oscille donc entre 150 et 300 (toujours pour 8 heures par jour). Soit approximativement 20 à 45 € par an.
Bombing_Basta
Ah parce-que tim cook et steeve jobs, c’est pas des boomers…<br /> Encore un zoomer en carton même pas recyclé…
LeVendangeurMasque
Sauf qu’un Pro, le déduit en charge ou en amortissement. Ce qui n’est pas le cas pour un particulier.<br /> Mais le particulier peut acheter et revendre sa machine à l’occasion. Bref son coût réel reste inférieur à un PC qui s’il ne coûte pas cher à l’achat à une valeur à la revente quasi-nulle.<br /> Pour la consommation électrique, ton argument est faux.<br /> Oui il le serait si t’étais pas tombé sur un article dépassé. Le coût de l’électricité sur lequel il se base n’est déjà plus celui-là et il va continuer à grimper.<br /> Et parler de PC à gamer à 300 watts de consommation, là on dirait un article d’il y a 10 ans ! <br /> Au fait je parlais de mon cas personnel, avec un Mac Studio, pas d’un portable. Donc rien de faux, désolé…
MattS32
LeVendangeurMasque:<br /> Et parler de PC à gamer à 300 watts de consommation, là on dirait un article d’il y a 10 ans !<br /> En moyenne, c’est bien dans ces eaux là… Parce que même si la consommation d’un PC gamer haut de gamme peut facilement monter à 400-500W en pointe (et vraiment rarement plus hein, les configs à base de nVidia xx90/xx80 ou leur équivalent AMD sont rares, le gros des gamers est en xx60/xx70… sur Steam, les 8 cartes les plus courantes sont même des xx50/xx60 et la première xx80 est 15ème), elle n’est pas tout le temps à ce niveau (ne serait ce que parce que même un gamer, il passe pas son temps à jouer, il passe aussi du temps à surfer, à regarder des vidéos, etc…).<br /> Pour info, je me suis monté au printemps 2021 une configuration qu’on peut tout a fait qualifier de gamer, avec un Ryzen 7 5800X, 64 Go de RAM, une RTX 3080, 2 SSD NVMe, 2 SSD SATA et 2 HDD 2.5". Et tout ça tourne avec une alim de 500W. Donc compte tenu du rendement de la dite alim, ça ne dépasse pas les 550W à la prise. Et ça descend à largement moins de 100W quand je fait du dev ou de la bureautique.
gamez
ahahah l’utilisation de « max », « ultra », « extreme » dont seuls les commerciaux ont le secret
Loposo
Un m1 max si mes souvenir sont bon on est a 90tdp donc pas si faible que ça<br /> Ensuite en utilisation beaucoup rapporte une temp proche des 90° en charge ce qui est énorme et pas très bon<br /> Après un GPU NVIDIA des desktop est bien plus puissant que la parti GPU du m1 max<br /> Tout comme un cpu desktop.<br /> Donc un pro il a besoin de puissance et réfléchit pas en terme de conso tant que ça reste normale.<br /> Et si tu consomme plus mais le calcul est fait en 2 min c est peut être équivalent à un CPU qui consomme moins mais fera le même truc en 4 min<br /> Et pour info un CPU consomme pas la puissance max en permanence comme les GPU<br /> Si c est en idle ou juste de la bureautique ou de l internet ça consommera peu donc pas des centaines d économie par ans<br /> Le GPU de desktop il doit faire dans les 10watt en idle et vu que pour ce genre d app c est l igpu qui est utilisé on fera pas des économie de fou avec un m1<br /> Comme avoir une alim de 500-600w ne signifie pas que on tire 600w en permanence elle peut juste le délivrer si le CPU GPU le demande<br /> Bref les pur fanboy apple toujours marrant, même si le m1 reste intéressant surtout vu sa jeunesse<br /> Il y a quelques jour un laptop ryzen rtx3070 était a 700€, meilleur GPU que le m1 . GPU qui prend le cuda et opencl donc on peut faire du pro avec. Ça fait plus économiser qu une diff de 100w sur 1 ans
LeVendangeurMasque
Rien que la CG dont par exemple on parle ici sur Clubic:<br /> Clubic.com – 21 Sep 20<br /> Test NVIDIA GeForce RTX 3080 : Ampere frappe fort<br /> Enfin ! Après des mois de rumeurs et de leaks en pagaille, NVIDIA s'est décidée à révéler ses nouvelles cartes graphiques grand public, les GeForce RTX de la série 30. S'il y a deux ans, l'architecture Turing proposait une véritable révolution avec...<br /> 750w d’alim recommandé…<br /> Et si on peut parler de consommation moyenne, parce qu’après tout on est sûrement pas à fond tout le temps, ben moi je dois tomber en surf ou bureautique à… 10 watts ?<br /> Autrement dit un écart abyssal, surtout que tu n’arrives pas intégrer que le coût du KWh va bien monter.
Loposo
Recommended. En idle on doit être dans les 25watt et pour la bureautique on ça utiliser l igpu du cpu donc on doit pas être tellement plus que votre m1 donc pas une grosse économie. Pas des centaines d euro d’économie peut être 10-20€ sur l année. Sauf que tout le monde n a pas besoin d une 3080<br /> Et une rtx 3080 autant dire que c est une autre catégorie que votre m1. Bref<br /> Rtx 3070 c est 230watt en full charge et c est autre chose que le m1
MattS32
LeVendangeurMasque:<br /> 750w d’alim recommandé…<br /> Parce qu’il y a sur le marché plein d’alimentations de mauvaise qualité dont le signal électrique se dégrade bien avant que la consommation atteigne la limite théorique… Donc les fabricants de cartes graphiques donnent une recommandation large pour se prémunir de ça.<br /> Mais je t’assure qu’un Ryzen 5800X et une RTX 3080, avec une bonne alimentation de 500W, ça passe crème (en fait, j’ai même eu pendant un temps une 3080 et une 2060, sans le moindre problème).<br /> D’ailleurs, si tu avais pris la peine de lire l’article dans sa globalité au lieu de te focaliser sur ce détail, tu aurais vu juste au-dessus des 750W recommandée que la consommation de la carte est spécifiée à 320W. Et surtout, un peu plus loin, que lors de son test Clubic a mesuré au maximum 402W à la prise (donc consommation du PC complet, avec son Core i9-9900K, ses 32 Go de RAM, son SSD et son disque dur, mais aussi les pertes dans l’alim, ce qui veut dire de l’ordre de 360W pour les composants), et encore, avec une version overclockée de la 3080… avec la version de référence nVidia FE c’est 327W à la prise pour la config complète.
Stef_R
je laisse tomber, tu as raison…
LeVendangeurMasque
Un m1 max si mes souvenir sont bon on est a 90tdp donc pas si faible que ça<br /> à fond -avec- le GPU.<br /> Et comme je disais avant, en usage de base c’est 10W ! Rien de comparable dans le monde pécé.<br /> Après un GPU NVIDIA des desktop est bien plus puissant que la parti GPU du m1 max<br /> Tout comme un cpu desktop.<br /> Houlà pas tant que ça, voir même pas du tout dès qu’on parle d’appli bien optimisées.<br /> Donc un pro il a besoin de puissance et réfléchit pas en terme de conso tant que ça reste normale.<br /> La consommation « normale » ça ne veut rien dire. Tant que toute l’industrie fait du PC qui consomme tout va bien. Le jour où un fabricant débarque avec une bécane ultra réactive, qui ne chauffe pas et qui consomme entre 5 et 10 fois moins d’énergie pour faire la même chose, là les gens commencent (heureusement) à se poser des questions.<br /> Et ton normal il doit aujourd’hui et encore plus à l’avenir être pondéré pour le coût de l’énergie !<br /> Si c est en idle ou juste de la bureautique ou de l internet ça consommera peu donc pas des centaines d économie par ans<br /> Le GPU de desktop il doit faire dans les 10watt en idle et vu que pour ce genre d app c est l igpu qui est utilisé on fera pas des économie de fou avec un m1<br /> Conso d’un PC en usage basique: 100w<br /> Conso d’un M1 en usage basique: 10w<br /> Juste un écart de 10 entre deux appareils… Non c’est rien ! <br /> Sérieusement, j’ose pas imaginer l’économie pour un parc d’une grande entreprise. Pas trop étonnant qu’Apple renoue avec le succès sur ces marchés.<br /> Et si tu consomme plus mais le calcul est fait en 2 min c est peut être équivalent à un CPU qui consomme moins mais fera le même truc en 4 min<br /> Non en vrai dans un facteur de 1,3x… C’est pas si extraordinairement plus, et ça justifie pas un 5x sur la consommation.<br /> Je crois que le vrai problème d’Apple c’est que beaucoup n’ont pas encore compris à quel point le ratio puissance/consommation était si éloigné de la concurrence.
MattS32
LeVendangeurMasque:<br /> Houlà pas tant que ça, voir même pas du tout dès qu’on parle d’appli bien optimisées.<br /> 10 TFlops pour le M1 Max, tu peux optimiser autant que tu veux, ça restera très loin des 30 TFlops d’une RTX 3080 (qui peut elle aussi avoir des applis bien optimisées, et ce d’autant plus que ça fait dix ans que les développeurs d’applications pour GPU ont l’habitude d’optimiser pour les puces nVidia…).<br /> 10 TFlops, c’est entre une 3050 et une 3060.<br /> Dans l’article que tu cites plus haut, la config complète avec le gros Core i9, les 32 Go de RAM, le SSD et le disque dur est à 133W à la prise avec une RTX 3050, 175W avec une RTX 3060 (et encore, dans les deux cas c’est avec des cartes overclockées)… Ça doit tomber à une 20aine de W en bureautique si le disque dur (qui n’a pas a être comptabilisé dans une comparaison avec les Mac, qui n’ont que leur SSD comme stockage, sans disque dur pour compléter) se met en veille.<br /> LeVendangeurMasque:<br /> Sérieusement, j’ose pas imaginer l’économie pour un parc d’une grande entreprise. Pas trop étonnant qu’Apple renoue avec le succès sur ces marchés.<br /> Sauf qu’en réalité, ces chiffres sont en pratique pas énorme par rapport à la quantité d’énergie nécessaire à la fabrication d’une machine…<br /> Or toi à chaque fois que tu vas vouloir avoir plus de puissance sur ton Mac Studio ou à la moindre panne d’un composant essentiel, c’est une machine complète qu’il va falloir refabriquer… Dans une configuration PC évolutive, on peut gagner en puissance en ne changeant que quelques pièces, limitant ainsi la consommation d’énergie liée à la fabrication…
Loposo
Ou j’ ai écrit 100w en bureautique.<br /> Bref si vous inventez des écrits ce n est pas gagné. Un jeu optimisé métro exodus pour m1 max on est en même FPS et moins stable qu une rtx 3060 de laptop qui doit être a 80tdp full load pc qu on trouve a 700€ lors de solde<br /> Le M1max n a pas de cuda ni d’open cl donc mort pour du pro 3d et même des effets vidéos<br /> Une rtx 3080 de desktop est un autre monde qu une 3060 de laptop donc d un M1 max<br /> Les M1 sont pas prêt de remplacer les xénon ou du gpu
FabriceV
Ce sont d’excellentes machines performantes avec une très bonne autonomie, malheureusement trop limitées en performances 3D pour mon besoin spécifique. Ce serait vraiment idéal de pouvoir coupler un M2 avec une carte graphique RTX 3X ou bientôt 4X, ou même mieux quadro.
Wen84
J’avoue avoir été impressionné à la sortie du M1 par le ratio puissance/consommation, mais cela reste un qualificatif exagéré. Navré
Wen84
Tu sais perso, c’est pas la consommation que je regarde. Pour une raison simple, meme en faisant tourner mon PC toute la journée, ma facture éléctrique monte à peine. Ca veut dire que c’est pas ça qui consomme le plus chez moi. Après tu peux me faire des leçons d’ecologie, si tu veux, mais je pense que t’es plus fort pour vanter apple que pour l’écologie
Wen84
Sauf qu’actuellement, c’est juste pas possible. Et je pense pas que ce soit la direction d’Apple. Je pense qu’Apple va faire le choix de continuer à imposer leur propre solution unifié, ce qui en passant n’est à mes yeux ni un mal, ni un bien, simplement c’est leur philosophie. Il me semble assez facile d’imaginer que demain la solution d’Apple puisse tenir la dragée haute à NVidia/AMD, c’est tout à fait envisageable, mais oui on y est pas encore;
gnouman
Les Apple silicone sont surtout étonnant par leur rapport puissance consommation.<br /> Reste à savoir qu’elle est la part réelle de savoir faire et de gravure qui donne ces chiffres.<br /> Le bon côté des choses peut-être que Intel et AMD vont enfin se bouger le fion…
JeXxx
Comparer une puce pour pc portable à une puce pour tour… Fallait le faire !<br /> En allant dans ton sens allons comparer une puce pour tour et la M1 ultra :<br /> Clubic.com – 19 Mar 22<br /> Mac Studio : Apple disait que la RTX 3090 serait en dessous de la M1 Ultra......<br /> Deux comparaisons, issues de Geekbench 5 et du jeu Shadow of the Tomb Raider, où la RTX 3090 remet le SoC d’Apple à sa place.<br />
boboss29200
J’adore les commentaires de ceux qui n’ont jamais utilisé un M1 <br /> Ce qui m’a avant tout bluffé, c’est le silence, tu as l’impression d’utiliser un smartphone tant c’est silencieux ! Pas plus tard que lundi j’ai compressé une vidéo de 10 go (passé de 10 Go à 2 Go), le processeur tournait à pleine balle, et aucun bruit. je fais souvent du compositing vidéo (After Effects), un logiciel qui demande pas mal de puissance. Et pareil, je n’entends jamais la machine. Le plus bruyant sont mes disques durs de sauvegarde (Time Machine) et de données. Et je n’utilise que le M1 avec 16 Go. Concernant les jeux vidéos, j’ai testé quelques jeux sur Steam pour voir, j’ai un écran 27 pouces 4K, et j’ai mis Rise of Tomb Raider, toute option à fond, et ça tourne correctement. N’étant pas un joueur sur ordi, je n’ai pas joué beaucoup avec. C’était juste pour tester. Par contre le catalogue de jeux sur mac est très pauvre. Ma machine quand je la redémarre, redémarre en moins de 10 secondes (et encore je suis large), le SSD à un débit en lecture de 2,5 Go/s, Bref on est vraiment dans du très très bon niveau performance. Et pour la consommation, ça ne chauffe quasiment pas. J’ai une machine fixe, donc je ne peux pas parler d’autonomie, mais au vu des témoignages, il n’y aucune machine qui peut rivaliser avec un portable M1 (en conservant en plus des performances identiques secteur et sur batterie). Donc il faut vraiment être de mauvaise foi pour dire que le M1 est mauvais. Oui il y a(beaucoup) plus puissant, mais qui chauffe, avec une autonomie merdique, qui fait un gros boucan à cause de la ventilation.<br /> Et pour les noms, ça va croissant M1&lt;M1 pro &lt;M1 MAX &lt;MA Ultra il est où le problème ? quand on voit les noms des processeurs Intel ou AMD, on s’y perd et pas qu’un peu, non ?
Wen84
boboss29200:<br /> Donc il faut vraiment être de mauvaise foi pour dire que le M1 est mauvais.<br /> J’adore que tu écrives un pavé pour répondre à des commentaires qui… n’existent pas. Personne n’a affirmé une telle chose, à partir de là ton propos est caduque. Et pour le coup, si tu t’amuses de commentaire fictif, moi je m’amuse du tien.
boboss29200
Je lis par-ci par-là des avis complètement erronés (et fantasmés) sur le M1, pas que ici et pas particulièrement par toi certains utilisateurs (pc surement) essaient de se persuader que c’est pas si terrible que ça car leur cartes Nvidia à 2000 euros l’explose en perf (et en facture et en autonomie) etc… mais reste persuadé que ton pc gamer overkill est meilleur que tout, tu as surement raison dans un sens, et tant mieux pour toi. Mais dire que ce n’est pas grave que ta config consomme beaucoup car c’est pas ça qui consomme le plus chez toi, c’est aussi une belle bêtise dans le sens où réduire la consommation d’un appareil tout en conservant sa puissance est en soit une grande avancée. Je serai curieux de voir le bruit de ton pc lors d’un encodage vidéo… une consommation excessive entraine une surchauffe, donc un besoin de refroidissement, donc du bruit, ce que n’a pas le M1. Intel et AMD sont à la traine sur ce niveau, malgré les qualités de leurs processeurs pour les PC et c’est d’une tristesse pour eux car ce sont quand même 2 piliers importants du secteur du processeur… et concernant les superlatifs (commerciaux) utilisés, ils sont à moitié justifiés quand tu lances un lourd processus et que tu n’entends rien, que ta machine reste froide au bout de plusieurs heures, etc… Donc oui on peut s’émerveiller à coup de whaou !!! car je n’ai encore jamais vu de pc (ni même de mac sous Intel) en faire autant.
Wen84
Encore un pavé où tu pars en mode délire. Mais pour te répondre, mon PC est silencieux. Bon systeme de refroidissement, bonne puissance. Mon mac tourne bien aussi. Tu vois, je ne suis pas sectaire
boboss29200
Il est vrai que Intel Core i9**-10900 (2.8 GHz / 5.2 GHz) ou Intel Core i9 -10900F (2.8 GHz / 5.2 GHz) ou Intel Core i9 10900K (3.7 GHz / 5.3 GHz) ou Intel Core i9-10900KF (3.7 GHz / 5.3 GHz) ou Intel Core i9-10900X (3.7 GHz / 4.5 GHz) ou Intel Core i9-10920X (3.5 GHz / 4.6 GHz) et surtout Intel Core i9-10940X,pour ne parler que des core i9, est beaucoup plus claire et simple chez Intel. Certains sont encore dans le fantasme de l’informaticien qui doit se taper des tonnes de notices imbuvables, passer des heures à installer un driver ou modifier un fichier texte pour optimiser avant de pouvoir bosser, et avoir l’impression d’être un être à part car il maitrise un idiome connu par une petite poignée de personnes, quand un grand nombre d’utilisateurs veulent tout simplement sortir la machine du carton, rentrer leur identifiant et être productif immédiatement.
boboss29200
mais moi non plus je ne suis pas sectaire, je bosse tous les jours sur PC et désolé d’argumenter.
Wen84
Je te reproche pas d’argumenter, je te reproche d’argumenter sur du vent en pondant des pavés qui ne répondent à rien :s<br /> Un exemple : « mais reste persuadé que ton pc gamer overkill est meilleur que tout, tu as surement raison dans un sens, et tant mieux pour toi. " =&gt; Nié ? Bah non, il date de 2016, j’ai juste changé la carte graphique, dont il n’est pas « overkill ». Mais il fait tourner tous les jeux que je veux en 2K et il est nickel pour tout le reste<br /> " consommation d’un appareil tout en conservant sa puissance est en soit une grande avancée. » =&gt; Bah j’ai pas dit le contraire, j’ai juste dit que c’était pas le besoin de tout le monde et repondu à un mec qui vantait le coté écologique.<br /> Mais bref, franchement, osef, tout ça n’est pas de l’argumentaire. J’ai pas beaucoup d’admiration pour les mecs qui chient sur le M1, mais ils sont… pas si nombreux que ça et pas vu sur ce topic (Et répondre à des commentaires d’un autre topic c’est HS). C’est tout ce que je disais et je stop là, car osef
gamez
lol tu te prends la tête pour rien, j’ai dis ça comme j’aurais pu dire 10900k 10900f ou 10900z’²<br /> mais il me semble que cet article ne concernait pas ce genre d’appellations.<br /> comprends tu maintenant? <br /> en plus tu prones l’appellation max, utra, extreme pour faciliter la compréhension mais laisse moi te dire que max et extreme sont des synonymes donc je ne vois pas en quoi ca facilite la compréhension et de plus quand on parle de max, par définition il ny a rien de plus grand, donc si une version est plus performante que la max ca veut dire que la config max n’est pas vraiment max… lol donc non ce n’est pas plus simple à comprendre xD<br /> bref à la base je ne voulais pas du tout écrire toutes ces lignes, au départ mon intervention était vraiment sans aucun but, juste du fun. Faut pas voir le mal partout
dredd
Ça va être facile de passer de M2 à M2 Pro pour Apple. Il leur suffirat de souder un second module SSD comme sur les M1 pour quasi doubler les vitesses et pondre de jolis tableaux aver des +80% ici et là. Et voilà
Popoulo
Vous en êtes encore à compter les w que votre ordi consomme ? Diantre…
Abstract_stract
Vos échanges me rappellent l’arrivée des Ryzen, à l’époque j avais écrit qu’Intel venait de prendre une baffe. Nombreux étaient ceux qui n’étaient pas d’accord « le i7 est meilleur en jeux etc … ». Je suppose qu’ils doivent encore regretter l’époque des i7 à 4 coeurs facturés 470€…<br /> Quand un produit jette un pavé dans la mare comme ce fut le cas des Ryzen, il suffit d’être lucide pour le comprendre et c’est exactement ce qu’a fait Apple avec ces M1.<br /> Avant la sortie du M1, il y avait des articles ci et là qui annonçaient qu’Apple voulait se débarrasser d’Intel et utiliser ses propres CPU ARM. Je n’ai jamais pris ces articles au sérieux car le projet me paraissait irréaliste : entre la partie logiciel à adapter et surtout je les voyais mal mettre un CPU de seconde zone dans des machines qu ils facturent à un tarif premium. Et pourtant.<br /> Ce qu’à fait Apple dans ce domaine est très très fort. Non seulement ils ont réussi leur pari mais en plus ils ont sorti des composants et une architecture qui se sont d’emblée classés au top de l’existant. La baffe qu’ils ont collé à tout le monde est indéniable que ce soit pour Intel, AMD ou NVIDIA. Et ce n’est pas la comparaison des performances le problème, c’est la facilité avec laquelle Apple s’est installé en challengeur voire référence et ce sur tous les fronts. Il y a de quoi se poser des questions sur la soit disant avance de ces entreprises qui dominent le marché depuis des années.
Sabrewolf
C’est étonnant à quel point enfin il y a des lecteurs qui regarde la conso des machines. Alors qu’au début quand je le pointait du doigt ou demandais à Clubic de parler des consommations des produits testés, j’avais dés réponse de lecteur disant en même temps tu n’achète pas si tu n’acceptes pas de payer pour l’énergie ! Bref ça fait plaisir qu’il aura fallu une forte augmentation des prix de l’énergie pour enfin voir ce genre de commentaires.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet