Linus Torvalds veut un Mac ARM sous Linux

Guillaume Belfiore
Lead Software Chronicler
23 novembre 2020 à 15h20
26
Linus Torvalds

La nouvelle puce ARM d'Apple ne semble laisser personne indifférent. Et pour cause, les premiers retours sont particulièrement positifs, notamment en ce qui concerne les résultats des tests de performances. Du côté de Linux, on s'imagine même l'utiliser pour exécuter le kernel.

Linus Torvalds, créateur du noyau Linux dès 1994, a en effet récemment salué les efforts opérés par Apple sur sa puce M1. Il ne cache d'ailleurs pas qu'il aimerait bien exécuter une distribution GNU/Linux sur l'un des nouveaux MacBook récemment présentés.

Un adepte des MacBook

Récemment interrogé, sur forum Real Work Tech, au sujet des ordinateurs portables d'Apple, Linux Torvalds a expliqué : « J'adorerais vraiment en avoir un, s'il y avait Linux dessus. J'ai plutôt de bons souvenirs du MacBook Air 11 » . Avant d'ajouter qu'Apple a toutefois fait en sorte qu'on ne puisse pas y exécuter facilement Linux.

Dans un autre fil de discussion, Linus Torvalds réagit aux premiers tests de performances effectués sur le nouveau Mac Mini disposant de la puce M1. Il affirme alors : « ça a l'air vraiment bien. Je suis réellement impressionné par l'efficacité de Rosetta 2. Bien plus que je ne le pensais ».

Rappelons que Rosetta 2 permet d'exécuter, sur les nouveaux Mac ARM, les applications x86-64 initialement conçues pour les Mac dotés d'un processeur Intel.

Linus Torvald rêve d'un Mac sous Linux sans bidouille

À 51 ans, Linus Torvalds serait-il las de bidouiller ses machines ? En tout cas, si l'adepte des MacBook aimerait bien une machine fonctionnant sous Linux, il n'est pas près à mettre les mains dans les entrailles de la bête.

« Cela fait longtemps que je veux un ordinateur portable ARM pouvant exécuter Linux. Le nouveau Air serait presque parfait, mis à part l'OS. Et je n'ai pas le temps de le bidouiller, ni l'envie de me battre avec des sociétés qui ne veulent pas aider ».

Clairement, il n'est pas dans les intentions d'Apple de permettre aux développeurs Linux d'utiliser ses nouvelles machines. Toutefois les propos de Linus Torvalds sonneraient presque comme un appel à la communauté pour voir ce qu'il est possible de faire sur ces MacBook.

Source : The Next Web

Guillaume Belfiore

Lead Software Chronicler

Lead Software Chronicler

Je suis rédacteur en chef adjoint de Clubic, et plus précisément, je suis responsable du développement éditorial sur la partie Logiciels et Services Web.

Lire d'autres articles

Je suis rédacteur en chef adjoint de Clubic, et plus précisément, je suis responsable du développement éditorial sur la partie Logiciels et Services Web.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (26)

Bart91
Linux c’est 1991, pas 1994 ! Et je ne suis pas surpris, dès que j’ai lu l’article sur les performances de ces Macs, j’ai pensé aux processeurs Transmeta dans lesquels Linux avait investi au tournant 1990s/2000s, qui avaient hélas fait faillite.
Martin_Penwald
Linus avait travaillé pour Transmeta il me semble.
Bibifokencalecon
Pour le moment, ces SoC ARM (Apple) ne permettent pas d’avoir un GPU dédié en parallèle. Mais dans le futur, il est certain que Nvidia sera impacté. Celui-ci va vite devoir s’adapter à cette nouvelle réalité par des partenariats ou des rachats. Déjà débuté en fait, mais à accélérer pour ne pas s’enfermer économiquement sur le seul marché des GPU. Mais le plus probable est un rapprochement AMD-Intel-Nvidia pour contrer Apple dans un futur proche.<br /> Nvidia n’arrive pas à s’implanter durablement dans d’autres écosystèmes (Consoles / Ecosystème Gaming) par manque de partenariats, mais reste dominant dans les GPU grands publics, professionnels et industrielles (recherche).<br /> Intel a profité d’un partenariat avec AMD pour obtenir des iGPU plus performants, mais peine toujours au niveau de l’optimisation logicielle (driver). Et restent dans la course au niveau des CPU.<br /> Et AMD est le seul à avoir augmenter ses parts de marché «&nbsp;partout&nbsp;» (GPU, CPU, tout domaine) grâce à une stratégie de restructuration (plus d’usines de fabrication, et implantation durable dans les consoles de jeux vidéos). Mais il reste un petit poucet face à Apple et Intel.<br /> La faille d’Apple serait de limiter volontairement ses SoC à ses seuls appareils. Par le passé, ils ont toujours faits le choix de garder cette main technologique et logicielle afin de pousser les usagers à venir chez eux (et contrôler la production). Mais on ne s’impose pas numéro 1 avec ce genre de stratégie.
rsebas3620
la realité de l’arm va vite arriver et posera probleme non pas des la prochaine generation mais dans 5/6 ans… et ceux qui ont programmé en arm le savent pertinament pour ma part on verra bien je laisse 6 ans pour voir si ils arrivent a ne pas faire comme les autres et du coup a reellement gagner la bataille
rsebas3620
apres en terme de performance tant qu’on ne peut rien comparer c’est tout bonus pour apple mais des que la comparaison sera possible la ca ne sera surement plus le meme debat (j’attends la version d’adobe premiere et les premieres enco pour voir ce que ca vaut reellemnt)… apres si il faut je me trompe aussi donc sans test pas debat sur les perfs
rsebas3620
oui je confirme pendant 4 ou 5 ans
cyberclic
Vous pensez qu’à plus ou moins long terme, l’archi X86 va être totalement remplacée par l’ARM ?
Frederic_Julien
Il était même co-fondateur
Bibifokencalecon
Pour le moment, difficile de dire. L’architecture ARM a du potentiel pour sortir du secteur «&nbsp;Mobile/Tablette&nbsp;». Personne n’en doute vraiment. Il y a une convergence marquée ces 10 dernières années vers des appareils polyvalents et partageant une architecture commune.<br /> Plusieurs s’y sont tentés (Intel / Microsoft, ARM ou x86) mais soit la technologie n’était pas encore au point, soit l’écosystème et l’utilisabilité était défaillante. Ceci dit, ils ont défriché le marché pour les autres. Le potentiel est là et n’attend qu’un leader émerge.<br /> La question est si ARM parviendra à -au minimum- équivaloir les performances de l’architecture x86 pour des besoins applicatifs lourds. Si la percée se confirme, et que l’architecture x86 se retrouve dans une impasse technologique dans les prochaines 5-10 prochaines années, alors oui, ce sera un «&nbsp;remplacement&nbsp;». Reste la convergence applicative aussi (la compatibilité). C’est d’ailleurs sur cela que travaille le plus Apple présentement.<br /> Mais cela fait beaucoup de si. On en sera déjà un peu plus au courant Q1-2021 avec l’arrivée de plusieurs logiciels importants (pour les créatifs par exemple) et les véritables benchmarks.
ullbach
Les gens sont d’un conservatisme…Que des experts de la tech ou un gars comme linux qui ne peut pas blairer apple disent que cette puce (et le portage ARM) sur laptop est un prouesse, c’est que c’est un peu vrai.<br /> Je ne suis pas pro Apple, je n’aime pas trop leur enfermement d’ailleurs mais la puce M1 est un saut technologique (le rapport puissance/watt est inédit).<br /> j’utilise également windows et linux et j’aimerai avoir cette puce ou un équivalent (que ça soit du huawei ou autre firme) Je pense que Huawei peuvent sortir quelque chose d’aussi optimisé s’ils arrivent à débloquer leur embargo sur la gravure en 5nm
KlingonBrain
La question est si ARM parviendra à -au minimum- équivaloir les performances de l’architecture x86 pour des besoins applicatifs lourds. Si la percée se confirme, et que l’architecture x86 se retrouve dans une impasse technologique dans les prochaines 5-10 prochaines années, alors oui, ce sera un « remplacement ».<br /> Il n’y a pas d’architecture ARM, ni d’architecture x86. Simplement deux jeux d’instruction différents et des processeurs de différents constructeurs qui les implémentent.<br /> D’une manière générale, les performances d’un processeur dépendent plus de l’expérience et du talent de ceux qui conçoivent un processeur que du jeu d’instruction utilisé. (Attention, je parle d’un principe général, ça ne signifie pas que les contre exemples soient impossibles.)<br /> Donc oui, les processeurs basés sur un jeu d’instruction ARM arriveront vraisemblablement un jour à égaler ceux basés sur un jeu d’instruction x86 sur les besoins les plus lourds. Mais, il n’y a pas de raison que les processeurs x86 se retrouvent dans une impasse.<br /> Il est possible en revanche que pour diverses raisons qui peuvent tenir aux accords de licence plus qu’a des raisons techniques, un jeu d’instruction finira par s’imposer et rendra l’autre obsolète.<br /> Ne pensez pas qu’Intel ne peut pas fabriquer des processeurs à jeu d’instruction ARM. Ils l’ont déjà fait.
Bibifokencalecon
Le terme «&nbsp;architecture ARM&nbsp;» (ou x86) est une simplification volontaire pour dire «&nbsp;architecture de jeu d’instructions ARM&nbsp;» utilisée en milieu de l’ingénierie infomatique. Mais bon, si on veut vraiment aller à un niveau de détails…<br /> Architecture de jeu d’instruction (ISA)<br /> Famille d’architecture<br /> Extensions de jeu d’instructions<br /> Exemple de CPU<br /> RISC<br /> ARMv8.2<br /> FPU, NEON<br /> ARM Cortex-A77<br /> CISC<br /> x86-64<br /> MOVBE, MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, POPCNT, AVX, AVX2, AES, PCLMUL, FSGSBASE, RDRND, FMA3, F16C, BMI, BMI2, VT-x, VT-d, TXT, TSX, RDSEED, ADCX, PREFETCHW, CLFLUSHOPT, XSAVE, SGX, MPX, AVX-512<br /> Intel i7-10700K<br /> Donc. Plus simple de dire Architecture ARM vs Architecture x86 dans le langage courant. Le grand public comprend qu’il y a deux approches différentes, les professionnels savent en arrière de quoi il s’agit.
KlingonBrain
Je comprends bien ce que vous dites, mais s’il est parfois nécessaire de passer outre les abus de langage pour entrer dans les détails qui sont derrière les mots, c’est pour bien comprendre ce qui se passe réellement derrière. Et pouvoir en tirer des conclusions.<br /> Et justement, ce qu’il faut comprendre, c’est qu’a l’heure actuelle, ces deux approches ne sont plus vraiment différentes. Ni le x86, ni l’ARM d’aujourd’hui ne sont à proprement parler des RISC ou des CISC. C’est peut être encore enseigné comme ça dans des vieux cours de vulgarisation, mais c’est aujourd’hui dépassé.<br /> Parce que le x86 actuel est aussi un processeur RISC, car derrière son jeu d’instruction complexe, se cache une unité d’exécution qui traite en réalité des instructions de type RISC (c’est un peu plus complexe, en réalité, mais c’est le principe).<br /> L’ARM actuel est aussi un CISC, car son jeu d’instruction n’est plus «&nbsp;cablé&nbsp;», mais utilise un décodeur d’instruction complexe comme les processeur CISC. Et cela pour diverses raisons, par exemple, parce que cela permet un fonctionnement «&nbsp;superscalaire&nbsp;» permettant d’exécuter plusieurs instructions simultanément dans un même cycle d’horloge.<br /> Bref, ce que je voulait dire, ce n’était pas pour lancer une polémique pour pinailler sur le sens des mots (oui, je sais que l’informatique est un domaine peu précis), mais pour rappeler que tous les processeurs actuels fonctionnement peu ou prou de la même façon, quel que soit leur jeu d’instruction. Et que par conséquent, le jeu d’instruction (x86 ou ARM) ne conditionne plus réellement les performances que les processeurs peuvent atteindre. Du moins pas dans la même mesure que par le passé.<br /> Quand on a entendu parler pour la première fois de l’ARM, c’était il y a longtemps, dans une machine d’origine anglaise qui s’appelait l’Acorn Archimèdes, c’était un peu une révolution en terme de puissance (bien que la machine n’ait pas du tout été un succès en France) car son IPC (instructions par cycle) était bien au dessus des processeurs à la mode à l’époque qui étaient les 68000 (qui passaient le plus clair de leur temps à décoder les instructions). A cette époque, jeu d’instruction ET architecture matérielle des processeurs allaient effectivement de paire. C’est pour cette raison qu’on pouvait confondre le terme d’architecture quand on parlait en réalité du jeu d’instruction. Mais qu’aujourd’hui, justement, les choses ont changé dans le sens ou la typologie du jeu d’instruction ne conditionne plus forcément l’architecture qui se trouve derrière.<br /> Donc sur le papier, l’ARM peut atteindre les performances du x86.
Kratof_Muller
Ce n’est pas dans l’immédiat que les instructions avancées (complexes) de traitement matriciel ou de virtualisation seront portées sur ARM c’est même antinomique.<br /> En revanche, les designs arm semblent du coup plus simples à réaliser et graver, c’est sans doute par ces processeurs que seront introduits les semi conducteurs de demain( à moins d’une niche professionnelle et d une lithographie hybride pour certaines instructions), graphène, nanotubes, par exemple … Le marché n’est pas prêt, mais les performances se tassent depuis quelques années, et certains comme IBM ou Samsung ont déjà des brevets et validé ces nouveaux transistors, il y a quelques années en arrière, répondant et solutionnant le problème de band gap du graphène, des fréquences allant à 400Ghz, théoriquement, cela peut même être plus rapide.<br /> La 6G utilise des oscillateurs fonctionnant aux alentours du tera hertz, de telles fréquences ne sont pas obtenues avec des horloges en silice. W8&amp;C
Karnag
Je me pose justement la question de RISC vs CISC en tant que dev. Je suis sur différent sujet dans des sujets avec ML et je me demande si ces instructions manquantes peuvent impacter les perfs, voir carrément rendre inutilisable certaines lib. Vu que c’est intrinsèque aux jeux d’instruction, cela voudrait dire obligation pour les dev de rester sur x86 si on touche à de l’IA par exemple.<br /> Dans le cas du M1 il y a justement des core pour la partie ML dédiés, même si cela laisse présager de meilleure perfs, est-ce que cela veut-dire des lib spéciales pour taper dans ces cores ?<br /> EDIT : J’ai une partie de ma réponse ici : https://global.techradar.com/fr-fr/news/apple-m1-rend-ia-machine-learning-plus-rapides
Baldino
@KlingonBrain, en tant que néophyte sur ce sujet, je trouve les abstractions de @Bibifokencalecon tout à fait suffisantes pour comprendre l’enjeu x86/arm, le reste c’est du détail pour les pro (qui n’en ont pas forcément besoin) ou de l’étalage de confiture pour le grand public (pas plus besoin)
ultrabill
Ne serais-ce que pour rappeler, dans le cas présent, l’inutile comparaison CISC/RISC ça ne fait pas de mal, bien au contraire.
Urleur
On en reparle dans 10 ans, sa laisse du temps que les gens soient équipé, c’est comme la 4g en france avec ses nombreuses zones blanche, alors la 5 G… 2026 ?
KlingonBrain
Je n’ai rien contre les abstractions qui permettent de vulgariser la technologie.<br /> Le souci, c’est qu’en utilisant des abstractions anciennes qui ne correspondent plus du tout au fonctionnement des processeurs d’aujourd’hui, on peut facilement arriver à des conclusions fausses.<br /> Si vous préférez une explication simple, aujourd’hui, tout le monde fait à peu près la même chose en utilisant des solutions techniques relativement similaires et bien connues. Et donc qu’avec des équipes de concepteurs de niveau similaire, on peut prédire qu’ils arriveront tous peu ou prou à des résultats similaires.<br /> Cette avancée d’Apple ne fait que confirmer ce que les spécialistes prédisent depuis longtemps.
rsebas3620
information a prendre avec d’enorme pincette j’attendrais de voir les test avec des logiciels adapté avant de crier au mircales les dernier test le montre entrre un 4700U et un M1 les perfs sont similaire sauf que le premier ne coute pas le prix du M1
rsebas3620
tu devrais poser ton cv chez apple ils sont en manque de personnel comme toi veut que j’ai deja donné il y a longtemps… maintenant pose toi la question du pourquoi son ecosysteme est il de la sorte, est ce pour les consommateurs ou pour lui meme meme constat en terme d’appareil non mis a jour… dis toi que mac os server n’existe plus et c’est tres bien comme ca car a force de fermer un os il arrive qu’il est impossible a etre configurer professionnelement parlant donc du coup l’os va etre encore plus fermé suite a la decision de passer mac os sur arm et donc les jeux d’instruction les moins utilisé seront au fur et a mesure supprimé et certains vont se retrouver encore une fois dans l’impossibilité de faire les mise a jours comme il y a tres peu de temps…comme a chaque fois… comme j’ai dit autant un telephone ce n’est pas trop genant autant sur un ordi ce n’est pas la meme histoire
Zozoor
oui et non ! Le jeu d’instruction ne décide plus de l’architecture, certe, mais ARM a bien une archi différente des processeur intel ! Même très différentes ! C’est bien pour ça qu’ils sont plus efficace energétiquement (ça et la gravure)<br /> Maintenant, pour monter en game, il y a énormément de difficulté, et en plus ARM a la «&nbsp;mauvaise&nbsp;» idée de laisser ses partenaires faire un peu ce qu’il veulent, ce qui équivaut à de la fragmentation !<br /> Il n’y certe pas ce problème chez Apple, mais l’ARM pourra jamais percer en l’état !<br /> Et linus torvald le dit lui même! Bien sur, c’était l’année dernière, mais le fond du problème n’a pas changer !<br /> https://www.developpez.com/actu/248270/Pour-Linus-Torvalds-ARM-ne-gagnera-pas-la-concurrence-sur-le-marche-des-serveurs-a-cause-du-niveau-de-fragmentation-eleve-et-d-autres-raisons/<br /> Comme quoi, certains spécialistes ne vont pas dans ton sens (et j’en fais partie).<br /> Le M1 est un sacré tour de force, pour son rapport performance / watt /prix (merci les licenses ARM)…mais il ne m’impresionne pas plus que ça en performance brute !
Zozoor
Tout a fait d’accord pour le rapport puissance watt, mais il ne faudrait pas oublier que c’est très lié à la finesse de gravure, et qu’un processeur X86 n’a pas de contre indication à être gravé dans cette finesse.<br /> Et quand tu vois que le rapport puissance watt est déjà en faveur d’AMD malgré la finesse plus grosse :<br /> Ars Technica<br /> New RISC-V CPU claims recordbreaking performance per watt<br /> Micro Magic's new CPU offers decent performance with record-breaking efficiency.<br /> oui, ça reste un tour de force pour de l’ARM, et le processeur a l’air :<br /> -bon<br /> -pas cher (merci les licences X86 astronomiques)<br /> mais je reste pas «&nbsp;impressionné&nbsp;» !
Zozoor
je te suis pas là! Déjà, ARM et GPU dédié, ça va rarement ensemble (et les iGPU arm sous M1 sont pas plus performant que ceux d’AMD). Si cela arrivait, rien n’empêcherait Nvidia de faire des GPU dédié à ces plateformes (leur X1 était quand même assez monstrueux) .<br /> Pour l’instant, dans le marché GPU, il y a pas grand monde en face, malheureusement…
ullbach
Je ne pense pas que le rapport puissance/watt soit en faveur AMD, dont la finesse est déjà avancée (même si plus grosse). Il est clair que TSMC est le graveur à avoir. Je pense que c’est due à la nature même d’un processeur CISK.<br /> En informatique grand public, c’est un un gros pavé dans la marre. Huawei et d’autres vont suivre avec des propositions de soc RISC type ARM ou pourquoi plus tard, du RISC V.<br /> Si je devais me procurer un pc maintenant, je prendrai quelque chose de similaire à la proposition d’un mac mini M1 ou si disponible un windows ou linux tournant sur un ARM de puissance équivalente. Huawei ont déjà commencé à tester des laptop en Chine sur base ARM (il y a aussi des pc portables BYD qui tournent sur MIPS mais c’est moins efficient)<br /> C’est réactif, puissant, ultrasilencieux, économe…<br /> Un M1 est tout aussi puissant que des grosses tours Macintel de 4000 euros, pour sa première version. L’x86, grand public commence sa descente<br /> ps : edit, je viens de lire le lien, performance/watt sur les ryzen, à creuser.
KlingonBrain
oui et non ! Le jeu d’instruction ne décide plus de l’architecture, certe, mais ARM a bien une archi différente des processeur intel ! Même très différentes ! C’est bien pour ça qu’ils sont plus efficace energétiquement (ça et la gravure)<br /> Justement, non.<br /> L’architecture fut différente dans les années 90. Mais c’est quelque chose qui appartient au passé.<br /> Les processeurs x86 et ARM d’aujourd’hui une architecture très similaire. Pour simplifier, ce sont des processeurs VLIW dotés d’un gros front end de translation.<br /> Quand à l’efficience énergétique, c’est plus compliqué.<br /> Il suffit de regarder un die de processeur moderne pour comprendre que l’architecture n’y est pour rien. Le coeur des processeur, c’est finalement peu de transistors comparé aux caches et aux ALU.<br /> Pour simplifier, la consommation d’un processeur moderne tient dans la maîtrise du power gating, des caractéristiques du processus de gravure et des choix techniques.<br /> Pour expliquer ce dernier point, je donnerais l’exemple de la mémoire cache. Si vous pouvez gagner 5% de performances en doublant la taille du cache, cela augmentera notablement la consommation. Le choix d’intégrer la technique dépendra de la destination du processeur. Desktop, on le fera certainement, Mobile, on ne le fera vraisemblablement pas.
KlingonBrain
En informatique grand public, c’est un un gros pavé dans la marre. Huawei et d’autres vont suivre avec des propositions de soc RISC type ARM ou pourquoi plus tard, du RISC V.<br /> Possible, mais à mon humble opinion, sur le long terme, il n’est pas certain que les jeux d’instruction RISC perdurent.<br /> Et cela parce qu’ils sont moins efficient en terme d’usage de la bande passante mémoire que les jeux d’instruction CISC.<br /> Autant ce n’était pas un problème critique dans les années 80, autant avec la multiplication des coeurs, on peut prédire que cela peut devenir un souci rédhibitoire.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet