Apple est souvent critiquée pour sa position relativement passive sur le domaine de l'intelligence artificielle face à ses rivaux. Un nouveau rapport révèle que cette stratégie découle en fait d'une conviction interne forte : les modèles de langage actuels ne sont qu'une technologie destinée à se banaliser rapidement.

Alors que la concurrence investit des sommes colossales pour créer les modèles les plus performants du marché, la firme de Cupertino semble faire le pari inverse. Elle préfèrerait limiter ses dépenses immédiates sur les modèles bruts pour mieux contrôler l'écosystème qui les accueillera demain.
Pour Apple, le LLM importe peu
Selon des informations rapportées par The Information via 9to5Mac, plusieurs dirigeants chez Apple considèrent que les grands modèles de langage (LLM) vont inévitablement devenir des "commodités". En d'autres termes, cela désigne une ressource standardisée, interchangeable et courante, à l'image de l'électricité ou de la bande passante internet. Si cette vision se confirme, dépenser des milliards aujourd'hui pour développer une technologie qui ne sera plus un facteur différenciant dans quelques années constitue pour Apple une erreur stratégique.
Cette approche expliquerait alors le décalage observé avec des acteurs comme OpenAI, Google ou Meta, qui continuent d'injecter des ressources massives dans l'entraînement de modèles toujours plus volumineux. Pour Apple, la véritable valeur ne résidera pas dans le moteur d'IA lui-même, mais dans la maîtrise de l'environnement global. L'entreprise mise sur son point fort historique : l'intégration verticale entre ses puces Apple Silicon, ses systèmes d'exploitation et ses services.
Pour cette raison, Apple n'entendrait donc pas tout miser sur un modèle propriétaire mais a préféré nouer des partenariats avec Open AI et Google. Nous savons par exemple que la prochaine évolution majeure de Siri s'articulera sur le modèle Gemini. Apple conserve certes des équipes internes travaillant sur ses propres solutions, mais refuse de participer à une course à la puissance brute qu'elle juge financièrement inefficace à long terme.
Si l'avenir donne raison à Tim Cook, le succès dans l'IA ne dépendra donc pas de celui qui possède le "plus gros" modèle, mais de celui qui l'intègre le mieux au quotidien de l'utilisateur. En pariant sur la banalisation des algorithmes, Apple espère que sa maîtrise du matériel et du logiciel restera le seul véritable rempart concurrentiel lorsque la fièvre des LLM sera retombée.