Avec iOS 27, Apple s’apprête à transformer Siri en plateforme ouverte. Gemini, Claude et d’autres modèles tiers pourraient bientôt répondre à votre place.

Depuis l’intégration de ChatGPT dans iOS 18, Apple a clairement acté que son assistant vocal ne pouvait plus tout faire seul. Une concession stratégique, qui ouvrait la voie à quelque chose de plus grand. Selon Bloomberg, iOS 27 franchit une nouvelle étape : Apple préparerait un système baptisé « Extensions », permettant aux utilisateurs de choisir eux-mêmes quel modèle d’IA alimente Siri, les outils d’écriture, Image Playground et d’autres fonctionnalités d’Apple Intelligence. Gemini, Claude, et potentiellement d'autres assistants pourraient ainsi s’installer au cœur de l’iPhone, chacun avec sa propre voix. Une ouverture inédite pour un écosystème longtemps réputé fermé.
Extensions : Apple ouvre ses portes aux IA tierces
Dans les versions de test d’iOS 27, Apple décrit les Extensions comme un système permettant « d'accéder aux capacités d'IA générative d'applications installées, à la demande, via des fonctionnalités d'Apple Intelligence comme Siri, les outils d'écriture, Image Playground et plus encore ». Le principe est simple : si Google intègre ce système dans l’application Gemini, et Anthropic dans l'application Claude, l’utilisateur pourra choisir lequel de ces modèles alimente ses interactions au quotidien.
Cette annonce s’inscrit dans une stratégie plus large. Apple a déjà conclu un accord avec Google pour que Gemini alimente nativement certaines fonctionnalités de Siri et d'Apple Intelligence. Les Extensions vont plus loin, en donnant la main à l'utilisateur plutôt qu’à Apple pour décider quel cerveau artificiel opère en arrière-plan. ChatGPT, déjà présent depuis iOS 18 comme solution de repli pour les requêtes nécessitant des connaissances générales, pourrait lui aussi s’intégrer à ce nouveau cadre.
Le déploiement est prévu pour cet automne, simultanément sur iOS 27, iPadOS 27 et macOS 27. La présentation officielle aura lieu lors de la WWDC, qui s’ouvre le 8 juin prochain.

Une voix différente selon le modèle choisi
L’une des nouveautés les plus inattendues de ce système concerne l’identité sonore de Siri. iOS 27 permettrait à l’utilisateur d’attribuer une voix distincte à chaque modèle d’IA. Les réponses générées par le système natif d’Apple utiliseraient une voix, tandis que celles produites par un modèle tiers, Claude ou Gemini par exemple, pourraient en adopter une autre. Une façon de savoir, sans regarder son écran, quelle intelligence artificielle est en train de répondre.
Cette granularité dans la personnalisation illustre la direction qu’Apple semble vouloir prendre : non plus proposer un assistant unique et fermé, mais construire une plateforme sur laquelle plusieurs acteurs de l’IA cohabitent, chacun accessible selon le contexte ou les préférences de l’utilisateur.
Pour les développeurs comme Google ou Anthropic, décrocher une place dans ce système représente un accès privilégié à des centaines de millions d’iPhone dans le monde. Pour Apple, c’est un moyen de rester incontournable sans avoir à gagner seul la course aux modèles. Un équilibre subtil, qui sera scruté de près lors de la WWDC.