Apple développe une app interne inspirée de ChatGPT pour accélérer la mise au point de son futur Siri. Prévu pour 2026, l’assistant vocal intégrera un modèle de langage avancé et une interface repensée.

Depuis la WWDC 2024, les fans d'Apple attendent toujours le Siri révolutionné que Tim Cook et ses équipes leur avaient promis. L’entreprise travaille pourtant activement sur une refonte majeure de son assistant vocal, en s’appuyant sur les technologies d’intelligence artificielle générative. Selon Bloomberg et Mark Gurman, Apple aurait même distribué en interne une application, conçue comme un laboratoire grandeur nature. Elle fonctionne sur le modèle des chatbots existants avec des conversations multiples, la possibilité de se souvenir du contexte et une intégration poussée avec les données personnelles comme la musique, les mails ou les photos. Les tests vont bon train, alors qu'Apple n'a plus une seconde à perdre pour remonter dans le train de l'intelligence artificielle et faire oublier le lancement d'Apple Intelligence.

Veritas, un ChatGPT à la sauce Apple pour éprouver son LLM maison
L’application, baptisée en interne Veritas, ne sortira pas au grand public et a pour objectif de simuler le fonctionnement du futur Siri. Elle permet de dialoguer sur plusieurs sujets, d’enchaîner des requêtes en continu et de garder en mémoire les conversations passées. Contrairement à l’actuel Siri limité à des ordres ponctuels, cette version expérimentale s’appuie sur un grand modèle de langage interne baptisé Linwood. L'interface serait à des années-lumière des standards du constructeur et elle sert surtout à recueillir du feedback en interne, afin d’affiner la pertinence des réponses et la fluidité des interactions.
Ce nouvel assistant serait aussi capable de réaliser des actions directement dans les applications. Apple teste par exemple l’édition de photos, la recherche de morceaux dans Apple Music ou encore la gestion de messages. L’idée est de rendre Siri capable de faire bien plus qu’exécuter des commandes simples, en se rapprochant du fonctionnement des agents conversationnels modernes.
Parallèlement, l’entreprise n’exclut pas de recourir à des partenaires extérieurs pour motoriser certaines fonctions. Des discussions auraient eu lieu avec OpenAI, Anthropic et Google, ce qui ouvre la possibilité d’un Siri utilisant Gemini ou un autre modèle tiers pour compléter ses propres capacités. Ce dernier tiendrait la corde pour assister Siri dans les demandes complexes.
Vers un Siri à la fois plus humain et plus puissant, mais le temps presse
Apple ne se contente pas de travailler sur l’intelligence artificielle derrière Siri : une refonte esthétique est aussi à l’étude. D’ici fin 2026, l’assistant pourrait adopter une identité visuelle plus « humaine », possiblement proche de l’icône Finder du Mac, afin de renforcer la dimension personnelle et accessible de l’outil. L’arrivée prévue de nouveaux appareils comme un HomePod avec écran ou une Apple TV repensée incite l’entreprise à imaginer une interface plus expressive et plus interactive.
Le calendrier reste serré : Apple vise un lancement en mars 2026, après un premier report lié à des problèmes de fiabilité. Ce délai supplémentaire doit permettre de livrer un produit à la hauteur des attentes, alors que chaque faux pas entamerait un peu plus l’image d’innovation de l’entreprise.
Au-delà du nouveau Siri, ces travaux s’inscrivent dans une stratégie plus large. L’équipe AKI (Answers, Knowledge and Information) planche sur un moteur de recherche intégré, conçu pour rivaliser avec ChatGPT Search ou Perplexity. Couplée à un Siri entièrement repensé, cette approche pourrait permettre à Apple de revenir dans la course à l’IA générative et de proposer une alternative crédible aux solutions déjà bien établies.
La marque de Cupertino n'a plus beaucoup de temps pour proposer sa propre IA et des usages concrets pour ses utilisateurs, avant d'être définitivement distancée par ses concurrents.
Source : MacRumors