Google officialise Gemini Intelligence sur Android. Derrière ce nom, une refonte en profondeur qui place l'IA au centre de chaque interaction, des tâches multi-étapes aux widgets générés à la demande.
Depuis des années, les assistants vocaux promettent de simplifier la vie sans vraiment y parvenir. On leur pose des questions simples, ils répondent de façon approximative, et l'on repose le téléphone légèrement déçu. Avec Gemini Intelligence, le géant de Mountain View ne se contente pas d'améliorer son chatbot IA : il repense la façon dont Android interagit avec vous, anticipe vos besoins et automatise les tâches que vous n'avez plus envie de faire vous-même. Le déploiement commence cet été sur les Samsung Galaxy et Google Pixel les plus récents, avant de s'étendre aux montres, voitures, lunettes et ordinateurs portables Android d'ici la fin de l'année.
Gemini Intelligence : un assistant qui agit et travaille à votre place
La promesse centrale de Gemini Intelligence, c'est l'automatisation des tâches en plusieurs étapes. « Intelligence », le mot est lâché, et la coïncidence avec Apple Intelligence semble trop belle pour en être une. Là où un assistant classique se contentait d'ouvrir une application ou de lancer une recherche, Gemini navigue désormais dans vos applications pour accomplir des actions concrètes : composer une liste de courses, organiser un dîner, réserver un VTC, trouver un cours de fitness ou acheter des billets de spectacle.

La multimodalité enrichit encore cette capacité. En photographiant un dépliant touristique, Gemini peut rechercher une excursion similaire directement sur Expedia pour un groupe de six personnes. Pas besoin d'ouvrir l'app Gemini pour accomplir ces tâches. L'IA suit la progression en arrière-plan et vous envoie une notification, mais ne finalise jamais une action sans votre confirmation explicite. Une bulle d'information est affichée en haut de l'écran quand l'opération est terminée, et vous pouvez faire autre chose pendant que Gemini travaille à votre place.

Deux nouvelles fonctionnalités complètent ce tableau. Rambler transforme la dictée vocale du clavier Android, Gboard, en texte affiné et cohérent : les hésitations naturelles du langage parlé disparaissent, et l'utilisateur peut reformater son texte par commande vocale en temps réel. Vous pouvez pas exemple demander de le convertir en liste avec des emojis. La prise en charge multilingue fonctionne au sein d'un même message.
Create My Widget permet quant à lui de générer des widgets entièrement personnalisés en langage naturel, comme une liste d'activités pour les enfants ce week-end ou des offres de dernière minute pour des concerts. Android les construit et les installe directement sur votre écran d'accueil, avec mise à jour automatique en arrière-plan en fonction des données disponibles sur votre téléphone.
L'exécution de ces tâches repose sur une approche hybride : les opérations simples sont traitées localement via Gemini Nano pour la rapidité et la confidentialité, tandis que les tâches plus complexes transitent par le cloud. Rambler, par exemple, sera initialement réservée aux appareils estampillés Gemini Intelligence (on imagine que le Pixel 11 sera l'un des premiers modèles compatibles) en raison de ses besoins matériels spécifiques.
Sur le fond, Google choisit de frapper vite et fort là où Apple, avec Apple Intelligence et le Siri refondu attendu sous iOS 27 en septembre, accuse encore du retard sur des fonctionnalités annoncées depuis WWDC 2024. L'enjeu n'est plus seulement d'avoir le meilleur assistant vocal : c'est de faire d'Android la plateforme mobile la plus capable d'agir, pas seulement de répondre.
Navigation, formulaires et design : une refonte de l'expérience au quotidien
Au-delà de l'automatisation, Gemini Intelligence s'intègre dans les gestes les plus courants. L'autofill évolue vers quelque chose de plus ambitieux : connecté à vos données personnelles, Android peut désormais remplir des formulaires complexes en un seul clic, de manière intelligente et sécurisée, en puisant dans les informations pertinentes de votre écosystème Google. La fonctionnalité reste strictement optionnelle et désactivable à tout moment.
Dans Chrome sur Android, Gemini arrive dès fin juin comme assistant de navigation contextuel, capable d'automatiser des tâches répétitives sur le web : prise de rendez-vous, recherche d'articles en rupture de stock, résumés d'articles en cours de lecture.
L'interface elle-même est repensée avec Material 3 Expressive, un nouveau langage visuel conçu pour réduire les distractions et signaler subtilement quand Gemini est actif. Ce n'est pas un détail cosmétique : Google considère que la lisibilité et la fluidité visuelle font partie intégrante de l'expérience IA. Google en a d'ailleurs profité pour revoir l'ensemble de ses emojis avec Android 17, qui sont désormais plus ronds et se rapprochent un peu du skeuomorphisme des années 2000.
Android 17 apporte par ailleurs son lot de nouveautés indépendantes : un partenariat avec Instagram pour l'Ultra HDR et l'édition intelligente native, une fonction Screen Reactions permettant d'enregistrer sa réaction en surimpression d'un contenu, des outils de séparation des pistes audio exclusifs à Android, et Pause Point, qui encourage une utilisation plus intentionnelle en proposant un exercice de respiration à l'ouverture des applications jugées distrayantes. La migration vers un nouveau téléphone est également simplifiée : mots de passe et disposition exacte de l'écran d'accueil se transfèrent désormais sans fil, en plus des applications et contacts habituels.
Android 17 poursuit son cycle de bêta et devrait être disponible autour de la rentrée 2026, d'abord sur les gammes Google Pixel.