Demandez à Gemini de dessiner votre famille en vacances à la plage, et il fouille lui-même votre bibliothèque Google Photos pour trouver les visages, les lieux et le contexte. Vous n'avez pas besoin d'ajouter une photo ni de rédiger une description. Cette semaine, Google a annoncé l'intégration de Personal Intelligence à Google Photos, via le modèle de génération d'images Nano Banana 2.

Si vous utilisez un générateur d'images par IA, alors vous savez très bien que pour créer une image personnalisée avec générateur d'images par IA, vous deviez passer par un prompt détaillé, uploader une photo de référence à la main, et donner des explications sur qui est qui. Gemini n'a plus besoin de tout cela. Il puise directement dans les étiquettes que vous avez créées dans Google Photos, prénoms de vos proches et noms de vos animaux compris, pour comprendre votre demande et générer l'image. Tapez « crée une aquarelle de ma maison de rêve dans mon décor préféré », et Gemini déduit seul ce que vous entendez par là, à partir de vos photos existantes.
Nano Banana 2 sur Gemini 3.1 Flash associe les fonctionnalités avancées de la version Pro avec des vitesses d'itération plus rapides. C'est ce modèle que Google connecte désormais à votre photothèque.
Une intégration qui retarde l'abandon de Google Photos au profit d'un autre outil de stockage
En liant la génération d'images à votre bibliothèque Photos, à vos préférences Gmail, ou à vos données Agenda, Google fabrique une version de Gemini qui n'appartient qu'à vous, mais qui ne fonctionne vraiment que dans son propre écosystème. Plus Gemini devient personnel, plus il est difficile pour un assistant concurrent de le remplacer, faute de connaître vos photos, vos goûts ou votre historique.
Il faudrait tout reconstruire pour Migrer vers OpenAI ou Anthropic, car ni l'un ni l'autre ne dispose d'un accès comparable à autant de données personnelles agrégées sur un même utilisateur. Une technique que l'on a déjà vue chez Apple, et qui a sans doute contribué à rendre 96,4 % de ses adeptes fidèles à l'iPhone.
Entraînement et inférence ne sont pas la même chose
Google affirme, dans son billet officiel, que Gemini n'entraîne « pas directement » ses modèles sur votre bibliothèque Google Photos privée. L'entreprise précise utiliser des informations limitées, comme certaines invites dans Gemini et les réponses du modèle, pour améliorer ses fonctionnalités. Le bouton Sources permet de voir comment Gemini a dérivé le contexte pour la génération d'images, et vous pouvez fournir du feedback ou ajouter une photo de référence via l'icône « + ». Une forme de transparence, donc, mais qui suppose que l'utilisateur pense à l'activer.
Mais il faut savoir faire la distinction entre entraînement et inférence. Si elle est techniquement fondée, elle est en revanche plus opaque pour la quasi-totalité des utilisateurs.
Quand Gemini analyse vos étiquettes, identifie vos proches et génère une image à partir de ces données, il les utilise bien, même sans les intégrer dans les poids du modèle. Mais côté, utilisateur, il ne s'agit que d'une IA capable de savoir à quoi ressemblent leur maison, leurs enfants ou leurs vacances.
La promesse de Google n'est pas fausse, mais elle implique que tous les utilisateurs se servent de Personal Intelligence en connaissance de cause.
La connexion reste opt-in et révocable à tout moment dans les paramètres. Le déploiement vise en priorité les abonnés Google AI Plus, Pro et Ultra aux États-Unis, avec une extension à Gemini sur Chrome et à davantage d'utilisateurs annoncée prochainement. Les utilisateurs européens ne figurent pas dans ce premier calendrier, à cause, en partie, du règlement sur l'IA et du RGPD.
Source : LifeHacker