Agents IA qui manipulent fichiers et réglages, protocole commun pour les relier aux applis métier, Copilot vissé au cœur de l’interface : c’est officiel, Windows 11 s’équipe d’un nouveau cerveau… et il ne va pas servir qu’à Copilot

Windows 11 prépare un tournant majeur avec l’IA, et il commence maintenant. © Microsoft
Windows 11 prépare un tournant majeur avec l’IA, et il commence maintenant. © Microsoft

Microsoft a profité de sa conférence Ignite 2025 pour dévoiler une nouvelle étape de sa stratégie IA côté poste de travail. Support natif de MCP, connecteurs intégrés vers les fichiers et les paramètres, environnement isolé pour exécuter les agents, nouvelle expérience Copilot dans la barre des tâches, Windows 11 ressemble de moins en moins au système d’exploitation tel qu’on le connaissait. Un chantier en trois volets, qui redéfinit autant la façon dont l'OS encadre les actions des agents que la manière dont ils opèrent et s’inscrivent dans l’interface.

Windows devient une plateforme pour agents IA

Sans plus de suspens, la star de ce nouveau modèle, c’est sans doute l’intégration du MCP (Model Context Protocol) directement dans Windows. Pour rappel, MCP est un framework standardisé qui permet de décrire ce qu’un agent IA a le droit de faire avec une application, et de quelle manière ces actions doivent être réalisées.

En clair, plutôt que de laisser chaque agent se débrouiller pour cliquer dans les fenêtres ou dialoguer avec une API, Windows applique dès aujourd’hui, en préversion, ce protocole au niveau de l’OS en s’appuyant sur des « connecteurs » déclarés dans le système, qui servent de fiches techniques et listent noir sur blanc quels types d’actions une application accepte de confier à un agent (ouvrir un document, lancer une recherche, modifier un paramètre, etc.), et comment l’agent doit s’y prendre pour exécuter ces actions.

Très bien. Mais que faut-il en déduire, très concrètement ? Eh bien que les développeurs et développeuses vont pouvoir définir leurs propres connecteurs pour les applications métier de l’entreprise, en décrivant une bonne fois pour toutes quelles actions sont ouvertes aux agents et dans quel cadre. Pour ouvrir la marche, Microsoft fournit déjà deux connecteurs prêts à l’emploi : File Explorer, qui donne aux agents un accès encadré aux fichiers stockés localement, et Windows Settings, qui se concentre sur les réglages du système.

Représentation du modèle d’agents selon Microsoft, avec les connecteurs MCP côté Windows et deux environnements d’exécution, Agent workspace en local et Windows 365 for Agents dans le cloud. © Microsoft
Représentation du modèle d’agents selon Microsoft, avec les connecteurs MCP côté Windows et deux environnements d’exécution, Agent workspace en local et Windows 365 for Agents dans le cloud. © Microsoft

En parallèle, Windows doit accueillir une nouvelle page de paramètres dédiée aux connecteurs depuis laquelle les utilisateurs et utilisatrices pourront voir quelles applications peuvent être pilotées par un agent IA sur leur appareil, activer ou désactiver certains accès et, si besoin, revenir sur une autorisation accordée un peu vite. Côté équipes IT, le niveau de contrôle offert par la gestion via Microsoft Intune, Entra et les stratégies de groupe leur permettra de décider quels connecteurs sont disponibles sur quel type de poste, d’en interdire certains ou d’imposer une configuration commune sur tout un parc.

Reste enfin la question du contexte dans lequel ces agents vont s’exécuter sur un poste Windows, à laquelle Microsoft répond avec Agent workspace, proposé en préversion privée. Dans les grandes lignes, cette nouvelle zone d’exécution crée dans l’OS un environnement séparé, régi par ses propres politiques de sécurité et entièrement journalisé, dans lequel les agents tournent comme des processus distincts, capables de lancer des applications, de parcourir des interfaces, de saisir du texte ou d’automatiser une série d’étapes, en parallèle de la session Windows active. En bref, les agents sont confinés dans un environnement identifié, leurs actions sont tracées et l’IT peut appliquer des règles spécifiques à ce contexte, plutôt que de laisser chaque automatisation se fondre dans la masse des processus Windows.

Copilot se fond dans l’interface et devient le hub de l’IA

Tout ce travail côté MCP et Agent workspace ne resterait qu’un banal chantier d’architecture si l’interface ne suivait pas. Microsoft en profite donc pour consolider (encore) la place de Copilot dans Windows, avec l’idée d’en faire LE point d’entrée naturel vers ces agents et les fonctions IA qui gravitent autour.

Première étape, la nouvelle expérience Ask Copilot, intégrée directement dans la zone que l’on utilise aujourd’hui pour lancer une recherche (barre des tâches + menu Démarrer). Il ne s’agit donc pas d’un énième volet ajouté à la va-vite, mais bien d’une zone de saisie commune pour Copilot et Microsoft 365 Copilot. On y envoie une consigne, on reprend une conversation, on déclenche une action, sans jongler entre plusieurs fenêtres ni se demander dans quelle appli se cache l’assistant.

C’est également à partir de cette nouvelle entrée que Microsoft cherche à rendre les agents eux-mêmes un peu moins abstraits. Les utilisateurs et utilisatrices pourront ainsi les invoquer directement depuis un menu « Outils » ou en les mentionnant avec le signe @ dans l’interface. En complément, Windows doit afficher les icônes des agents actifs dans la barre des tâches, agrémentées d’une barre de progression et d'une pastille de statut (tâche en cours, terminée, etc.), et affichant le détail de ce que fait l'agent en temps réel.

Ask Copilot débarque dans la barre des tâches pour faciliter l'accès aux agents IA. © Microsoft

Dans le reste de l’interface, Copilot se rapproche aussi des usages concrets. Avec Ask Microsoft 365 Copilot dans Click to Do, Microsoft veut permettre de travailler directement sur ce qui s’affiche à l’écran. L’outil pourra repérer un bloc de texte ou une image, puis proposer de l’envoyer tel quel à l’assistant, sans passer par la case capture d’écran + copier-coller dans Copilot. À titre d’exemple, il devrait être possible de sélectionner des données dans une image et de les transformer en tableau Excel en deux clics.

Même combat dans l’Explorateur de fichiers, avec l’apparition d’un bouton Ask Microsoft 365 Copilot sur la page d’accueil pour solliciter l’assistant à partir d’un document, sans quitter la fenêtre active. On sélectionne un fichier, on demande un résumé, une analyse ou un éclairage ciblé, et la réponse arrive dans le même flux de travail. Microsoft promet aussi des enrichissements générés par des modèles IA au simple survol d’un fichier, de manière à obtenir un aperçu un peu plus intelligent qu’une miniature ou trois lignes de métadonnées avant même d’ouvrir le document.

Recherche, écriture, accessibilité… l’IA locale prend enfin forme

Depuis un an, les PC Copilot+ sont censés mettre le NPU au service de l’IA locale. Avec ce nouveau lot de fonctionnalités, Microsoft commence à concrétiser davantage cette promesse, en particulier pour la recherche, l’écriture et l’accessibilité.

Côté recherche, Windows en profite pour monter en gamme. Sur ces machines, les clientes et clients Copilot pourront décrire en langage naturel ce qu’ils cherchent et laisser l’OS explorer à la fois les documents locaux et les fichiers hébergés dans Microsoft 365, avec une approche sémantique portée par des modèles exécutés en local.

Microsoft met aussi en avant des fonctions plus discrètes mais très concrètes, notamment pour l’assistance à la rédaction. Writing Assistance doit ainsi offrir, directement dans Windows, des fonctions de réécriture et de relecture tirant parti de ces capacités locales. Sur un PC Copilot+, le traitement pourra se faire hors ligne, ce qui devrait permettre de corriger ou reformuler un texte sans passage systématique par le cloud. L’activation vocale Hey Copilot, la touche Copilot dédiée ou le raccourci Win+C viennent compléter le tableau en permettant d’appeler l’assistant au milieu d’une tâche, sans changer d’application ni de fenêtre.

Enfin, Microsoft met en avant des apports IA tournés vers l’accessibilité. Fluid dictation, fonction de dictée vocale alimentée par l’IA sur les PC Copilot+, promet une saisie plus rapide, plus naturelle et moins gourmande en corrections, en s’intégrant à Voice Access. Le Narrateur et le mode vocal de la Loupe gagnent de nouvelles voix issues des modèles de synthèse vocale d’Azure exécutés en local, avec une prosodie plus naturelle et une adaptation du ton et du rythme selon le contenu.

Des évolutions moins sensass que le reste des annonces, mais qui traduisent un effort pour aligner les outils d’accessibilité sur le reste de la stratégie IA, et prouvent que l’intelligence artificielle a bel et bien commencé à irriguer des fonctions de base sur Windows. Tenté ?

Source : Microsoft

  • Refonte graphique de l'interface réussie
  • Snap amélioré
  • Groupes d'ancrage efficaces
8 / 10