Trois modèles d'IA de pointe en un mois, et aucun vainqueur. OpenAI fait un choix inattendu : viser votre bureau plutôt que la couronne.

GPT-5.4 © OpenAI
GPT-5.4 © OpenAI

OpenAI a lancé GPT-5.4 dans ChatGPT, Codex et son CLI. L'annonce survient après un février éprouvant : Gemini 3.1 Pro de Google, Claude Opus 4.6 et Sonnet 4.6 d'Anthropic ont rebattu les cartes en quelques semaines. Face à cette triple offensive, OpenAI n'a pas choisi la surenchère technique brute. Le message est ailleurs.

Ce que GPT-5.4 apporte concrètement au monde du travail

GPT-5.4 existe en trois déclinaisons. La version standard, GPT-5.4 Thinking pour les abonnés Plus, Team et Pro, et GPT-5.4 Pro pour les tâches exigeantes. Le modèle prend en charge une fenêtre de contexte d'un million de jetons, un record pour OpenAI.

ChatGPT (GPT-5.4)
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

C'est aussi le premier modèle généraliste de la firme doté de capacités natives d'utilisation d'ordinateur. Concrètement, il peut manipuler un logiciel via des captures d'écran et des commandes clavier-souris. Sur le test OSWorld-Verified, il atteint 75 % de réussite, contre 72,4 % pour un humain et 47,3 % pour GPT-5.2.

Mais le vrai signal se trouve dans les produits lancés en parallèle. OpenAI a dévoilé ChatGPT pour Excel et Google Sheets en version bêta, un outil intégré directement dans les tableurs pour construire et analyser des modèles financiers. Des partenariats avec FactSet, MSCI, Moody's et Third Bridge complètent le dispositif. La cible est limpide : finance, droit, conseil.

Sur le plan de la fiabilité, OpenAI annonce 33 % d'erreurs factuelles en moins par réponse et 18 % de risque en moins de produire des informations fausses, par rapport à GPT-5.2. Des chiffres qu'il faudra confirmer dans l'usage quotidien. Sur le test GDPval, qui évalue la production de livrables dans 44 métiers, GPT-5.4 atteint 83 % de résultats équivalents ou supérieurs à ceux de professionnels humains.

Pourquoi OpenAI change de champ de bataille face à Google et Anthropic

Pour comprendre cette orientation, il faut regarder le mois écoulé. En février, aucun des trois grands n'a pris l'avantage durablement. Selon les comparatifs publiés, GPT-5.4 domine cinq catégories de tests, Gemini 3.1 Pro en remporte quatre, Claude Opus 4.6 trois. Sur SWE-Bench Verified, la référence en programmation, les trois modèles se tiennent à moins d'un point. La parité technique est quasiment atteinte.

OpenAI le sait. Plutôt que de se battre pour un dixième de point sur des classements que peu de professionnels consultent, la firme de Sam Altman mise sur l'ancrage dans les outils du quotidien. Tableurs, présentations, recherche documentaire multi-étapes. C'est un pari sur l'usage, pas sur la performance abstraite.

Le contexte est d'autant plus tendu qu'OpenAI traverse une zone de turbulences. L'entreprise aurait perdu environ 1,5 million d'utilisateurs après sa décision controversée de collaborer avec le Département de la Défense américain. Un épisode qui a provoqué des dissensions internes publiques. La direction avait affiché son ambition de faire passer la part des clients entreprises de 40 à 50 % d'ici fin 2026. GPT-5.4 est l'outil de cette ambition.

Ce virage place aussi OpenAI en concurrence frontale avec Anthropic, qui avait lancé des outils similaires pour le secteur financier dès mi-2025. La guerre des modèles se double désormais d'une guerre des intégrations.

Dans la course à l'IA, OpenAI vient peut-être de comprendre que le meilleur modèle n'est pas celui qui gagne les tests, mais celui qui finit dans la barre d'outils d'Excel.