En toute discrétion, OpenAI a retiré le terme « en toute sécurité » de ses statuts officiels et de sa mission d'entreprise. Une décision on ne peut plus équivoque…

OpenAI ne semble décidément plus considérer la sécurité comme une priorité. ©Dennis Diatel / Shutterstock
OpenAI ne semble décidément plus considérer la sécurité comme une priorité. ©Dennis Diatel / Shutterstock

Ce n'est plus un secret pour personne. OpenAI a grandement évolué ces dernières années pour devenir l'une des start-up les plus valorisées au monde. Mais cette quête de milliards ne s'est pas faite sans accrocs : dès 2024, de nombreuses figures emblématiques quittaient l'entreprise, dénonçant un changement de philosophie brutal afin de privilégier le profit.

Une dynamique qui s'est clairement cristallisée en fin d'année dernière, lorsqu'elle a achevé sa restructuration. Désormais, OpenAI est divisée en deux entités distinctes : une fondation à but non lucratif qui ne conserve que 26 % des parts, et une société commerciale à but lucratif contrôlée par des investisseurs privés.

Discret changement

Et visiblement, cette opération l'a poussée à revoir ses priorités. Dans un document administratif adressé en novembre 2025 au fisc américain, qui définit l'objet social de l'organisation, l'expression « en toute sécurité » a tout bonnement été rayée.

Quand la mission initiale stipulait que l'entreprise devait construire une intelligence artificielle générale qui bénéficie « en toute sécurité » à l'humanité, sans être entravée par des impératifs financiers, la nouvelle version se contente de « s'assurer que l'intelligence artificielle générale profite à toute l'humanité ». Si ce changement peut paraître anodin, il a de quoi poser de sérieuses questions.

ChatGPT (GPT-5.2)
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

Possibles conflits d'intérêts

Car ce retrait affaiblit considérablement la capacité du conseil d'administration à freiner le lancement d'un produit jugé risqué s'il est économiquement stratégique. Et ce n'est pas tout : la structure même d'OpenAI interroge, la quasi-totalité des membres du conseil siègeat simultanément au sein de la fondation à but non lucratif et de la société commerciale. De quoi rendre l'auto-surveillance quasiment illusoire.

En parallèle, ChatGPT, le chatbot phare d'OpenAI, est cité dans un nombre croissant d'affaires portant sur l'impact de l'IA sur la santé mentale des utilisateurs, ainsi que son exploitation dans des actes criminels. « Je pense que la transformation d'OpenAI est un test pour voir comment nous, en tant que société, supervisons le travail des organisations qui ont le potentiel d'apporter d'énormes avantages, mais aussi de causer des dommages catastrophiques », écrit Alnoor Ebrahim, professeur à l'Université Tufts et spécialiste de la responsabilité des organisations à but non lucratif.

En cédant près des trois quarts de son contrôle aux investisseurs privés, la branche historique d'OpenAI semble avoir perdu son indépendance décisionnelle face à la course effrénée à l'IA. Une tendance visiblement encouragée par son P.-D.G, Sam Altman.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2026
04 février 2025 à 14h11
Comparatifs services