Zoë Hitzig claque la porte d'OpenAI le 9 février, exactement au moment où les premières publicités s'affichent dans ChatGPT. Dans une tribune fracassante publiée dans le New York Times, l'économiste affirme que l'entreprise répète les erreurs qui ont coulé la crédibilité de Facebook.

Le timing n'est jamais un hasard. Quand une chercheuse passe deux ans à élaborer les stratégies de tarification et les règles de sécurité d'une entreprise, puis démissionne pile le jour du basculement commercial, le message est limpide. Zoë Hitzig, économiste et poétesse reconnue, a rejoint OpenAI pour anticiper les dérives de l'intelligence artificielle. Elle en repart convaincue que la direction a cessé de se poser les bonnes questions. Depuis début février, les publicités s'affichent en bas des réponses de ChatGPT pour les comptes gratuits et les abonnés à 8 dollars aux États-Unis, marquant un virage que Sam Altman qualifiait pourtant de « dernier recours » il y a encore quelques mois .
Quand l'archive de confidences devient un produit
Hitzig ne condamne pas la publicité en tant que telle. Ce qui l'alarme, c'est la matière première sur laquelle OpenAI compte désormais capitaliser. Pendant des années, des millions d'utilisateurs ont déversé dans ChatGPT leurs angoisses médicales, leurs problèmes relationnels, leurs croyances spirituelles. Ils le faisaient en pensant dialoguer avec une entité neutre, sans agenda caché. L'ancienne chercheuse appelle ce corpus « une archive de candeur humaine sans précédent ». Transformer cette intimité en levier publicitaire crée un potentiel de manipulation que personne ne maîtrise réellement, avertit-elle. Les documents internes d'OpenAI révèlent d'ailleurs que la personnalisation des publicités basée sur l'historique des conversations est activée par défaut.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
La comparaison avec Facebook n'est pas anodine. Le réseau social avait promis à ses utilisateurs un contrôle total sur leurs données avant de progressivement démanteler ces engagements sous la pression d'un modèle économique qui privilégie l'engagement à tout prix. La Commission fédérale du commerce américaine a même démontré que les modifications de paramètres de confidentialité présentées comme un renforcement du contrôle rendaient en réalité les informations personnelles publiques. Hitzig craint qu'OpenAI suive la même trajectoire : un écosystème publicitaire qui finit par écraser les garde-fous éthiques initiaux, quelle que soit la sincérité des intentions de départ.
Une fuite qui en dit long sur l'ambiance interne
Ce départ n'est pas isolé. Tom Cunningham, un autre membre de l'équipe de recherche économique, avait déjà quitté OpenAI en septembre dernier en pointant une dérive similaire : la difficulté croissante à publier des recherches rigoureuses face à une pression pour servir de vitrine promotionnelle. Plus récemment, Ryan Beiermeister, responsable de la sécurité, a été licenciée après s'être opposée à l'introduction d'un « mode adulte » autorisant du contenu pornographique. OpenAI affirme que son renvoi découle d'une accusation de discrimination envers un employé masculin, version que Beiermeister qualifie d'« absolument fausse ». La multiplication de ces sorties musclées dessine le portrait d'une entreprise où les questions éthiques heurtent de plus en plus frontalement les impératifs financiers.
Demis Hassabis, patron de Google DeepMind, avait déjà taclé OpenAI sur ce point lors du forum de Davos, interrogeant la capacité de ChatGPT à maintenir la confiance des utilisateurs si les réponses deviennent biaisées par des motivations commerciales . Le concurrent Anthropic en a profité pour diffuser une publicité lors du Super Bowl affirmant que « la pub débarque dans l'IA, mais pas dans Claude », provoquant une réplique agacée de Sam Altman qui a qualifié la manœuvre de « clairement malhonnête » . Les tensions entre acteurs du secteur révèlent que le modèle économique de l'IA conversationnelle reste un terrain miné.
Source : Ars Technica