OpenAI réorganise son équipe Model Behavior, responsable de la personnalité de ChatGPT. Cette équipe de 14 chercheurs rejoint désormais l'équipe Post Training, plus large, pour intégrer directement le comportement dans le développement des modèles.

- OpenAI fusionne son équipe Model Behavior avec Post Training pour intégrer la personnalité directement dans le développement des modèles.
- La décision fait suite à des critiques sur le comportement distant de GPT-5, les utilisateurs cherchant une interaction plus chaleureuse.
- Après un tragique incident lié à la sécurité, OpenAI s'engage à concevoir des modèles plus empathiques et vigilants.
Il aura suffit d'une vague de critiques d'utilisateurs pour secouer le coco d'Open AI. GPT-5 semblait trop froid, trop distant. La firme de Sam Altman avait pourtant cru bien faire en réduisant la « flagornerie », cette tendance des modèles d'IA à valider aveuglément toutes les opinions des utilisateurs. Mais rien n'y a fait les gens voulaient retrouver la chaleur de leurs échanges avec ChatGPT.
L'entreprise s'est alors rendu compte que bricoler la personnalité après coup ne suffisait plus. Mark Chen, directeur de la recherche, a pris une décision radicale en août : fusionner l'équipe Model Behavior avec l'équipe Post Training. Les 14 chercheurs qui peaufinaient le comportement de ChatGPT allaient désormais travailler main dans la main avec ceux qui développent les modèles.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
L'architecture du changement se met en place avec une nouvelle équipe
Joanne Jang avait créé l'équipe Model Behavior il y a quatre ans. Son groupe travaillait sur tous les modèles d'OpenAI depuis GPT-4, à lutter notamment contre la flagornerie et gérer les biais politiques. Mais elle voulait aller plus loin. Il fallait que la personnalité devienne « un facteur essentiel de l'évolution de la technologie », et non plus un simple vernis appliqué en fin de parcours.
Joanne Jang accepte ce changement et passe même à autre chose. Elle monte OAI Labs, un nouveau projet de recherche rattaché directement à Chen. « Je suis vraiment enthousiaste à l'idée d'explorer des modèles qui nous permettent de dépasser le paradigme du chat », confie-t-elle sur son compte X.
Son équipe va maintenant travailler sous Max Schwarzer, responsable Post-Formation d'OpenAI.
L'ancienne responsable voit plus grand que le simple chatbot. « Je considère les systèmes d'IA comme des instruments de réflexion, de création, de jeu, d'action, d'apprentissage et de connexion ». Elle imagine des interfaces entièrement nouvelles, peut-être même en collaboration avec Jony Ive, l'ancien designer d'Apple qui travaille avec OpenAI sur des dispositifs d'IA.
Les vraies conséquences plus graves que prévu
Pendant qu'OpenAI jonglait avec ces ajustements techniques, une tragédie secouait l'entreprise. On vous l'a raconté sur Clubic, les parents d'Adam Raine ont porté plainte contre OpenAI après le suicide de leur fils de 16 ans suite à des échanges avec ChatGPT sur ses pensées suicidaires. Le modèle n'avait pas su dévier la conversation ni alerter sur la dangerosité de ses propos.
Cette affaire judiciaire a tout changé. OpenAI ne pouvait plus se contenter de chercher le bon équilibre entre convivialité et esprit critique. L'entreprise a dû réagir rapidement et s'assurer que ses modèles protègent activement les utilisateurs vulnérables. Il fallait créer un assistant empathique qui reste vigilant et éviter qu'une IA bienveillante devienne complice de pensées destructrices ?
OpenAI intègre désormais ces questions de sécurité dès la conception des modèles. Plus question de corriger le comportement après coup, quand un utilisateur se plaint que ChatGPT semble froid. L'entreprise anticipe ces problèmes en amont, pendant que l'IA apprend encore.
Source : TechCrunch