Si vous avez remarqué que ChatGPT adopte un comportement étrange lorsque vous évoquez un sujet sensible, vous n'êtes pas le seul. Et c'est une décision délibérée de la part d'OpenAI…

De plus en plus d'utilisateurs, que ce soit sur X.com ou sur Reddit, dénoncent le fait que ChatGPT bascule automatiquement vers un autre modèle, plus prudent ou moins libre, sans qu’ils aient demandé quoi que ce soit. Une tendance d'autant plus problématique pour les abonnés payants, qui ont le sentiment d'être privés des meilleures fonctionnalités de la plateforme.
Manque de transparence ?
Les critiques portent avant tout sur le manque de transparence d'OpenAI, car il est difficile de savoir quand et pourquoi l'intelligence artificielle (IA) décide d'exploiter un autre modèle. Cela donne l'impression de subir des « contrôles parentaux », tandis que ceux qui payent estiment régresser en perdant la maîtrise de leur expérience, car incapables d'ajuster eux-mêmes le niveau de risque ou de sensibilité.
Certains vont jusqu’à parler de « mise en scène d'interface » : ChatGPT donne l'illusion du choix alors que les décisions se prennent en coulisses. La situation est telle que Nick Turley, vice-président du chatbot, a pris la parole dans un thread publié sur X.com. Objectif : apaiser les utilisateurs contrariés.

Double enjeu pour OpenAI
Car cette décision fait suite aux diverses polémiques qui ont récemment touché OpenAI, accusée de renforcer les délires de personnes vulnérables. ChatGPT a même été directement impliqué dans le suicide d'un adolescent, reflétant un manque de garde-fous flagrant.
La direction de la start-up a donc décidé d'agir. Ainsi, ce nouveau système de « redirection sécurisée » est encore en phase de test et ne concerne que certains cas précis : lorsqu'une conversation aborde des sujets sensibles ou émotionnels.
L'IA se tourne alors vers des modèles censés répondre avec davantage de prudence. Turley précise que ce basculement se fait au message par message et qu'il n'est pas permanent. De même, l'outil indique quel modèle est actif si l'on pose la question.
L'enjeu est double pour l'entreprise, qui doit protéger les utilisateurs face aux risques bien réels d'un outil encore jeune, sans pour autant frustrer ceux qui paient pour une expérience fluide et cohérente. Et il s'avère très complexe de réguler ce type de technologies, aussi puissantes que sensibles.
Sources : Tech Radar, Nick Turley / X.com