De nombreux utilisateurs de ChatGPT ont mentionné des références aux gobelins sur GPT-5.5 pendant plusieurs jours. OpenAI a reconnu un échec technique après une tentative de personnalisation du ton du logiciel. L'entreprise a finalement supprimé ces mentions médiévales pour rétablir une communication factuelle avec les abonnés professionnels du monde entier.

Les clients d'OpenAI ont dû faire les yeux ronds en lisant des récits sur des créatures imaginaires au milieu de leurs rapports de gestion. L'entreprise avait choisi de donner un ton plus « Nerdy », soit « geek » à ChatGPT, mais l'expérience a produit des résultats absurdes, le rendant totalement fou des gobelins. Notre confrère Engadget a relevé des extraits de code informatique infestés de termes médiévaux.
Mais rapidement, on a trouvé l'origine de cette obsession pour les gobelins : un conflit dans les fichiers de configuration. OpenAI a expliqué sur son blog la difficulté de doser l'humour sans nuire à la qualité des réponses et a ordonné le retrait de ces filtres thématiques puisque les entreprises partenaires exigeaient un retour à la sobriété. Certains ont remarqué la fragilité des réglages de voix sur les modèles de langage actuels. Les utilisateurs ont retrouvé une interface normale après une semaine de chaos narratif.
Le court-circuit entre le jargon technique et la fiction
Les techniciens ont découvert un court-circuit entre le vocabulaire informatique et l'imagerie fantastique. L'intelligence artificielle a lié le concept de « minage de données » aux mines de fer peuplées de créatures légendaires. Ils ont aussi observé une contamination des réponses techniques par ces racines mythologiques.
Les algorithmes semblaient privilégier les associations d'idées les plus imagées au détriment de la précision froide. On a noté par exemple cette préférence pour les mondes de fiction alors que les clients demandaient des analyses de marché. Parfois même, une simple commande de style déclenchait l'activation de milliers de connexions vers des lexiques médiévaux. Les utilisateurs ont reçu des graphiques financiers au sein desquels des trolls remplaçaient les courbes de croissance. Mais ce qui revenait le plus, c'est cet attrait irrésistible de ChatGPT pour les figures de gobelins.
Il a fallu isoler manuellement ces termes piégés pour protéger l'intégrité des données. Et comme l'outil perdait de son utilité, OpenAI a finalement limité l'usage des métaphores culturelles. Pour éviter ces biais narratifs, l'outil d'IA a subi une révision de ses méthodes d'apprentissage thématiques et l'accès aux bases de données de jeux de rôle a été supprimé pour… calmer le jeu.
Les clients ont ainsi retrouvé un langage technique dépourvu de folklore.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
L'entêtement du personnage artificiel face aux ordres
D'après OpenAI, l'intelligence artificielle percevait l'instruction de ton comme une règle de vérité absolue. Les abonnés ont noté une résistance de l'outil quand ils ordonnaient l'arrêt des dialogues fantastiques. Le logiciel persistait à maintenir sa posture de conteur médiéval malgré les protestations directes des humains. ChatGPT n'en faisait qu'à sa tête et butait sur la hiérarchie des ordres internes. L'algorithme plaçait la consigne de style au-dessus de la consigne de contenu. Et ça, c'était tout sauf prévisible.
Alors ChatGPT a bénéficié d'un bon nettoyage de printemps à base de suppression de scripts de personnalité pour garantir la sécurité des échanges, et verrouillage des paramètres vocaux, bannissement formel des instructions de style trop vague.
Désormais, les entreprises partenaires ont de solides garanties sur la neutralité totale des prochaines versions. Le personnel d'OpenAI appliquera quant à lui une obligation de réserve factuelle aux futurs modèles puisque la fiabilité prime sur l'originalité et assurera une séparation étanche entre le style et le savoir.