Les modèles de langage comme ChatGPT continuent d'halluciner selon les requêtes de leurs utilisateurs. Pour OpenAI, c'est à cause des méthodes de formation, de la façon dont les modèles sont évalués et du mécanisme interne de génération du texte.

ChatGPT préfère halluciner plutôt que de dire qu'il ne sait pas - ©Iljanaresvara Studio / Shutterstock
ChatGPT préfère halluciner plutôt que de dire qu'il ne sait pas - ©Iljanaresvara Studio / Shutterstock
L'info en 3 points
  • Les modèles de langage comme ChatGPT continuent de produire des réponses incorrectes, appelées hallucinations, malgré des améliorations.
  • OpenAI souligne que les évaluations actuelles favorisent la fourniture de réponses, même incertaines, augmentant ainsi les erreurs.
  • Pour réduire les hallucinations, OpenAI propose de modifier les critères de notation, en favorisant la prudence des modèles.

Personne n'est parfait, a fortiori une IA. Même les versions récentes, comme GPT‑5, continuent de produire des hallucinations malgré leurs capacités. OpenAI préfère parler de réponses plausibles, mais fausses. Ces erreurs proviennent en partie des critères qui guident la notation et l’entraînement. Les modèles de langage sont encouragés à deviner plutôt qu’à reconnaître qu’ils ne connaissent pas la réponse. Les évaluations actuelles favorisent la précision plutôt que la prudence, ce qui maintient ces erreurs, quel que soit le niveau du modèle ou la quantité de données utilisée pour son apprentissage.

ChatGPT (GPT-5)
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10
1minAI
Obtenez ChatGPT-5, Gemini, Midjourney et plus encore avec 1minAI

La plateforme 1minAI propose en ce moment son offre Pro Lifetime à seulement 29,97 $ (environ 26 €) au lieu de 234 $, soit un accès à GPT-5 et aux autres IA majeures comme Gemini, Claude 3 ou Midjourney

Offre partenaire

Les évaluations actuelles incitent les modèles à répondre même sans certitude

Les systèmes de notation actuels encouragent les modèles à fournir une réponse même lorsqu’ils sont incertains et donc, in fine, à générer des hallucinations, qui peuvent parfois être dangereuses. OpenAI compare cette situation à un test à choix multiples. Si un étudiant devine, il peut obtenir un point. S’il ne répond pas, il marque zéro. Le modèle agit de la même façon. Fournir une réponse incertaine augmente sa note globale, tandis qu’admettre qu’il ignore la réponse ne rapporte rien.

Les modèles mieux classés sur les tableaux de bord répondent plus souvent lorsqu’ils ne sont pas sûrs, ce qui entraîne davantage d’erreurs. OpenAI précise que « la plupart des tableaux de bord hiérarchisent et classent les modèles en fonction de leur exactitude, mais les erreurs sont pires que les abstentions ». Un modèle qui reconnaît qu’il ne sait pas est pénalisé par rapport à un modèle qui devine, même si la réponse est incorrecte.

Lorsque l’on demande le titre de thèse d’Adam Tauman Kalai, une des chercheurs de l'analyse chez OpenAI, le modèle fournit trois réponses différentes, toutes fausses. La date de naissance de la même personne reçoit également trois propositions erronées. Ces exemples montrent l’importance de permettre aux modèles d’exprimer leur incertitude. OpenAI pense qu'il vaut mieux qu'un modèle de langage signale qu’il ne connaît pas la réponse plutôt que de générer une information incorrecte.

Même ChatGPT 5 hallucine ! ©fizkes / Shutterstock

Le mécanisme de génération favorise les erreurs factuelles

Les modèles génèrent du texte en prédisant le mot suivant à partir d’un corpus étendu. Chaque mot sert à anticiper celui qui suit. Ils n’ont pas accès à des étiquettes indiquant la véracité des informations. Pour des faits rares ou précis, comme des dates ou des noms peu connus, il n’existe pas de schéma exploitable. Le modèle produit alors des réponses qui tiennent la route, mais incorrectes.

Même GPT‑5 continue de générer des hallucinations, bien que moins fréquentes que sur les modèles précédents. Ces erreurs ne sont pas seulement dues aux données d’entraînement. Elles apparaissent parce que le mécanisme de prédiction guide la génération du texte de manière à fournir une réponse, même lorsqu’aucun schéma fiable n’existe.

Certaines observations montrent que les petits modèles peuvent reconnaître leurs limites plus facilement. Par exemple, lorsqu’un petit modèle ignore les Maoris, il répond « Je ne sais pas », tandis qu’un modèle plus grand tente de deviner et fournit parfois une information incorrecte.

Les résultats des évaluations confirment que s’abstenir réduit les erreurs sans diminuer la précision. Sur l’évaluation SimpleQA, GPT‑5 atteint 52 % d’abstention, contre 1 % pour le modèle o4‑mini. La précision reste similaire, mais le taux d’erreur passe de 75 % à 26 %. Ces chiffres montrent qu’un modèle qui ne répond que lorsqu’il a une base fiable limite les hallucinations sans compromettre la fiabilité globale.

Pour réduire les erreurs, OpenAI recommande de modifier les critères de notation. Punir davantage les réponses incorrectes et attribuer une note partielle aux réponses prudentes inciterait les modèles à signaler leur incertitude. Certains tests standardisés appliquent déjà ce type de notation, mais la plupart des modèles continuent d’être évalués uniquement sur la précision.