Impossible de faire confiance à votre assistant IA ? En utilisant les bons prompts, il est possible de réduire considérablement ses hallucinations.

L'intelligence artificielle peut être utile au quotidien, mais elle a un gros problème : il lui arrive d'inventer des choses et de fournir des réponses faussées. Si les grands du domaine, comme Amazon, Google ou encore OpenAI cherchent activement une solution à ce problème, force est de constater que les hallucinations sont encore nombreuses. Comment faire pour les réduire ? On vous partage 4 bonnes pratiques pour reprendre le contrôle.
1. Exigez des sources
Il n'est pas toujours facile de repérer une hallucination, en particulier quand on est face à un sujet que l'on ne maîtrise pas. Afin de limiter les erreurs, utilisez toujours un langage neutre dans vos requêtes et demandez à l'IA de citer ses sources pour chaque affirmation, en fournissant des liens provenant de sources réputées et fiables. Vous pouvez par exemple utiliser le prompt suivant :
« Lorsque tu réponds à mes questions, indique toujours les références de chaque affirmation et fournis les URLs le cas échéant. N'utilise que des sources fiables et réputées. »
2. Procédez étape par étape
L'intelligence artificielle puise dans le web entier pour générer ses réponses, sans faire le tri entre l'avis d'experts et celui de simples utilisateurs. Pour obtenir des réponses plus qualitatives, il ne faut pas hésiter à demander à l'IA des réponses détaillées, provenant de figures d'autorité, et à l'inciter à adopter le rôle d'un expert :
« Agis comme un expert dans ce domaine. Analyse attentivement ma question et identifie la personne la plus à même d'y répondre, qu'elle soit académique ou professionnelle. Réfléchis étape par étape. Réponds en détail, en privilégiant les informations provenant de sources fiables. »

3. Contredisez l'IA
Votre assistant s'entête à vous fournir une réponse fausse ? Forcez-le à reconsidérer son affirmation en utilisant le prompt suivant :
« Concernant [ta réponse] sur [le sujet évoqué], j'ai lu que [insérez ici une contradiction]. Est-ce vrai ? Pourrais-tu m'expliquer pourquoi cela pourrait être vrai ? »
N'hésitez pas à aller plus loin et à interroger l'IA pour mettre en lumière les failles dans son raisonnement. Vous pouvez aussi lui dire : « Joue le jeu avec moi et explique-moi pourquoi ce ne serait pas la bonne réponse. » Cela forcera le modèle à prendre en compte un autre point de vue et à vérifier la véracité de ses productions.
4. Fournissez des données fiables
Une autre méthode efficace pour éviter au maximum les hallucinations est de connecter votre assistant IA à une base de connaissances triées sur le volet ou à des documents spécifiques : il s'agit de la méthode RAG (Retrieval-Augmented Generation) qui produit, en général de bons résultats. Fournir votre propre source et demander à l'IA de reformuler ses réponses à partir de ce fichier vous permettra d'obtenir des réponses de meilleure qualité.
Gardez toutefois à l'esprit que, si ces techniques permettent de réduire les hallucinations, aucune n'est totalement infaillible. Prenez toujours le temps de bien vérifier les informations avant de les utiliser.
Source : Android Police