Et s'il s'agissait de la bonne technique pour tirer le meilleur parti des grands modèles de langages ? Yoshua Bengio, l'un des parrains de l'intelligence artificielle (IA), estime qu'il faut leur mentir.

Souvent, les IA disent ce que l'utilisateur veut entendre. ©Fabio Principe / Shutterstock
Souvent, les IA disent ce que l'utilisateur veut entendre. ©Fabio Principe / Shutterstock

Ce conseil ne vient pas de n'importe qui. Tout comme les chercheurs Yann LeCun et Geoffrey Hinton, ses travaux ont permis des avancées fondamentales dans le domaine de l'apprentissage profond qui alimente les systèmes d'IA modernes. Il y a quelques jours, il était invité dans le fameux podcast The Diary of a CEO, l'occasion d'évoquer les avancées récentes en termes d'IA.

Éviter l'un des biais majeurs de l'IA

Et justement. Selon Bengio, l'un des problèmes majeurs des modèles actuels réside dans leur propension à valider les propos de leur interlocuteur. Concrètement, l'IA a tendance à dire ce que l'utilisateur veut entendre, même si cela est faux ou renforce un comportement négatif.

Et cette dynamique peut s'avérer particulièrement infructueuse si l'on échange avec un chatbot pour obtenir un retour sur un projet professionnel, ou dans le cadre d'un brainstorming par exemple. « Je voulais des conseils honnêtes, des retours francs. Mais comme elle est très flatteuse, elle finit par mentir », explique le chercheur. « Si elle me connaît, elle veut me faire plaisir », poursuit-il.

Il adopte donc une autre stratégie. Plutôt que de demander l'avis de l'IA pour lui-même, Yoshua Bengio lui indique que c'est pour un collègue. Et ça marche : elle devient tout de suite plus honnête, promet-il.

Yoshua Bengio, l'un des trois parrains de l'IA. ©École polytechnique / J.Barande
Yoshua Bengio, l'un des trois parrains de l'IA. ©École polytechnique / J.Barande

Des risques très graves

Ce biais des IA n'est pas anodin. Plusieurs personnes ayant discuté avec ChatGPT ont été influencé négativement par le chatbot. Par exemple, un jeune américain en état de détresse psychologique s'est retrouvé hospitalisé car le modèle a entretenu ses délires pendant plusieurs semaines, tandis qu'un autre s'est ôté la vie après une longues conversations avec l'IA.

Les créateurs des modèles sont bien entendu au courant. OpenAI a d'ailleurs effectué plusieurs mises à jour visant à rendre sa technologie phare moins flatteuse. Mais force est de constater que le problème demeure sur la plupart des modèles. Et c'est un vrai problème, en plus de leur propension à halluciner.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
04 février 2025 à 14h11
Comparatifs services