L'intelligence artificielle générative et ses outils souffrent encore d'un problème de confiance, lié à ce qu'on appelle les « hallucinations », ou l'IA qui invente et vous ment. Amazon Web Services, de son côté, mise sur la transparence et des solutions pour mieux les appréhender.

Les hallucinations de l'IA effraient encore de nombreux utilisateurs et entreprises, en France et ailleurs. Pourtant, selon Sasha Rubel, responsable de la politique IA générative chez AWS Europe, des solutions concrètes émergent. Amazon Web Services, qui est l'un des acteurs clés de l'intelligence artificielle dans le monde, comble ce fossé avec des outils anti-hallucinations, un programme de formation gratuit, et beaucoup de pédagogie. L'enjeu ? Transformer la méfiance en opportunité d'innovation pour les entreprises françaises, encore barrées par un trop-plein réglementaire. Nous avons voulu en savoir plus.
Comment Amazon bloque 75% des erreurs de l'intelligence artificielle
Non, les hallucinations de l'intelligence artificielle ne relèvent pas de la science-fiction. Une hallucination IA, c’est lorsqu'une intelligence artificielle invente une réponse qui semble crédible, mais qui est fausse ou inexacte, parce qu’elle ne comprend pas vraiment ce qu’elle dit. Elle meuble, en somme.
« Au début des grandes modèles de langage, un modèle a dit que j'étais un homme, et que j'étais même coach d'échec, alors que je ne suis ni l'un ni l'autre », raconte avec humour Sasha Rubel, lors de notre rencontre à VivaTech. Cette anecdote est un excellent exemple de la capacité de l'IA à générer, parfois, des informations totalement fabriquées avec une assurance qui laisse pantois.
Contrairement aux idées reçues, ces erreurs ne sont pas une fatalité technologique. « Il faut comprendre que l'IA, ce n'est pas de la magie, que l'IA, c'est la probabilité statistique », rappelle la responsable. L'entreprise a développé des outils spécifiques, comme AWS RefChecker, qui peut détecter les hallucinations à l'aide de benchmarks de bases de données.

Amazon Bedrock Guardrails est une solution maison du géant américain pour des IA génératives plus sécurisées. Sasha Rubel nous confirme que l'outil « aide à réduire les hallucinations et filtre 75% des réponses hallucinantes ». Une performance très encourageante à ce stade, qui s'accompagne de fonctionnalités de traçabilité permettant par exemple aux utilisateurs de comprendre l'origine des réponses générées par l'IA.
RAG et watermarking, les indispensables pour contrer le détournement des contenus produits par l'IA
La technique, ou plutôt la technologie RAG (Retrieval Augmented Generation), complète l'arsenal d'amélioration de la fiabilité des IA génératives, et donc des chatbots. « Le RAG combine une recherche dans des documents avec une intelligence artificielle pour générer des réponses précises, en s'appuyant sur des sources fiables », explique Sasha Rubel. L'approche permet de contextualiser les réponses en s'appuyant sur des données vérifiées, plutôt que sur la seule mémoire du modèle.
Le watermarking (les fameux filigranes) est aussi un moyen très utile pour lutter contre la désinformation. Stéphane Hadinger, le directeur technique d'AWS France, nous décrit le processus : « Sur les images, il s'agit de mettre des sortes de tâches invisibles à l'œil nu ». L'avantage, c'est que ces marqueurs résistent aux modifications, puisque que « même lorsqu'on essaie de modifier le fichier, la marque reste », ajoute-t-il.
Le robot conversationnel Claude, d'Anthropic, disponible sur Amazon Bedrock, illustre l'approche responsable vers laquelle AWS veut tendre. Il « encourage les utilisateurs à dire au modèle, que vous n'êtes pas certain de la réponse », explique Sasha Rubel. AWS participe à la Coalition for Content Provenance and Authenticity (C2PA) avec pour objectif de standardiser ces pratiques à l'échelle internationale.
Sasha Rubel a aussi trois conseils concrets à livrer aux utilisateurs de l'IA générative. Le premier a déjà été évoqué, « bien demander au modèle s'il est certain, et lui qu'on n'est pas certain de notre côté ». Le second consiste à « faire de la recherche autour des outils qui existent, comme les filtres output » Un filtre output bloque ou modifie les réponses d'une IA pour éviter les propos inappropriés, protéger les utilisateurs et garantir des contenus conformes aux règles fixées. ChatGPT, Claude et Gemini en utilisent tous. Enfin, « renseignez-vous et suivez en enseignement, des cours » autour de l'IA conseille Sasha Rubel, car ces enjeux « vont définir comment on va continuer à développer l'IA de demain ».
AWS forme gratuitement les entreprises françaises à l'IA responsable
Alors qu'en est-il en France ? L'accompagnement des entreprises hexagonales est primordiale, les remontées de terrain aussi. Sasha Rubel nous rappelle qu'« en France par exemple, en moyenne les entreprises attendent 7 mois pour pouvoir embaucher quelqu'un avec les compétences numériques nécessaires pour déployer l'IA ». Pour essayer d'y remédier, AWS a rendu gratuits ses cours de formation en ligne, avec un succès inattendu.
Car la France souffre d'un vrai paradoxe : « 85% des entreprises disent que l'IA responsable est l'une de leurs priorités », mais seules « 25% d'entre elles ont un modèle de gouvernance interne pour assurer la mise en pratique ». La formation gratuite rencontre un enthousiasme remarquable : « On a vu une effervescence extraordinaire de l'intérêt pour ces cours », se félicite la responsable européenne.
La réglementation européenne freine-t-elle l'intelligence artificielle française ?
Seulement voilà, la réglementation européenne complique encore la donne. 68% des entreprises ne comprennent pas leurs obligations sous la législation européenne de l'IA, comme le révèle un rapport AWS publié plus tôt cette année. Cette incertitude juridique pousse les entreprises concernées à investir près de 30% de moins dans l'IA dans les années à venir. Un frein aussi assumé par Emmanuel Macron, d'accord pour une réglementation de l'IA, à condition qu'elle soit limitée et qu'elle ne brise pas l'élan d'innovation, surtout face à la concurrence sino-américaine.
L'harmonisation européenne devient dans tous les cas indispensable. « Si on a 27 régimes différents à l'intérieur de l'Europe, ça veut dire qu'un champion français de l'IA va avoir du mal à vendre ses solutions ne serait-ce qu'en Espagne », redoute Sasha Rubel. Les start-up françaises comme Owkin et Bioptimus, partenaires d'AWS en médecine de précision, ou Mindflow en cybersécurité, « ont envie de devenir des champions européens, mais surtout des champions mondiaux ». Du point de vue d'Amazon, une sur-réglementation pourrait les en empêcher.
L'avenir s'annonce malgré tout prometteur. « Au niveau des progrès qu'on a fait depuis un an, je trouve qu'ils sont astronomiques », reconnaît Sasha Rubel. L'émergence de l'IA agentique (l'IA capable d'agir seule pour accomplir des objectifs précis) et du raisonnement automatique ouvre en plus de nouvelles perspectives pour « automatiser et enlever les hallucinations ».