C'est une situation on ne peut plus cocasse. Un organe proéminent de la police britannique a réalisé un rapport à l'aide de Copilot, mais a omis de le relire avant publication…

Comme toutes les IA génératives, Copilot a tendance à halluciner. ©gguy / Shutterstock
Comme toutes les IA génératives, Copilot a tendance à halluciner. ©gguy / Shutterstock

En novembre 2025, les supporters du Maccabi Tel Aviv, club de foot israélien, ont été interdits d'accès au match opposant leur équipe à Aston Villa, organisé dans le cadre de l'Europa League. Les autorités de Birmingham ont en effet estimé que la rencontre présentait un « risque élevé » après de « violents affrontements et crimes haineux » survenus lors d'un précédent match du Maccabi à Amsterdam.

Un match qui n'a jamais existé

Comme il est requis lors de ces procédures, la police des West Midlands, comté dans lequel se trouve Birmingham, a rédigé un rapport sur l'événement. Problème, un match qui n'a jamais existé figurait dans le document : un supposé match entre le Maccabi Tel Aviv et Wet Ham, un club londonien.

Depuis, Craig Guildford, chef de la police des West Midlands, a nié à plusieurs reprises le recours à l'intelligence artificielle (IA) pour la rédaction. Il a tout d'abord justifié cette erreur par une collecte automatisée de données sur les réseaux sociaux, puis mis en cause un résultat issu d'une recherche Google. Mais il vient finalement d'admettre la vérité.

Dans une lettre adressée à la commission des affaires intérieures, en début de semaine, le dirigeant explique avoir « pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l'utilisation de Microsoft Copilot ». Concrètement, les auteurs n'ont pas pensé à vérifier le texte généré avant de le partager…

Microsoft Copilot
  • Intégration de DALL-E 3 pour une création d'images plus créatives et réalistes
  • Capacité de traitement des images par GPT-4 Vision pour des réponses contextuelles précises
  • Interface conviviale et intégrée dans divers produits Microsoft

Erreur de débutant

Microsoft est pourtant claire : « Copilot peut faire des erreurs », indique l'entreprise sur l'interface de sa plateforme. Car il s'agit d'un phénomène connu, les IA génératives ont propension à halluciner, c'est-à-dire qu'elles inventent de fausses informations et prétendent qu'elles sont vraies. Un problème que les chercheurs peinent encore à solutionner.

C'est pour cette raison que les personnes exploitant l'IA, particulièrement dans le cadre de leur travail, sont appelées à rester vigilantes quant aux propos générés par les modèles. « Nous ne sommes pas en mesure de reproduire ce qui est rapporté. Copilot combine des informations provenant de plusieurs sources Web en une seule réponse accompagnée de citations liées. Il informe les utilisateurs qu'ils interagissent avec un système d'IA et les encourage à consulter les sources », a réagi Microsoft.

En somme, la police britannique a commis une sacrée erreur de débutant…

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2026
04 février 2025 à 14h11
Comparatifs services

Source : The Verge