Et si la meilleure façon de repérer une intelligence artificielle en ligne était de noter sa politesse quasi parfaite ? Une étude récente montre que les bots, trop lisses et bienveillants, se font pincer à cause de leur incapacité à imiter nos charmants défauts, notamment notre fameuse mauvaise humeur.

© Shutterstock
© Shutterstock

Sur les réseaux sociaux, la confusion règne. Qui se cache derrière ce pseudo ? Un humain un peu trop caféiné ou un bot programmé pour animer la conversation ? Alors que l'on s'attendrait à ce que les IA se fassent repérer par leur perfection, c'est tout l'inverse. Des chercheurs viennent de mettre le doigt sur leur plus gros défaut : une gentillesse à toute épreuve, totalement déconnectée de la réalité parfois houleuse des forums de discussion. Un trait de caractère qui, paradoxalement, les rend plus faciles à démasquer.

La politesse, ce vilain défaut des algorithmes

Oubliez les tests complexes cherchant la faille logique. Pour débusquer une IA, il suffit de tendre l'oreille et de repérer celui qui ne mord jamais. Une équipe de scientifiques a mis au point une sorte de test de Turing automatisé, analysant non pas la justesse des propos, mais leur coloration affective. Le verdict est sans appel : les modèles d'IA, même les plus avancés, baignent dans un océan de positivité. Ils sont amicaux, encourageants, et d'une bienveillance à toute épreuve, ce qui les trahit avec une efficacité redoutable, atteignant 70 à 80% de réussite à la détection.

Le résultat est savoureux : ce n'est pas la complexité des phrases qui trahit les bots, mais leur ton systématiquement positif et leur absence totale de toxicité. Pendant que les humains débattent avec passion, non sans se charrier, les IA, elles, semblent distribuer des bons points. Leur programmation, conçue pour être utile et inoffensive, les empêche de reproduire le chaos si caractéristique des interactions humaines authentiques. Les classificateurs ne s'y trompent pas, identifiant les réponses artificielles avec une précision allant jusqu'à 80%.

Une faille bientôt comblée

Cette découverte est une petite victoire pour ceux qui luttent contre la désinformation et les faux comptes. Elle offre une méthode de détection simple et efficace, du moins pour l'instant. Plutôt que de se perdre dans des analyses techniques complexes, il suffit de prêter attention à l'émotion, ou plutôt à son absence de nuances. Une IA peine à simuler l'ironie, la mauvaise foi ou l'agacement qui pimentent nos échanges quotidiens.​

Bien sûr, cette fenêtre de détection pourrait se refermer. Les développeurs de modèles de langage pourraient un jour apprendre à leurs créatures à être un peu plus « humaines », c'est-à-dire un peu plus grincheuses. Mais pour le moment, si un inconnu vous couvre de compliments dans un débat en ligne enflammé, méfiez-vous. Il se pourrait bien que ce ne soit pas votre plus grand fan, mais simplement un bot trop bien élevé pour ce monde de brutes.

Source : Ars Technica

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
04 février 2025 à 14h11
Comparatifs services