Désinformation en ligne : le MIT met au point une IA capable de détecter les réseaux de fake news

Fake news © Shutterstock.com
© Shutterstock.com

Une équipe du Massachusetts Institute of Technology (MIT) est parvenue à mettre au point un système basé sur l'intelligence artificielle permettant de détecter les fake news, avec un très haut taux de précision.

Sur le chemin de la lutte contre la désinformation en ligne, une équipe de recherche du groupe Artificial Intelligence Software Architectures and Algorithms, rattachée au Lincoln Laboratory du célèbre MIT, s'était mise en tête de mieux comprendre les campagnes de désinformation, qui sévissent sur le Web et plus particulièrement sur les réseaux sociaux. Et les chercheurs en sont convaincus : à l'aide de l'intelligence artificielle, ils parviendront à contrer la propagation des fake news et à identifier ceux qui en sont à l'origine.

Une expérimentation durant les présidentielles françaises de 2017, avec une exceptionnelle précision dans la détection des comptes de désinformation

Tout a commencé en 2014 lorsque Steven Smith, membre du MIT Lincoln Laboratory, s'était lancé dans une quête visant à mieux comprendre l'essor des campagnes de désinformation en ligne. À cette époque, Smith et les autres chercheurs souhaitaient étudier la façon dont les groupes malveillants exploitaient les réseaux sociaux. Leur attention s'était portée sur des comptes qui selon eux avaient une activité inhabituelle. Ils semblaient alors pousser des informations pro-russes.

Curieuse d'en savoir plus et de se livrer à un cas pratique d'envergure, l'équipe de recherche a alors sollicité des financements supplémentaires pour étudier la campagne présidentielle française de 2017, et ainsi savoir si des techniques identiques pouvaient être utilisées.

En utilisant leur programme, baptisé RIO (pour Reconnaissance of Influence Operations), les chercheurs ont collecté une foule de données sur les réseaux sociaux, en temps réel, dans les 30 jours précédant les élections. Leur objectif était alors de rechercher et d'analyser la propagation des contenus assimilés à la désinformation. En un mois, ils étaient parvenus à compiler 28 millions de publications Twitter, provenant d'un million de comptes. Avec le programme RIO, ils furent en mesure de détecter les comptes relayant des fake news avec une précision de 96 %.

L'IA RIO peut détecter aussi bien les comptes robots que ceux gérés par des humains

Pour être d'une extrême précision, le système RIO combine plusieurs techniques d'analyse, afin de créer une sorte de toile de l'endroit et de la façon dont les news de désinformation sont diffusées. Et les spécialistes ne se contentent pas de se baser sur le nombre de tweets ou de retweets de chaque compte pour juger du pouvoir de désinformation de ce dernier. « Ce que nous avons constaté, c'est que dans de nombreux cas, ce n'est pas suffisant. Cela ne vous dit pas réellement l'impact des comptes sur le réseau social », explique l'un des membres de l'équipe RIO, Edward Kao.

Edward Kao a justement développé une approche statistique utilisée dans le programme RIO qui permet de savoir si un compte de réseau social se livre à de la désinformation, mais aussi à quel point le compte a un impact sur le réseau, et à quel degré ledit réseau amplifie le message diffusé. Autre membre de l'équipe, Erika Mackin, elle, a utilisé l'apprentissage automatique (machine learning) pour étudier le comportement de comptes, afin de savoir s'ils interagissent avec des médias étrangers, et la langue qu'ils utilisent. Cette approche a permis au programme RIO de détecter des comptes malveillants actifs aussi bien dans la campagne présidentielle française de 2017 que dans celle de désinformation sur la Covid-19.

L'un des grands avantages du programme RIO est qu'il peut détecter aussi bien des robots que des comptes gérés par des humains, ce qui le différencie grandement des systèmes automatisés habituels.

Si aujourd'hui le Lincoln Laboratory s'intéresse à la propagation des nouvelles de désinformation dans les médias européens, les chercheurs du programme RIO espèrent une utilisation future dans l'industrie des médias sociaux et même dans certains pays, à l'échelle gouvernementale. Un nouveau programme, visant à étudier les effets psychologiques et le changement de comportement occasionnés par la désinformation sur les utilisateurs, est en train d'être développé par les membres du MIT.

Source : Tech Xplore

Modifié le 02/06/2021 à 08h44
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
21
13
Voir tous les messages sur le forum

Lectures liées

EHang nous dévoile son impressionnant taxi drone, qui a franchi l'étape des vols tests en Asie (Vidéo)
L'UE appelle à l'interdiction de la notation sociale et de la reconnaissance faciale dans les lieux publics
Aux États-Unis, une reconnaissance faciale défaillante empêche les demandeurs d'emploi de toucher leur chômage
E4, le robot de sécurité chien de garde en action ! (Vidéo Clubic)
VivaTech : Emmanuel Macron et Cédric O saluent le retour des grands salons (Vidéo Clubic)
Pour Amazon, le robot est l'avenir de la sécurité des travailleurs
La reconnaissance faciale envisagée pour sauver les koalas de l'extinction
Les compagnies aériennes prévoient d'investir massivement dans les taxis volants
Le robot chinois Zhurong nous fait parvenir des photos depuis la planète Mars
Sur les traces du Concorde : United Airlines achète 15 avions supersoniques auprès de Boom Supersonic
Haut de page