Selon Microsoft, des images générées par IA en Chine sont déjà employées pour influencer les électeurs américains

11 septembre 2023 à 08h05
7
© CARLOS DE SOUZA / Unsplash
© CARLOS DE SOUZA / Unsplash

On s'y attendait peut-être un peu, mais le géant américain confirme que les batailles d'opinion disposeront bien d'un nouvel outil qui pourrait avoir un effet profond sur les grandes échéances électorales à venir.

Les élections présidentielles approchent à grands pas aux États-Unis. Dans quelques mois, la première puissance économique mondiale demandera à sa population, déjà divisée, de choisir son prochain dirigeant. Un moment opportun pour ses principaux rivaux, qui ne résistent jamais à la tentation d'utiliser les réseaux sociaux pour influencer les votes.

Des images « de qualité relativement élevée »

La désinformation est devenue un vrai calvaire pour les grands médias sociaux, qui tentent tant bien que mal de les endiguer. Ces derniers mois, ils ont dû faire face à l'émergence de programmes d'intelligence artificielle capables de générer des images parfois très convaincantes, du moins pour un œil non averti. Une arme plus qu'utile dans l'arsenal des acteurs malveillants.

Dans un récent rapport sur les menaces provenant d'Asie de l'Est, Microsoft fait état d'une multiplication des images générées par IA et ayant pour but d'influencer les électeurs américains. L'entreprise indique que « depuis mars 2023 environ, certaines personnes soupçonnées de faire partie du renseignement chinois ont commencé à exploiter l'intelligence artificielle générative pour créer du contenu visuel destiné aux médias sociaux occidentaux ».

© Midjourney / X.com
© Midjourney / X.com

« Ce contenu de qualité relativement élevée a déjà attiré des niveaux d'engagement forts de la part des utilisateurs », ajoute le géant américain. Et les choses pourraient aller de mal en pis, car ces acteurs malveillants devraient continuer à améliorer et à affiner les images générées. Il appartient désormais aux entreprises du secteur de trouver une parade, et c'est bien là que les prochaines batailles contre la désinformation feront rage pendant les années à venir.

Source : Neowin

Maxence Glineur

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique...

Lire d'autres articles

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique : toute l'actualité (ou presque) attise ma curiosité. Sinon, j'aime le rock et le lofi, les game-nights toujours trop longues, les bons films et les nanards.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (7)

Proutie66
Il suffirait pourtant d’un moyen simple : Jarter tiktok
Sebastien_Quevilly
Sans déconner ?<br /> Ce serait vraiment étonnant, mais ce peut-il que la Russie en fasse autant ?
Comcom1
Il n’y avait pas besoin ni de Microsoft ni de l’IA pour ça, c’est déjà le cas depuis bien des années, l’IA n’a rien à voir la dedans on avait déjà Photoshop depuis longtemps mdr
Darkonyx
Ce sont les faux commentaires qui me causent problème.<br /> On a l’impression que 95% des gens sur internet sont pour la gauche. Des commentaires anti RE, anti LR, anti FN.
zemarsu
Si toutes les imags sont de la qualite de celle mise en exemple, on est plutot tranquille
YBoy360
Comment aimer Microsoft après ce genre de baragouinage, c’est totalement impossible! Ils osent tout! Parler d’informatique de confiance … Eux ??? Sérieux !!!
Voir tous les messages sur le forum
Haut de page

Sur le même sujet