"L'Iran frappe Tel-Aviv avec des missiles lourds" la fake news générée par Grok, l'IA de X.com (ex-Twitter)

Mélina LOUPIA
Publié le 07 avril 2024 à 19h41
Grok n'est pas l'IA la plus fiable d'Internet - © rafapress / Shutterstock
Grok n'est pas l'IA la plus fiable d'Internet - © rafapress / Shutterstock

Le 5 avril 2024, une fake news annonçant une attaque de l'Iran contre Israël a été diffusée par le chatbot IA Grok de X.com.

« L'Iran frappe Tel-Aviv avec des missiles lourds », telle est l'information que l'on pouvait lire en trending news sur X.com (ex-Twitter). Dans les faits, tout portait à croire qu'il s'agissait d'une information avérée puisque plus tôt, Israël avait mené une frappe aérienne contre l'ambassade d'Iran en Syrie.

Mais si l'information avait de quoi glacer le sang, elle s'est révélée bien plus inquiétante après que l'on a découvert qu'il s'agissait d'une fake news, créée de bout en bout par Grok, le chatbot IA de X.com.

Grok accessible aux comptes payants, qui relayent toutes ses informations, y compris les fake news

Tout a commencé lorsque Grok, le chatbot IA de X.com, a publié une information indiquant qu'Israël avait été attaqué par l'Iran. Cette information a rapidement attiré l'attention des utilisateurs, qui ont commencé à partager l'information sur diverses plateformes de médias sociaux. Cependant, il n'y avait aucune preuve d'une telle attaque dans les actualités traditionnelles ou les sources gouvernementales. Alors comment cette fake news est-elle devenue tellement virale que de nombreux utilisateurs y ont cru ?

Tout simplement à cause du fonctionnement de Grok. Pour rappel, il est question d’un outil développé en interne par X.com dans le but d’alimenter sa nouvelle fonctionnalité « Explore » dédiée aux tendances. Ainsi, sans aucune vérification humaine, c’est bien l’intelligence artificielle qui a entièrement inventé et rédigé ce titre mensonger.

Il faut savoir que par le passé, Grok avait déjà généré de fausses infos en conversations privées avec certains utilisateurs. Mais cette fois, c’est la fonctionnalité Explore qui a promu ce contenu mensonger sur la page d’accueil de la plateforme. Et même si, de son « propre » aveu, Grok « peut commettre des erreurs », le mal était fait, les utilisateurs payants, qui ont pu avoir accès à Grok en exclusivité, ont sauté à pieds joints dans le piège de la fake news et l'ont relayée. Et depuis qu'il n'est plus possible de signaler les fake news sur X.com, tout semble permis.

Aujourd'hui, plus aucun humain ne prend en charge la page "Explore" de X - © Angga Budhiyanto / Shutterstock
Aujourd'hui, plus aucun humain ne prend en charge la page "Explore" de X - © Angga Budhiyanto / Shutterstock

Comment en est-on arrivé là?

Pour comprendre comment cela s’est produit, il faut revenir quelques années en arrière. Avant qu'Elon Musk n'acquière Twitter, la plateforme avait implémenté une fonctionnalité qui fournissait un contexte écrit pour les sujets d'actualité. Cette fonctionnalité s'appuyait sur des rédacteurs humains qui organisaient les actualités et fournissaient un contexte aux sujets d'actualité. Cependant, peu de temps après que Elon Musk ait acheté Twitter en 2022, il a licencié les rédacteurs humains, entraînant la disparition du contexte écrit sur les sujets d'actualité.

La page « Explore » de X.com, qui a été récemment mise à jour, semble ramener le contexte écrit des sujets tendance. La page comprend en effet une liste d’articles tendance dans différentes catégories de sujets. Elle fournit les principaux articles des utilisateurs sur chaque sujet accompagnés d'un petit résumé. En haut de la page, un titre créé par X.com présente l'information aux lecteurs comme s'ils étaient sur le point de lire un article. Mais… aucun humain n'est derrière cette interface de partage d'informations.

Et pour cause, Elon Musk n'a pas ramené l'équipe de curation de Twitter ni embauché de nouveaux rédacteurs humains. Au lieu de cela, le chatbot IA de X.com, Grok, est désormais chargé d'écrire le contexte fourni sur la page  « Explore ». La mise en avant et le relai de cette fake news sont la preuve des dangers de l'utilisation de l'IA à tous les étages d'Internet. Et dire qu'Elon Musk souhaitait auparavant démonétiser les fake news sur X.com

A découvrir
Les 5 meilleurs chatbots à intelligence artificielle (2024)

16 juillet 2024 à 16h43

Comparatifs services

Source : Mashable

Par Mélina LOUPIA

Modératrice, contributrice et community manager pour le regretté OVNI Le Post, puis journaliste société spécialisée dans la parentalité et la psychologie notamment sur Le HuffPost, l'univers du Web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet s'inscrit dans le champ de mes sujets préférés.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (9)
norwy

Parce qu’elle devait générer quoi d’autre, à part des fake news, cette IA ?

Neferith

Moralité ? Toujours croiser les sources, quand on tombe sur une news aussi grosse.

Anne-Onyman

Dans Terminator Genisys il est question d’une IA, skynet, qui tente d’erradiquer l’humanité en prenant le contrôle de missiles nucléaires…
Finalement avec Grok l’IA a quasiment le même pouvoir simplement en s’attaquant à… L’information…

Blackalf

Pas que dans celui-là, c’est le cas dés le premier film de la franchise en 1984. ^^

mcbenny

Et qui a oublie « Wargames » ? 1983 ? Matthew Broderick…

Blackalf

Détail amusant, quelques années après le premier film Terminator, mon FAI en Belgique était…Skynet.be et le nom venait directement du film. ^^

Agalma

Je suis sur X, rien vu passé. Tempête dans un verre d’eau Mélina !

Adrift

En général, je défends plutôt Musk contre la haine continuelle des gens qui aiment détester les « méchants riches ».

Mais là, c’est une terrible utilisation de Grok. Il est vrai que les IA sont utiles pour résumer des données, mais il faut absolument réduire leurs hallucinations (comme ChatGPT le peut dans Bing).

Ce genre de fausse nouvelle est dangereuse.

Pernel

Quand les gens critiques Etron, ça n’a aucun rapport avec les « méchants riches », juste rapport avec les c*nnards égocentriques qui balancent des bêtises sans ce souci des conséquences. S’il est critiqué, c’est à cause de ses dires et faits, pas à cause de son pognon.