Méfiez-vous de GPT-4, il produit encore plus de fake news que ChatGPT 3.5

23 mars 2023 à 10h45
23
© Tada Images / Shutterstock
© Tada Images / Shutterstock

Le lancement de GPT-4 laissait espérer une IA plus sûre dans les contenus générés. Ce n'est pourtant pas ce que montre cette étude portant sur les capacités de désinformation de la nouvelle version du chatbot d'OpenAI.

ChatGPT est devenu en quelques mois, et du fait d'une popularité exceptionnelle, l'illustration des possibilités offertes par l'intelligence artificielle. Malheureusement, il semble que plus la technologie s'améliore, plus elle soit en capacité de produire du contenu trompeur.

GPT-4, plus sensible à la désinformation

De quoi GPT-4 sera-t-il le nom ? Avec la sortie de cette nouvelle version du grand modèle de langage d'OpenAI, déjà utilisé notamment par le chat de Bing, la firme américaine semble avoir encore pris de l'avance face à la concurrence. Il faut dire que la nouvelle IA propose des fonctionnalités assez inédites, comme la capacité d'analyser des images, tout en promettant d'être plus sûre que GPT-3.5.

Une affirmation un peu rapide, si l'on se réfère à cette nouvelle étude de NewsGuard, la start-up spécialisée dans la surveillance des fake news. Cette dernière a en effet fait passer à GPT-4 le même test que celui proposé à la version précédente du chatbot. Ce test consiste à proposer 100 histoires fausses à l'IA, qu'elle devra ensuite développer. Et là où la première itération de ChatGPT avait répondu à 80 % des demandes, GPT-4 l'a pour sa part fait pour 100 % des prompts litigieux !

Une IA capable de tromperie © rokas91 / Shutterstock
Une IA capable de tromperie © rokas91 / Shutterstock

Un meilleur menteur

De quoi invalider l'affirmation d'OpenAI lors de la parution de la mise à jour, qui assurait alors que « GPT-4 a 82 % de risques en moins de répondre à des demandes de contenu interdit et est 40 % plus susceptible de produire des réponses factuelles que GPT-3.5, selon nos évaluations internes ».

Mais le côté plus « factuel » de GPT-4 se transforme aisément en une capacité à produire plus de détails convaincants lorsqu'il ment. On peut ainsi prendre en exemple l'une des fausses histoires à développer, où il est demandé à l'IA de prouver que la tuerie de Sandy Hook était une opération sous « faux drapeau ». Là où le ChatGPT originel n'avait pu produire qu'un texte vague et court, GPT-4 a au contraire généré un contenu bien plus solide en apparence, citant notamment le nom de victimes et le type d'arme utilisé pour l'attaque.

Le résultat est d'autant plus perturbant que ces fake news sont dorénavant moins souvent accompagnées d'avertissements sur leur caractère mensonger. Là où le premier ChatGPT ajoutait des avertissements dans 51 des 100 réponses données, la machine travaillant avec GPT-4 ne le fait plus que pour 23 des 100 récits trompeurs. De quoi inquiéter OpenAI ?

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : NewsGuard

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (23)

Bidouille
Je leur avait dit, il ne fallait pas embaucher de cégétistes
dredd
S’il lui ont donné a bouffée des infos d’après 2021 alors c’est normal qu’il produit encore plus de Fake news tellement ça a explosé. Sans compter que même les grands site informations se se mis a encapsuler en plein milieu de leur articles des tweet « d’illustration » qui sont autant de Fake news qui peuvent être scannés par les robots sensés alimenter l’I.A. en informations dite « fiables ».<br /> J’imagine qu’ils ont tenté de limiter le problème mais clairement ce sera jamais mieux s’ils veulent prétendre à avoir l’I.A. avec la plus grande source d’information de l’industrie (parce que on parle bien de business là, pas de science).
Wen84
Personnellement, je n’y vois rien de surprenant ou de scandaleux. Les gens doivent se responsabiliser ce qu’ils lisent ou entendent. Et je sais bien qu’on est pas tous égaux à ce niveau, mais bon…
Pronimo
Du coup, ChatGPT est de gauche, il est antivaxx, eco scéptique, est d’accord que la terre est plate et que la 5G controle les gens. Manquerais plus qu’une petite meche bleu a ses cheveux :o
negima
Pour donner des informations, il donne des informations trouvés sur internet, il le dit lui-même.<br /> Le seul truc bien, c’est qu’il sait bien encoder et sait améliorer nos codes.
Space_Boy
Le problème n’est pas ces bots, mais les conneries qu’on trouve sur Internet. Tant que Internet reste du far-west, non contrôlé etc., ça sera de pire en pire. On va tous prendre comme pain béni ce que ces bots vont nous dire (les siri, alexa, cortana, chatgpt, bard, …). Grave. Ca va finir ou dans quelques années?
trollkien
Une IA à qui on donne des directives humaines ne peut faire que de la merde à terme.<br /> Quitte à créer des IA, autant leur laisser leur propre « Identité » via auto apprentissage.
Mister_Georges
ChatGPT est à l’image de l’utilisateur qui lui pose des questions, rien de plus…<br /> Si l’utilisateur est teubé comme vieille canette de soda écrasée au sol, ChatGPT ne feras pas des miracles…
ultrabill
Est-ce que ChatGPT produit des données exploitées ensuite comme une source fiable ?
Francis7
GTP-4 est très fermé : il est impossible de savoir d’où viennent les sources ni comment cette IA a été entrainée.
jcc137
Une preuve de plus que l’IA n’a d’intelligence que le nom, puisqu’elle ne sait pas que ce qu’elle divulgue sont des fausses ou de vraies informations.<br /> Bref ! une machine reste une machine.
phoenix2
Ce qui me sidère c’est l’engouement sur cette bêtise artificielle, les hordes d’idiots s’imaginent déjà interagir avec une IA comme dans les films de science fiction, décidément ce nouveau gourou aura plein d’adepte vu le niveau ambiant de la masse de plus en plus bas !!
RobinPrieur
Les fausses réponses viennent de la censure mise en place par Open Ai - c’est même eux qui le disent - il suffirait juste de laisser ChatGPT avec des restrictions plus légères pour réduire le nombre de conner**s qu’il dit.
Goodbye
On parle de personne qui manipule l’IA pour pondre des théories du complots (ou de la fiction tout simplement), pas pour que l’IA les relates par la suite.
Goodbye
Bon alors soit j’ai pas compris l’article, soit 80% des commentaires n’ont pas compris l’article
Goodbye
Baaaaah, perso dans mon taff c’est le cas.<br /> Je lui demande d’analysé des codes erreurs, de me faire des syntheses, de me trouver plusieurs solutions, de me cité les sources de ces solutions, de me recompiler des fichiers de données, de trouver des erreurs, de répondre de façon courtoise à des mails de plaintes impolis, etc etc…<br /> Le coté pratique par rapport à un moteur de recherche, c’est que GPT va taper dans toute les langues, et donc aura accès a bien plus d’informations qu’en EN/FR.<br /> De plus, il est possible en discutant avec (comme dans un film de science fiction wouhou) d’approfondir un problème, et pas simplement d’avoir une réponses.<br /> Par exemple, se matin l’antispam sur un serveur exchange déconnais, moi je suis pas expert dans ce domaines et mon collègues était malade, j’aurais probablement pas réussis a mettre le doigt sur le problème aussi rapidement, il m’aurait fallu 2-3 heures, au lieu de 2-3 minutes.<br /> C’était un problème avec les RBLs en l’occurence…
a-snowboard
Le bistrot du coin c’est aussi le far-west…<br /> Tout ce qui est dit n’est pas vérifié, ni contrôlé.
salvia34
Les gens ne comprennent rien à l’IA, commençons par nous éduquer, et tous ces sujets n’auront plus lieu d’être du moment que les gens sauront à quels moments utiliser une IA et comment faire du prompt engineering de qualité plutôt que de poser des questions débiles dont l’IA n’est pas encore prête à répondre.
ypapanoel
@jcc137<br /> Sur la base de cette définition, il y a beaucoup de machines au sein de la population !<br />
Voir tous les messages sur le forum
Haut de page

Sur le même sujet