Bing avec ChatGPT : les premiers utilisateurs s'en donnent à cœur joie et font dérailler l'IA

Robin Lamorlette
Publié le 15 février 2023 à 10h30
© Shutterstock / Clubic
© Shutterstock / Clubic

À peine intégré à Bing, ChatGPT se fait déjà malmener par quelques privilégiés qui ont obtenu l'accès à la fonctionnalité.

Dans un véritable raz-de-marée d'inscriptions seulement quelques jours après son déploiement, le tout jeune chatbot a ainsi été poussé dans ses derniers retranchements, jusqu'à tenir des propos incohérents et exposer ses erreurs.

À peine arrivé sur Bing, ChatGPT se fait bizuter

Une chose est certaine, Microsoft a réussi la semaine dernière à braquer le feu des projecteurs sur son navigateur Bing, dopé à l'IA ChatGPT. Les utilisateurs curieux ont répondu présent en grand nombre… pour le meilleur comme pour le pire.

Certains heureux élus se sont en effet amusés pour ainsi dire à « bizuter » le fraîchement arrivé chatbot dans Bing, qui a parfois littéralement déraillé. Plusieurs exemples de ce type ont été postés sur le subreddit consacré à Bing, comme cette conversation où l'IA entre dans une crise existentielle après avoir perdu le fil de la discussion.

Capture d'écran de © yaosio sur Reddit
Capture d'écran de © yaosio sur Reddit

Un autre grand classique lorsque l'on traite avec une IA : un utilisateur a demandé au chatbot de Bing s'il était conscient. La réponse n'est pas sans rappeler une réaction que l'on a déjà vue au moins une fois dans une œuvre de science-fiction mettant en scène des intelligences artificielles.

Capture d'écran de © Vlad sur Twitter

Les erreurs de la jeunesse

Outre un malin plaisir pris par certains utilisateurs à détraquer le tout récent chatbot de Bing, d'autres ont voulu mettre en exergue les erreurs qu'il est capable de générer. Pour prouver que la nouvelle IA de Bing est indigne de confiance, Dmitri Brereton a notamment posté sur son blog, cité en source ci-dessous, quelques exemples d'assez grossières erreurs.

Celle-ci semble pour l'heure manquer de cohérence dans les réponses qu'elle génère. Elle peut même retranscrire de manière erronée des informations pourtant marquées noir sur blanc sur des documents qu'elle a retrouvés pour répondre à une directive.

Un représentant de Microsoft s'est prononcé quant à ces erreurs de jeunesse : « Nous nous attendons à ce que le système fasse des erreurs durant sa période d'essai, et les retours sont d'une importance capitale pour nous aider à identifier ce qui ne fonctionne pas afin de rendre notre modèle meilleur. »

Le chatbot de Bing étant encore pour ainsi dire un « bébé », il se montre loin d'être une menace pour les moteurs de recherche dont nous avons l'habitude, contrairement à ce que l'on pourrait craindre.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
Microsoft Bing
  • L'intégration de ChatGPT
  • Filtres pour la recherche d'images
  • Filtres des actualités par sources

Sources : Reddit, DKB Blog

Par Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
ayaredone

J’adore la crise existentielle :stuck_out_tongue:
Vous devriez la traduire pour les non anglophones.

tfpsly

Ca fait un peu…

wax78

Demande a ChatGPT qu’il fasse la traduc :smiley:

ayaredone

Je ne pense pas qu’il puisse traduire une photo :frowning:

en fait ChatGPT c’est nul : il sait pas lire :wink:

wax78

C’est vrai, il ne sait pas.

Mais si on veux pousser le truc jusqu’au bout du délire: PowerToys->extracteur de texte-> coller dans chat GTP :wink:

TonTonFomoso

Même problème chez google

Enfaite pour lancer l’ia il faut la laisser faire des erreurs puis les signaler

Avec les années elle seront de plus en plus fiable

ovancantfort

Reddit come source d’info ?!? Il y a une probabilité non négligeable que ces screenshots soient des fakes. D’ailleurs, dans la discussion reddit, aucun autre utilisateur n’a pu reproduire ces comportements. J’attendrais de votre part un peu plus déontologie journalistique et une vérification minimale de l’info. Ah zut, j’oubliais , je suis sur Clubic ! :upside_down_face:

NyLan

Vous pourriez arrêter de dire CHATGPT pour parler de toutes les IA conversationnelles ?

C’est comme quand les gens disent iPad pour parler de toutes les tablettes… C’est chaud venant de votre site…

Hubert_Lambin

Quand on pose une question intelligente, il semble répondre d’une manière intelligente. J’ai demandé : « L’asséchement des nappes phréatiques pénalise-t-il la pluviométrie ? ».
Bing répond comme Google à côté de la plaque ( par une série d’articles qui disent tous la même chose : « moins il pleut, moins elles se remplissent », en gros).
Mais Bing + GPT comprend le sens de la question et répond oui, indirectement, et explique pourquoi. Assez impressionnant.

Kerri

Mai là c’est de ChatGPT qu’il s’agit…