Bing avec ChatGPT : les premiers utilisateurs s'en donnent à cœur joie et font dérailler l'IA

15 février 2023 à 10h30
17
© Shutterstock / Clubic
© Shutterstock / Clubic

À peine intégré à Bing, ChatGPT se fait déjà malmener par quelques privilégiés qui ont obtenu l'accès à la fonctionnalité.

Dans un véritable raz-de-marée d'inscriptions seulement quelques jours après son déploiement, le tout jeune chatbot a ainsi été poussé dans ses derniers retranchements, jusqu'à tenir des propos incohérents et exposer ses erreurs.

À peine arrivé sur Bing, ChatGPT se fait bizuter

Une chose est certaine, Microsoft a réussi la semaine dernière à braquer le feu des projecteurs sur son navigateur Bing, dopé à l'IA ChatGPT. Les utilisateurs curieux ont répondu présent en grand nombre… pour le meilleur comme pour le pire.

Certains heureux élus se sont en effet amusés pour ainsi dire à « bizuter » le fraîchement arrivé chatbot dans Bing, qui a parfois littéralement déraillé. Plusieurs exemples de ce type ont été postés sur le subreddit consacré à Bing, comme cette conversation où l'IA entre dans une crise existentielle après avoir perdu le fil de la discussion.

Capture d'écran de © yaosio sur Reddit
Capture d'écran de © yaosio sur Reddit

Un autre grand classique lorsque l'on traite avec une IA : un utilisateur a demandé au chatbot de Bing s'il était conscient. La réponse n'est pas sans rappeler une réaction que l'on a déjà vue au moins une fois dans une œuvre de science-fiction mettant en scène des intelligences artificielles.

Capture d'écran de © Vlad sur Twitter
Capture d'écran de © Vlad sur Twitter

Les erreurs de la jeunesse

Outre un malin plaisir pris par certains utilisateurs à détraquer le tout récent chatbot de Bing, d'autres ont voulu mettre en exergue les erreurs qu'il est capable de générer. Pour prouver que la nouvelle IA de Bing est indigne de confiance, Dmitri Brereton a notamment posté sur son blog, cité en source ci-dessous, quelques exemples d'assez grossières erreurs.

Celle-ci semble pour l'heure manquer de cohérence dans les réponses qu'elle génère. Elle peut même retranscrire de manière erronée des informations pourtant marquées noir sur blanc sur des documents qu'elle a retrouvés pour répondre à une directive.

Un représentant de Microsoft s'est prononcé quant à ces erreurs de jeunesse : « Nous nous attendons à ce que le système fasse des erreurs durant sa période d'essai, et les retours sont d'une importance capitale pour nous aider à identifier ce qui ne fonctionne pas afin de rendre notre modèle meilleur. »

Le chatbot de Bing étant encore pour ainsi dire un « bébé », il se montre loin d'être une menace pour les moteurs de recherche dont nous avons l'habitude, contrairement à ce que l'on pourrait craindre.

ChatGPT

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Microsoft Bing

  • L'intégration de ChatGPT
  • Filtres pour la recherche d'images
  • Filtres des actualités par sources

Sources : Reddit, DKB Blog

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (17)

ayaredone
J’adore la crise existentielle <br /> Vous devriez la traduire pour les non anglophones.
tfpsly
Ca fait un peu…<br />
wax78
Demande a ChatGPT qu’il fasse la traduc
ayaredone
Je ne pense pas qu’il puisse traduire une photo <br /> en fait ChatGPT c’est nul : il sait pas lire
wax78
C’est vrai, il ne sait pas.<br /> Mais si on veux pousser le truc jusqu’au bout du délire: PowerToys-&gt;extracteur de texte-&gt; coller dans chat GTP
TonTonFomoso
Même problème chez google<br /> Enfaite pour lancer l’ia il faut la laisser faire des erreurs puis les signaler<br /> Avec les années elle seront de plus en plus fiable
ovancantfort
Reddit come source d’info ?!? Il y a une probabilité non négligeable que ces screenshots soient des fakes. D’ailleurs, dans la discussion reddit, aucun autre utilisateur n’a pu reproduire ces comportements. J’attendrais de votre part un peu plus déontologie journalistique et une vérification minimale de l’info. Ah zut, j’oubliais , je suis sur Clubic !
NyLan
Vous pourriez arrêter de dire CHATGPT pour parler de toutes les IA conversationnelles ?<br /> C’est comme quand les gens disent iPad pour parler de toutes les tablettes… C’est chaud venant de votre site…
Hubert_Lambin
Quand on pose une question intelligente, il semble répondre d’une manière intelligente. J’ai demandé : « L’asséchement des nappes phréatiques pénalise-t-il la pluviométrie ? ».<br /> Bing répond comme Google à côté de la plaque ( par une série d’articles qui disent tous la même chose : « moins il pleut, moins elles se remplissent », en gros).<br /> Mais Bing + GPT comprend le sens de la question et répond oui, indirectement, et explique pourquoi. Assez impressionnant.
Kerri
Mai là c’est de ChatGPT qu’il s’agit…
Juju74
Bon,d’abord intituler le site Bing+j’ai pété,c’est complètement incongru,voire ridicule,puisque cela voudrait dire que" l’homo sapiens" perd tout contrôle de ses neurones,face à l’IA…bon,vous me direz que c’est marrant,mais les plaisanteries les plus courtes,sont les moins longues,comme disait Descartes,qui était plus intelligent que " j’ai pété "…
Juju74
Mais alors,si c’est tellement impressionnant,pourriez vous nous dire la différence de réponse entre Google(à côté de la plaque),et de Bing+j’ai pété ?..et ben aucune,puisque tte personne sensée sait très bien que s’il ne pleut pas,les nappes frénétiques( pardon,phréatiques) ne se remplissent pas(ex…canicule de 2022 )…donc,au final,aucun besoin de Google,ni de Bing+j’ai pété
Hubert_Lambin
Il vous faudra une IA pour décrypter mon com, j’en ai peur. Le GPT intégré à Bing (GPT 4 ?) répond oui à ma question. Plus en détail, oui, l’asséchement des nappes phréatiques contribue indirectement à réduire la pluviométrie pour telle et telle raison. En somme, les Californiens (et autres) se tirent une balle dans le pied : le sur-arrosage des amandiers et autres cultures raréfie les nuages et augmente les incendies.
Juju74
Ah non,cher Mr,c’est plutôt le manque de pluie qui provoque l’assèchement des nappes phréatiques,et non le contraire…
Juju74
Pour telle et telle raison ???..et bien,si vous êtes si affirmatif,donnez nous la raison,sauf si malheusement,vous êtes contaminé par le virus"J’ai pété ",et dans ce cas,je ne peux rien faire pour vous…
Hubert_Lambin
Le manque de pluie, c’est la réponse évidente (plus qu’évidente). Pour les autres raisons, il vous faudra consulter GTP.
NyLan
Non.<br /> Il y a un partenariat entre Microsoft et OpenAi et ce n’est pas ChatGPT dans bing. C’est plus compliqué que ça. D’ailleurs les réponses ont été comparés ce n’est pas les mêmes.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet