Pourquoi les nouvelles limites de Bing ChatGPT semblent le rendre... bien plus bête

21 février 2023 à 16h20
5
© fizkes / Shutterstock / Clubic
© fizkes / Shutterstock / Clubic

Microsoft a mis en place plusieurs barrières autour de son chatbot afin de limiter les réponses inappropriées, mais cela n'est pas sans conséquences.

ChatGPT reste la vraie dernière sensation du monde de la tech. Le modèle d'intelligence artificielle développé par la société OpenAI a bluffé son monde en quelques semaines grâce à la qualité de ses réponses, et les géants du Web tentent de suivre le mouvement.

Le nouveau Bing alimenté par ChatGPT ne s'est pas fait que des amis

Microsoft est l'acteur le plus avancé aujourd'hui. L'entreprise américaine a investi pas moins de 10 milliards de dollars dans OpenAI et a récemment présenté une nouvelle version de son moteur de recherche, Bing, intégrant l'assistant conversationnel ChatGPT.

L'outil, actuellement en bêta, a été mis dans les mains de millions d'utilisateurs, mais tout ne s'est pas passé comme prévu. Le chatbot s'est rapidement révélé ironique, agressif, voire insultant après quelques réponses. Les exemples du comportement parfois bizarre du nouveau Bing pleuvent sur le Web, et l'on ne compte plus les captures d'écran montrant le chatbot railler un utilisateur, prendre conscience de son état de machine ou juste répondre à côté de la plaque à une question pourtant simple.

Probablement contrariée par ce départ loupé, Microsoft a vite réagi en ajoutant quelques limites à son assistant, en fonction des différents retours des utilisateurs. Il n'est ainsi plus possible d'écrire plus de cinq questions ou requêtes par session, mais l'éditeur ne s'est pas arrêté à cette seule restriction.

Un chatbot plus aimable, mais plus limité

Selon plusieurs journalistes qui ont pu tester le chatbot ces dernières heures, Microsoft a également retiré la possibilité de créer des questionnaires. Après plusieurs demandes insistantes de la part des utilisateurs, Bing cesse de répondre et réclame tout simplement à changer de sujet. Circulez, il n'y plus rien à voir.

Interrogé par le site Windows Latest, Mikhail Parakhin, responsable en charge des services web chez Microsoft, indique que ce nouveau comportement semble être « un effet secondaire des réponses concises » qui n'était pas prévu par les équipes en charge de Bing. Ces dernières vont se pencher sur le sujet au cours des prochains jours pour analyser la situation et redonner à Bing la possibilité de créer des questionnaires.

Microsoft a par ailleurs travaillé à atténuer le caractère parfois éruptif qui a été constaté chez Bing. Si l'utilisateur conteste la réponse ou le raisonnement de l'assistant conversationnel, ce dernier interrompt désormais la conversation et lui explique être toujours en phase d'apprentissage. Un bon moyen d'éviter une confrontation, même si Bing y perd un peu de son intelligence et ressemble maintenant davantage à tous les autres assistants vocaux et chatbots qui l'ont précédé.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Source : Windows Latest

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (5)

philumax
Je viens d’y passer : ça change, du moteur habituel.<br /> Étant donné qu’il est en test, en dire plus, ce n’est pas logique.
Muggsy68
Après bing, et hop, à la poubelle.
Jice06
Perso, je commence a saturer des articles sur le chat …<br />
Keepah
sur reddit ils disent que les premiers jours c’était autrement plus performant chat gpt, pour avoir testé un peu au début je suis assez d’accord même si c’est peut être un biais cognitif mais je pense pas, c’est dommage, à force de le nerfer pour choquer personne il sort plus rien d’original
kroman
Qu’est ce que ça doit être alors🤣<br /> ChatGPT est déjà catastrophique à la base !<br /> Il raconte n’importe quoi. Quand on s’en rend compte, il s’excuse, puis donne une autre réponse toute aussi réaliste mais toute aussi fausse🤦‍♂️<br /> J’ai déjà remarqué ça pour 3 sujets différents :<br /> Codage : fait référence à des librairies / fonctions qui n’existent pas, de façon réaliste<br /> Technologie : il invente des formules (réalistes) et schémas (complètement à coté de la plaque). (Ça concernait des mesures avec jauges extensométriques et pont de Wheatstone)<br /> Donne des réponses réalistes en citant des articles scientifiques qui n’existent pas, en donnant des DOI qui n’existent pas ou correspondent complètement à autre chose<br /> Bref, si vous n’avez besoin de rien ou juste besoin de baratiner un truc abstrait demandez à ChatGPT !
Jice06
Un bon outil pour les forces de vente donc…
Voir tous les messages sur le forum