C'est une bévue dont OpenAI aurait certainement aimé se passer. Les conversations de milliers d'utilisateurs se sont retrouvées disponibles sur Google à partir d'une simple recherche.

Une petite boulette du côté de chez OpenAI. ©Yarrrrrbright / Shutterstock
Une petite boulette du côté de chez OpenAI. ©Yarrrrrbright / Shutterstock
L'info en 3 points
  • OpenAI a rendu publiques des conversations d'utilisateurs via une simple recherche Google.
  • L'intention initiale était de rendre certaines discussions utiles accessibles, mais cela a mal tourné.
  • La situation a soulevé des préoccupations concernant la confidentialité et la sécurité des données des utilisateurs.

Au départ, tout partait d'une bonne intention, selon la start-up. L'idée était de faciliter la découverte de conversations utiles en rendant certains chats accessibles via Google ou d’autres moteurs de recherche. Problème, rien ne s'est passé comme prévu.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

OpenAI retire la fonctionnalité de ChatGPT

Car pour activer la fonctionnalité, l’utilisateur devait d’abord partager sa conversation, puis cocher une case pour accepter que le contenu soit indexé par les moteurs de recherche. En théorie, les échanges rendus publics devaient être anonymisés, les noms et identifiants directs étant retirés.

Mais dans la pratique, beaucoup de discussions contenaient des détails personnels ou extrêmement sensibles, notamment sur la santé, le travail ou la vie privée, dont les utilisateurs n’avaient pas mesurés la portée moment du partage. Résultat, certains ont pu être identifiés, exposant des informations qu’ils n’avaient pas vraiment voulu rendre publiques.

En conséquence, OpenAI a rapidement fait marche arrière et annulé le déploiement de la fonction, tandis que les conversations devraient être retirées des moteurs de recherche. « Il s'agissait d'une expérience de courte durée visant à aider les gens à découvrir des conversations utiles », explique Dane Stuckey, Directeur de la sécurité des systèmes d'information de l'entreprise, dans un tweet.

« En fin de compte, nous pensons que cette fonction a créé trop d'occasions pour les gens de partager accidentellement des choses qu'ils n'avaient pas l'intention de partager, c'est pourquoi nous supprimons l'option », poursuit-il.

Le logo d'OpenAI. ©sdx15 / Shutterstock

Les utilisateurs se livrent-ils trop aux IA ?

Cet épisode malencontreux met en lumière une tendance grandissante : les utilisateurs confient énormément de choses à l’IA sans toujours réfléchir aux conséquences. Qu’il s’agisse de questions intimes liées à la santé, de confidences personnelles ou de documents professionnels sensibles, ces échanges traduisent à quel point ChatGPT est devenu un interlocuteur du quotidien.

Mais cette proximité a un revers, car beaucoup oublient qu’un chatbot reste un outil numérique, avec ses règles de conservation et de partage de données. Il y a quelques jours, Sam Altman, patron d'OpenAI, rappelait d'ailleurs que les conversations avec son IA pouvaient être saisies et utilisées comme preuve dans le cadre de procédures judiciaires.

Et de leur côté, les entreprises ont tendance à privilégier le lancement rapide de nouvelles fonctionnalités pour devancer la concurrence, quitte à ajuster ensuite en cas de problème. Au grand dam des utilisateurs…

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
04 février 2025 à 14h11
Comparatifs services