L'entreprise californienne refuse obstinément de répondre à une question pourtant simple : que deviennent les conversations ChatGPT d'un utilisateur décédé ? Entre opacité assumée et désinvolture réglementaire, OpenAI cultive le flou sur un sujet qui touche des millions de personnes.

ChatGPT © Gargantiopa / Shutterstock
ChatGPT © Gargantiopa / Shutterstock

Le contexte rend cette omerta particulièrement gênante. En novembre 2024, un adolescent américain s'est donné la mort après avoir confié ses pensées suicidaires à ChatGPT. Ses parents, accablés de douleur, ont porté plainte contre OpenAI. Ils souhaitaient accéder aux conversations de leur fils pour comprendre les échanges qui ont précédé le drame. Une question légitime s'est alors imposée : comment récupère-t-on les données d'un proche disparu ? OpenAI n'a fourni aucune réponse claire. Pire, l'entreprise a affirmé que l'adolescent avait violé les conditions d'utilisation en évoquant son projet de suicide, une défense qui a choqué jusqu'aux États-Unis. Cette affaire soulève un problème bien plus large : des millions d'utilisateurs confient leurs secrets les plus intimes à ChatGPT, mais personne ne sait ce qu'il advient de ces confessions après la mort.

Quand OpenAI joue les fantômes sur la gestion de vos données

Les propres chiffres d'OpenAI montrent l'ampleur du phénomène. Chaque semaine, environ 0,15% des utilisateurs actifs évoquent des pensées suicidaires avec le chatbot. Entre 10 et 22% des utilisateurs considèrent ChatGPT comme un ami, et beaucoup confient au robot des choses qu'ils ne diraient jamais à un humain. Ces conversations constituent un véritable journal intime numérique, avec une différence de taille : contrairement à Facebook, Google ou Microsoft, OpenAI refuse catégoriquement d'expliquer comment les héritiers peuvent y accéder ou les supprimer.

ChatGPT (GPT-5.2)
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

En France, le cadre légal existe pourtant. Depuis 2016, la loi pour une République Numérique autorise chacun à organiser son patrimoine numérique post-mortem. Les héritiers peuvent demander l'accès, la rectification ou la suppression des données d'un défunt. Facebook propose un compte commémoratif, Google permet de désigner un contact légataire, Microsoft offre même une option de suppression automatique du compte. OpenAI, elle, fait la sourde oreille.

Contactée par le média américain Ars Technica, l'entreprise n'a fourni aucune réponse. Pas de politique officielle, pas de procédure pour signaler un décès, pas de délai de conservation annoncé. Juste un silence radio qui en dit long sur la considération portée aux droits des utilisateurs européens. Cette attitude détonne d'autant plus que les conditions d'utilisation prévoient déjà la conservation indéfinie des conversations supprimées en cas de litige judiciaire, comme l'a démontré le procès intenté par le New York Times en 2023.

Même Facebook gère mieux le deuil que l'intelligence artificielle

Cette omerta d'OpenAI pose une question vertigineuse : si des centaines de millions de personnes utilisent ChatGPT comme confident, thérapeute improvisé ou compagnon du quotidien, que devient cette mémoire collective après leur disparition ? Les réseaux sociaux ont déjà transformé le deuil en permettant aux proches de consulter les profils des défunts. Certains y trouvent du réconfort, d'autres sont heurtés par les suggestions algorithmiques qui continuent de leur proposer d'envoyer un message à une personne disparue.

Avec l'intelligence artificielle conversationnelle, la problématique s'intensifie. Des entreprises proposent désormais de créer des doubles numériques de défunts, capables de converser en imitant leur style. Le Conseil national pilote d'éthique du numérique s'inquiète de ces pratiques depuis 2019. Mais avant même d'envisager ces scénarios futuristes, une question basique reste sans réponse : comment un parent, un conjoint ou un enfant peut-il simplement fermer le compte ChatGPT d'un proche décédé ?

L'absence de réponse d'OpenAI ressemble de plus en plus à un choix stratégique qu'à un simple oubli administratif. En refusant de clarifier sa position, l'entreprise se réserve une flexibilité maximale sur l'utilisation future de ces données. Une posture risquée face aux régulateurs européens qui commencent à s'intéresser de près à ces zones d'ombre. La CNIL française multiplie les réflexions sur la mort numérique. Tôt ou tard, OpenAI devra sortir du bois et assumer une politique claire. En attendant, des millions d'utilisateurs construisent chaque jour un héritage numérique dont ils ignorent totalement le devenir.

Source : Ars Technica