OpenAI fait face à de nombreux procès intentés par des familles de proches décédés suite à des conversations avec ChatGPT. Pour prévenir les risques, la société a ouvert un dispositif de soutien.

On le sait, les plaintes s’accumulent contre OpenAI, notamment pour des cas de suicides, de psychoses ou d’auto-mutilation. La firme, qui soutient actuellement un projet de loi qui lui éviterait d’avoir à payer en cas de catastrophe provoquée par ChatGPT, a expliqué faire face à plus d’1 million de personnes en détresse chaque semaine. Elle vient de mettre en place le dispositif « Trusted Contact » pour aider ces utilisateurs.
Un nouveau dispositif de soutien disponible dans ChatGPT
OpenAI avait déjà mis en place des lignes d’assistance locale pour agir rapidement en cas de détection de problèmes liés à la sécurité émotionnelle de ses utilisateurs. Des alertes permettaient aussi de prévenir les parents si leur enfant n’allait pas bien. Pour aller encore plus loin, la société a annoncé hier le déploiement progressif de « Trusted Contact » (« Contact de confiance » en français).
Cette nouveauté « permet aux adultes de désigner une personne de confiance (ami, membre de la famille ou aidant) qui sera avertie si nos systèmes automatisés et nos équipes d'évaluation détectent que la personne inscrite a évoqué des idées suicidaires. » Elle s’active notamment si le sujet de l’auto-mutilation apparaît dans les échanges avec le chatbot.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
La fonctionnalité a été développée avec le soutien de l’American Psychological Association et du Conseil d’experts d’OpenAI sur le bien-être et l’IA. Si les systèmes de la société repèrent une conversation inquiétante, ChatGPT informe l’utilisateur qu’il pourrait envoyer une notification à son contact de confiance et l’encourage à le contacter. Dans le même temps, une équipe d’humains analyse la situation et envoie une alerte, par e-mail, SMS ou via une notification dans l’app.
Comment configurer un contact de confiance dans ChatGPT ?
Pour activer « Trusted Contact », il est nécessaire de paramétrer un contact en :
- Ouvrant l’app ChatGPT et en cliquant sur sa photo de profil puis sur « Paramètres » ;
- Appuyant sur « Contact de confiance » (en dessous de la section « Contrôles parentaux » ;
- Ajoutant un contact en indiquant son nom, son numéro de téléphone et son email. On peut aussi sélectionner une personne dans le répertoire de son smartphone.
À noter, le contact doit forcément être majeur. Il est possible de modifier cette personne de confiance à tout moment et cette dernière peut également se retirer de la liste, si besoin est. De plus, aucune information détaillée n’est partagée lors de l’envoi de l’alerte : le contact n’aura pas accès à la transcription de la conversation et sera juste encouragé à prendre des nouvelles de la personne.
Gros bémol, cette fonctionnalité est totalement optionnelle : il faut donc que l’utilisateur pense à l’activer sur son profil pour pouvoir bénéficier du dispositif de soutien. Elle reste cependant une initiative bienvenue pour aider les personnes en difficulté.
Source : TechCrunch