ChatGPT intègre une nouvelle fonctionnalité d’urgence destinée aux personnes en détresse. Lorsqu’une conversation dérive sur l’automutilation ou des pensées suicidaires, l’IA peut désormais orienter l’utilisateur vers une personne de confiance préalablement désignée.

Les grands acteurs de l’IA s’efforcent d’ajouter des garde-fous pour mieux accompagner les utilisateurs en détresse. Il y a quelques mois, OpenAI révélait notamment que plus d’un million de personnes partageaient chaque semaine des pensées suicidaires avec ChatGPT. Pour mieux y faire face, l’entreprise vient de lancer la fonctionnalité “Contact de confiance” pour les usagers adultes. Celui-ci pourra être averti si les systèmes automatisés et les examinateurs humains estiment que la situation l’exige.
“Les études psychologiques montrent de façon constante que le lien social est un puissant facteur de protection, surtout en période de détresse émotionnelle. Aider les personnes à identifier une personne de confiance à l’avance, tout en préservant leur choix et leur autonomie, peut faciliter l’accès à un soutien concret au moment où elles en ont le plus besoin”, estime Dr Arthur Evans, directeur général de l’Association américaine de psychologie, cité par OpenAI.
ChatGPT : les utilisateurs peuvent désormais désigner un contact de confiance
Mais comment ce nouveau dispositif fonctionne-t-il concrètement ? Les utilisateurs majeurs ont désormais la possibilité de choisir une personne de confiance dans les paramètres. Celle-ci pourra être contactée automatiquement si ChatGPT repère des signes de détresse liés à des pensées suicidaires ou à l’automutilation. Dans un premier temps, le contact désigné sera notifié et aura une semaine pour accepter son rôle.
S’il s’exécute, il deviendra le référent de l’usager fragile. Lorsqu’une situation préoccupante sera détectée, l’agent conversationnel commencera par avertir l’utilisateur que son contact de confiance pourrait être alerté. Le chatbot l’encouragera tout d’abord à prendre lui-même contact avec cette personne en lui suggérant des exemples de messages et des amorces de conversation.
Des spécialistes examineront ensuite la situation. S’ils déterminent que la conversation est à risque, ChatGPT enverra une notification au contact de confiance par e-mail, SMS ou via l’application. Celle-ci indiquera simplement “la raison générale pour laquelle l’automutilation a été évoquée de manière potentiellement inquiétante”. Le contact sera incité à prendre des nouvelles de l’utilisateur et sera orienté vers des conseils d’expert qui l’aideront à trouver les mots.
Aucun détail ni aucune transcription des échanges ne seront partagés, afin de préserver la vie privée de l’usager tourmenté. Ce dernier peut modifier ou supprimer son contact de confiance à tout moment depuis les paramètres de ChatGPT. Le contact désigné peut lui aussi choisir de se retirer via le centre d’aide.
A lire aussi > Après le suicide d’un homme, Gemini tente de mieux protéger les utilisateurs fragiles
Cette fonctionnalité complète les mesures de protection déjà mises en place comme les systèmes d’alerte pour les mineurs et les lignes d’assistance intégrées. OpenAI souligne toutefois qu’elle n’a pas vocation à se substituer à un suivi médical ou aux services d’urgence. “ChatGPT encouragera toujours les utilisateurs à contacter les lignes d’écoute ou les services d’urgence en cas de besoin”, souligne l’entreprise.