ChatGPT cache une réalité tragique : voici ce que plus d’un million d’utilisateurs lui avouent en secret

ChatGPT est devenu un refuge pour les internautes en détresse. Selon OpenAI, plus d’un million d’utilisateurs confient chaque semaine des pensées suicidaires au chatbot. L’entreprise assure avoir affiné son modèle afin de fournir des réponses mieux adaptées.

chatgpt suicide ia openai

ChatGPT est un véritable confident pour certains utilisateurs en souffrance. Même si une conversation avec un chatbot n’égalera jamais une séance avec un psychologue, nombre d’internautes privilégient ce type d’échange. Les agents conversationnels sont disponibles constamment, adoptant un ton bienveillant et réconfortant, sans jugement. Autant de raisons qui poussent certains usagers à leur confier leurs idées les plus noires.

Dans un article de blog, OpenAI explique comment il a peaufiné son modèle pour aider plus efficacement les personnes en situation de détresse. Et de révéler une statistique glaçante : “Environ 0,15 % des utilisateurs actifs au cours d’une semaine donnée ont des conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle et 0,05 % des messages contiennent des indicateurs explicites ou implicites d’idées ou d’intentions suicidaires”, détaille le géant de l’intelligence artificielle.

Plus d’un million d’utilisateurs parlent de suicide chaque semaine avec ChatGPT

ChatGPT compte plus de 800 millions d’utilisateurs actifs hebdomadaires. Par conséquent, on peut estimer que plus d’un million de personnes confient chaque semaine des pensées suicidaires au célèbre agent conversationnel. Une réalité qu’il ne faut pas prendre à la légère.

En se basant sur 1 000 conversations sensibles portant sur l’automutilation et le suicide, “nos nouvelles évaluations automatisées évaluent le nouveau modèle GPT-5 à 91 % conforme à nos comportements souhaités, contre 77 % pour le modèle GPT-5 précédent”, indique OpenAI. En outre, le nouveau modèle GPT-5 réduirait les réponses indésirables de 52 % par rapport à celles données par GPT-4o dans des échanges portant sur ces sujets sensibles.

Pour peaufiner son modèle, OpenAI a notamment mobilisé 170 cliniciens de son Réseau mondial de médecins. Les recherches menées conjointement ont permis d’évaluer la sécurité des réponses du chatbot liées à la santé mentale et d’en rédiger. Le nouveau modèle a également élargi l’accès aux lignes d’assistance téléphonique en cas de crise.

A lire > ChatGPT bat les humains dans la reconnaissance des émotions, les chercheurs sont sidérés

Ce renforcement des réponses dans les conversations sensibles survient alors que l’IA générative est pointée du doigt par les parents d’Adam, un adolescent de 16 ans qui s’est suicidé en avril après avoir longuement conversé avec ChatGPT. Ces derniers accusent notamment l’agent conversationnel d’avoir aidé leur enfant à fabriquer le nœud coulant avec lequel il s’est donné la mort.

Si vous avez des pensées suicidaires, ne restez pas seul et ne vous contentez pas d’échanger avec une IA. Il est essentiel de vous orienter vers des professionnels et d’en parler à vos proches. En France, vous pouvez notamment appeler le 3114, le numéro national de prévention du suicide, gratuit et disponible de jour comme de nuit.

Source : OpenAI