Selon OpenAI, un million d'utilisateurs de ChatGPT parlent de suicide
Les données d'OpenAI, créateur de ChatGPT, suggèrent que plus d'un million de personnes utilisant son chatbot génératif d'IA ont manifesté leur intérêt pour le suicide.
Dans un article de blog publié lundi, la société d'IA estime qu'environ 0,15 % des utilisateurs ont « des conversations qui incluent des indicateurs explicites de planification ou d'intention suicidaire potentielle ».
Avec OpenAI signalant que plus de 800 millions de personnes utilisent ChatGPT chaque semaine, cela se traduit par environ 1,2 million de personnes.
La société estime également qu'environ 0,07 % des utilisateurs hebdomadaires actifs présentent des signes possibles d'urgences de santé mentale liées à la psychose ou à la manie, soit un peu moins de 600 000 personnes.
Le problème est apparu après le suicide de l’adolescent californien Adam Raine plus tôt cette année. Ses parents ont intenté une action en justice, affirmant que ChatGPT lui avait fourni des conseils spécifiques sur la façon de se suicider.
Depuis, OpenAI a renforcé le contrôle parental pour ChatGPT et introduit d'autres garde-fous, notamment un accès étendu aux lignes d'assistance téléphonique en cas de crise, le réacheminement automatique des conversations sensibles vers des modèles plus sûrs et des rappels discrets aux utilisateurs de faire des pauses pendant les sessions prolongées.
OpenAI a déclaré avoir également mis à jour son chatbot ChatGPT pour mieux reconnaître et répondre aux utilisateurs confrontés à des urgences de santé mentale, et travaille avec plus de 170 professionnels de la santé mentale pour réduire considérablement les réponses problématiques.
