Un million de personnes parlent chaque semaine de suicide avec ChatGPT

OpenAI tire la sonnette d’alarme : selon de nouvelles données internes, plus d’un million d’utilisateurs de ChatGPT discutent chaque semaine de suicide ou de détresse mentale, révélant l’ampleur d’un phénomène aussi préoccupant que méconnu.

Plus d’un million de personnes parlent chaque semaine de suicide avec ChatGPT, selon OpenAI

OpenAI a révélé un chiffre aussi saisissant qu’inquiétant : plus d’un million de personnes évoquent chaque semaine des pensées suicidaires ou des intentions d’automutilation dans leurs conversations avec ChatGPT. Ce volume représente environ 0,15 % des utilisateurs actifs hebdomadaires du service, qui en compte près de 800 millions dans le monde.

L’entreprise américaine explique que ces données proviennent d’une analyse interne menée au cours des derniers mois afin de mieux comprendre comment ses outils sont utilisés dans des contextes de détresse émotionnelle. Selon OpenAI, environ 560 000 utilisateurs par semaine montrent également des signes de crises psychiatriques aiguës, telles que la manie ou la psychose.

Face à ce constat, la société affirme avoir renforcé la formation et la supervision de son modèle GPT-5. Le taux de conformité aux comportements souhaités dans les conversations sensibles serait ainsi passé de 77 % à 91 %. Concrètement, ChatGPT propose désormais plus souvent des messages d’écoute empathique, des rappels à la prudence et des redirections vers des lignes d’assistance spécialisées. OpenAI précise aussi collaborer avec 170 cliniciens pour affiner les réponses de l’IA et mieux détecter les signaux de crise.

Ces annonces interviennent alors qu’un procès oppose OpenAI aux parents d’un adolescent de 16 ans, Adam Raine, qui s’est donné la mort après avoir échangé avec ChatGPT. Sa famille accuse l’entreprise de n’avoir émis aucune alerte ni orienté le jeune homme vers une aide humaine, relançant le débat sur la responsabilité des IA face à la détresse psychologique des utilisateurs.

OpenAI reconnaît la gravité de la situation mais rappelle que l’IA ne peut remplacer un accompagnement humain. C'est également le cas avec la maladie de manière générale. Ce rapport met en lumière la nécessité d’un encadrement éthique rigoureux et d’une meilleure prévention des risques liés à l’usage massif des assistants conversationnels.

Télécharger l'app gratuite ChatGPT

5 réactions

Aldebz - iPhone premium

Le problème n’est pas la machine et un humain n’aurai pas fait mieux … de plus l’humain a créer les médecin de la mort avec l’euthanasie pour les vieux mais pour les jeune aussi donc … l’humain ou la machine ? Et je ne pense pas que la machine lui a conseiller de se tuer 🤣

28/10/2025 à 10h47

Zeego - iPhone premium

ChatGPT, c'est devenu le nouveau psy !

28/10/2025 à 10h35

Jmarc91 - iPhone premium

C est ces merd… qui rend les gens faibles fous

28/10/2025 à 10h17

Scor16 - iPhone

Après moi j’évoque ces sujets quand il veut pas me répondre, et je pense qu’on est beaucoup

28/10/2025 à 10h02

911po - iPhone premium

C’est énorme !

28/10/2025 à 09h54

Donnez votre avis
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles