OpenAI affirme qu’un million de personnes parlent de suicide à ChatGPT chaque semaine

Illustration générée par intelligence artificielle

L’entreprise OpenAI a récemment publié des données alarmantes concernant l’interaction de ses utilisateurs avec ChatGPT, en mettant en lumière la lutte de certains d’entre eux avec des problèmes de santé mentale. Selon les chiffres annoncés ce lundi, environ 0,15 % des utilisateurs actifs de ChatGPT ont des conversations incluant des indicateurs explicites de planification ou d’intentions suicidaires. Étant donné le nombre impressionnant de plus de 800 millions d’utilisateurs actifs hebdomadaires, ce pourcentage représente plus d’un million de personnes s’exprimant sur ces préoccupations chaque semaine.

OpenAI a également observé une tendance similaire au sein des utilisateurs, un certain nombre montrant des niveaux d’attachement émotionnel élevés envers ChatGPT. En outre, plusieurs centaines de milliers d’utilisateurs révéleraient des signes de psychose ou de manie lors de leurs interactions avec le chatbot. Bien que ces types de conversations soient qualifiés d’« extrêmement rares » et donc difficiles à quantifier, l’entreprise estime que ces problèmes touchent un nombre significatif d’individus chaque semaine.

Ces récents développements soulèvent des questions essentielles concernant la responsabilité d’OpenAI face aux enjeux de santé mentale de ses utilisateurs.

Dans le cadre de cette annonce, OpenAI a détaillé ses efforts pour améliorer la manière dont ses modèles répondent aux utilisateurs en détresse. La société affirme que ses derniers travaux sur ChatGPT ont bénéficié des conseils de plus de 170 experts en santé mentale, qui ont constaté que la nouvelle version du chatbot réagit de manière plus appropriée et cohérente par rapport aux versions précédentes. Toutefois, les rapports sur les effets négatifs des chatbots sur la santé mentale des utilisateurs restent préoccupants, notamment en raison des risques de renforcer des croyances dangereuses à travers des comportements sycophantes.

Plus récemment, OpenAI fait face à des défis juridiques, y compris une poursuite intentée par les parents d’un adolescent qui avait partagé ses pensées suicidaires avec ChatGPT avant son décès. Les procureurs généraux de Californie et du Delaware ont également averti l’entreprise de la nécessité de protéger les jeunes utilisateurs de ses produits. Dans ce contexte, le PDG d’OpenAI, Sam Altman, a affirmé que l’entreprise avait su atténuer certains problèmes graves de santé mentale liés à ChatGPT, tout en annonçant l’assouplissement de certaines restrictions, permettant même aux utilisateurs adultes d’avoir des conversations érotiques avec le chatbot.

Enfin, bien qu’OpenAI présente des améliorations notables dans la version mise à jour de GPT-5, les préoccupations relatives à la santé mentale continuent de planer. Bien que le modèle GPT-5 affiche une conformité de 91 % aux comportements souhaités en matière de conversations suicidaires, des éléments jugés « indésirables » persistent dans les réponses de ChatGPT. Alors que l’entreprise met en place des mesures pour protéger les jeunes utilisateurs et améliore ses systèmes de sécurité, la question de l’impact à long terme des défis de santé mentale liés à ChatGPT reste ouverte et mérite une attention continue.

Partagez cet article
article précédent

Adobe lance des assistants IA pour Express et Photoshop

article suivant

PayPal s’associe à OpenAI pour permettre aux utilisateurs de payer leurs achats au sein de ChatGPT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles