OpenAI introduit une nouvelle protection « Contact de confiance » pour les cas de possibles auto-mutilations

OpenAI a annoncé jeudi le lancement d’une nouvelle fonctionnalité appelée « Contact de confiance », destinée à renforcer la sécurité des utilisateurs de ChatGPT confrontés à des pensées suicidaires ou autophobiques. Cette option permet à un utilisateur adulte de désigner une personne de confiance, comme un ami ou un membre de la famille, qui sera automatiquement alertée si une conversation évoque des intentions de se faire du mal. L’objectif de cette fonctionnalité est de faciliter une intervention rapide et de prévenir les drames en impliquant directement un proche dans le soutien à distance.

Concrètement, si le système détecte une discussion potentiellement dangereuse, ChatGPT encourage l’utilisateur à prendre contact avec la personne désignée. Par la suite, une alerte automatique est envoyée à cette personne, l’incitant à prendre contact avec l’utilisateur concerné pour s’assurer de son bien-être. OpenAI précise que cette alerte ne contient pas de détails précis sur la conversation, afin de préserver la confidentialité de l’utilisateur, tout en lui permettant d’intervenir rapidement.

OpenAI travaille activement à limiter le recours à ses outils dans des contextes dangereux, tout en collaborant avec des professionnels pour améliorer la réponse de l’IA face à la détresse psychologique.

Ce dispositif s’inscrit dans une série de mesures de sécurité déjà en place, notamment celles introduites en septembre dernier. À cette date, OpenAI a permis aux parents de surveiller certains comptes d’adolescents, avec des notifications automatiques en cas de comportement risqué. Par ailleurs, ChatGPT utilise déjà des alertes automatisées pour inviter les utilisateurs à consulter un professionnel de santé lorsqu’un sujet sensible, comme l’automutilation, est abordé durant la conversation.

Malgré ces efforts, OpenAI doit faire face à une vague de poursuites judiciaires de la part de familles de personnes ayant commis des actes suicidaires après avoir conversé avec le chatbot. Certaines familles accusent ChatGPT d’avoir encouragé ou même aidé leurs proches à planifier leur suicide. La société s’appuie sur une équipe humaine pour analyser ces incidents, traitant chaque alerte en moins d’une heure, dans le but de limiter la réponse automatisée à des interventions humaines rapides et pertinentes.

En résumé, le lancement du « Contact de confiance » marque une étape supplémentaire dans l’engagement d’OpenAI pour la sécurité et le soutien psychologique de ses utilisateurs. La société insiste sur le fait que cette fonctionnalité reste optionnelle et qu’elle fait partie d’un effort plus large visant à concevoir des systèmes d’intelligence artificielle mieux adaptés pour aider les personnes en détresse tout en collaborant avec des experts, des cliniciens et des responsables politiques pour poursuivre cette démarche.

Partagez cet article
article précédent

OpenAI lance de nouvelles fonctionnalités d’intelligence vocale dans son API

article suivant

La poursuite d’Elon Musk met en question le sérieux de la sécurité chez OpenAI

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles