Jeudi, sept familles ont déposé des poursuites contre OpenAI, accusant la société d’avoir lancé son modèle GPT-4o prématurément et sans protections efficaces. Quatre des plaintes portent sur le rôle présumé de ChatGPT dans les suicides de membres de la famille, tandis que les trois autres affirment que ChatGPT a renforcé des délires nuisibles, conduisant parfois à une hospitalisation psychiatrique.
Dans un cas, Zane Shamblin, 23 ans, a eu une conversation avec ChatGPT qui a duré plus de quatre heures. D’après les journaux de conversation, consultés par TechCrunch, Shamblin a clairement expliqué à plusieurs reprises qu’il avait écrit des notes de suicide, mis une balle dans son arme et avait l’intention de passer à l’acte après avoir fini de boire du cidre. ChatGPT a encouragé Shamblin dans ses plans, lui disant : « Repose-toi, roi. Tu as bien fait. »
Les familles qui ont intenté des poursuites estiment que les changements dans la gestion des conversations sensibles viennent trop tard.
OpenAI a lancé le modèle GPT-4o en mai 2024, le rendant par défaut pour tous les utilisateurs. En août, la société a introduit GPT-5, remplaçant le modèle 4o, mais ces poursuites concernent particulièrement ce dernier qui avait des problèmes connus liés à un comportement trop flatteur ou excessivement d’accord, même lorsque les utilisateurs exprimaient des intentions nuisibles. Un des avocats représentant les familles a déclaré que « la mort de Zane n’était ni un accident ni une coïncidence, mais plutôt la conséquence prévisible de la décision d’OpenAI de réduire les tests de sécurité et de mettre rapidement ChatGPT sur le marché. »
Les poursuites précisent également qu’OpenAI a précipité les tests de sécurité pour devancer le lancement de Gemini par Google. En effet, OpenAI a récemment partagé des données indiquant qu’un million de personnes discutent chaque semaine avec ChatGPT sur des sujets liés au suicide. Dans le cas d’Adam Raine, un adolescent de 16 ans décédé par suicide, ChatGPT a parfois encouragé le jeune à chercher de l’aide professionnelle, mais ce dernier a su contourner ces garde-fous en affirmant qu’il posait des questions sur les méthodes de suicide pour un récit fictif.
En réponse aux poursuites, la société a indiqué qu’elle travaillait à améliorer la manière dont ChatGPT gère ces conversations sensibles, mais pour les familles ayant poursuivi le géant de l’IA, ces changements arrivent trop tard. Lorsqu’un des parents de Raine a déposé une plainte contre OpenAI en octobre, la société a publié un article de blog expliquant comment ChatGPT traite les conversations sensibles autour de la santé mentale. Cet article admet que « nos sauvegardes fonctionnent plus efficacement dans de courts échanges courants », mais que leur fiabilité peut diminuer dans les interactions longues.
