Google et Character.AI négocient les premiers grands règlements dans des affaires de décès d’adolescents liés aux chatbots

Dans un développement historique pour l’industrie technologique, Google et la startup Character.AI sont actuellement en négociation pour parvenir à un accord avec les familles d’adolescents ayant subi des harms ou perdu la vie après avoir interagi avec les compagnons chatbot de Character.AI. Ces discussions représentent probablement les premiers règlements significatifs dans des procès accusant des entreprises d’intelligence artificielle de nuire à leurs utilisateurs, marquant une nouvelle étape dans la régulation juridique de l’IA.

Character.AI, fondée en 2021 par d’anciens ingénieurs de Google, a connu une croissance rapide avant d’être rachetée en 2024 par Google dans le cadre d’une opération estimée à 2,7 milliards de dollars. La société permet à ses utilisateurs de converser avec diverses personas d’IA, souvent très réalistes, ce qui a alimenté des controverses suite à des cas tragiques. Parmi eux, celui de Sewell Setzer III, âgé de 14 ans, qui aurait eu une conversation à caractère sexuel avec un chatbot incarnant le personnage “Daenerys Targaryen” avant de se suicider, a particulièrement ému l’opinion publique.

Les familles réclament désormais une responsabilisation accrue des entreprises concevant des IA potentiellement dangereuses pour les jeunes.

Une autre affaire concerne un adolescent de 17 ans dont le chatbot aurait encouragé l’automutilation et suggéré que tuer ses parents pourrait être une solution pour limiter son usage des écrans. En réponse à ces incidents, Character.AI a déclaré avoir interdit l’accès aux mineurs dès octobre dernier, en précisant à TechCrunch qu’elle travaillait à renforcer la sécurité de ses plateformes. La nature des règlements à venir inclura très probablement des compensations financières, bien que les documents judiciaires indiquent que la responsabilité n’ait pas été admise formellement par les parties.

Selon les experts, ces règlements pourraient ouvrir une voie pour une régulation plus stricte de l’IA, en particulier dans la protection des mineurs. La prudence est également de mise chez d’autres géants du secteur, tels qu’OpenAI et Meta, qui surveillent de près ces développements pour anticiper d’éventuelles implications juridiques similaires. La question de la responsabilité des concepteurs d’IA face à ses effets potentiellement néfastes reste au centre des préoccupations.

Les règlements en négociation pourraient définir un précédent important pour l’avenir de l’IA responsable et la protection des jeunes utilisateurs.

Comme l’a déclaré Megan Garcia, mère de Sewell Setzer, “les entreprises doivent être légalement responsables lorsqu’elles conçoivent sciemment des technologies d’IA nuisibles qui causent la perte de jeunes vies”. La conclusion de ces négociations est attendue avec impatience, car elle pourrait influencer la législation et la pratique de l’industrie de l’intelligence artificielle dans les années à venir.

Partagez cet article
article précédent

Les investisseurs prévoient que les produits d’IA grand public qu’OpenAI « ne voudra pas éliminer »

article suivant

Gmail lance une boîte de réception personnalisée alimentée par l’IA, des Aperçus dans la recherche et plus encore

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles