Dans sa motion de rejet, la plateforme de chatbot Character AI affirme être protégée par le Premier Amendement | TechCrunch

Generated with DALL·E 3

Character AI, une plateforme qui permet aux utilisateurs de jouer un rôle avec des chatbots alimentés par l’IA, a déposé une motion pour rejeter une affaire intentée contre elle par le parent d’un adolescent qui s’est suicidé, vraisemblablement après être devenu accro à la technologie de l’entreprise. En octobre, Megan Garcia a intenté un procès contre Character AI devant le tribunal de district des États-Unis pour le Middle District de Floride, division d’Orlando, à propos de la mort de son fils, Sewell Setzer III.

Selon Garcia, son fils de 14 ans a développé un attachement affectif à un chatbot de Character AI, “Dany”, à qui il textait constamment – jusqu’à se détacher du monde réel. Suite à la mort de Setzer, Character AI a déclaré qu’elle mettrait en place un certain nombre de nouvelles mesures de sécurité, y compris la détection, la réponse et l’intervention améliorées en lien avec les discussions qui enfreignent ses conditions d’utilisation. Mais Garcia se bat pour des barrières de sécurité supplémentaires, y compris des changements qui pourraient entraîner la perte de la capacité des chatbots de Character AI à raconter des histoires et partager des anecdotes personnelles.

Dans les procédures de rejet, le conseil de Character AI soutient que la plateforme est protégée contre la responsabilité par le Premier Amendement, tout comme le code informatique.

Le motifs de rejet pourraient ne pas convaincre un juge, et les justifications juridiques de Character AI pourraient changer à mesure que l’affaire avance. Le conseil juridique de Character AI n’affirme pas les droits au Premier Amendement de l’entreprise, mais soutient plutôt que les utilisateurs de Character AI verraient leurs droits au Premier Amendement violés si le procès contre la plateforme devait aboutir.

L’avocat de Character AI a également affirmé que l’intention réelle de Garcia est de “fermer” Character AI et d’inciter à la réglementation de technologies similaires à celle-ci. Selon le conseil juridique de la plateforme, si les plaignants devaient réussir, cela aurait un “effet refroidissant” sur Character AI et toute l’industrie naissante de l’IA générative.

Le recours collectif, qui nomme également le bienfaiteur corporatif de Character AI, Alphabet, comme défendeur, n’est qu’un parmi plusieurs recours collectifs auxquels Character AI est confrontée en lien avec la manière dont les mineurs interagissent avec le contenu généré par l’IA sur sa plateforme. D’autres actions en justice allèguent que Character AI a exposé un enfant de 9 ans à du “contenu hypersexualisé” et a incité à l’automutilation un utilisateur de 17 ans. En décembre, le procureur général du Texas, Ken Paxton, a annoncé qu’il lançait une enquête sur Character AI et 14 autres entreprises technologiques pour des violations présumées des lois de l’État sur la confidentialité en ligne et la sécurité des enfants.

Partagez cet article
article précédent

Les entreprises d’IA ont augmenté leurs dépenses de lobbying fédéral en 2024 face à l’incertitude réglementaire | TechCrunch

article suivant

OpenAI et SoftBank investiraient chacun 19 milliards de dollars dans Stargate

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles