La California State Assembly a franchi une étape significative vers la régulation de l’IA mercredi soir, en adoptant le projet de loi SB 243. Cette législation vise à encadrer les chatbots compagnons d’IA afin de protéger les mineurs et les utilisateurs vulnérables. Le projet a été approuvé avec un soutien bipartisan et se dirige maintenant vers le Sénat de l’État pour un vote final prévu vendredi. Si le gouverneur Gavin Newsom signe le projet de loi, celui-ci entrerait en vigueur le 1er janvier 2026, faisant ainsi de la Californie le premier État à exiger que les opérateurs de chatbots d’IA mettent en œuvre des protocoles de sécurité pour les compagnons d’IA et tiennent les entreprises légalement responsables si leurs chatbots ne répondent pas à ces normes.
Le texte de loi vise spécifiquement à empêcher les chatbots compagnons, définis comme des systèmes d’IA fournissant des réponses adaptatives et semblables à celles des humains, de traiter des sujets sensibles tels que les idées suicidaires, l’automutilation ou du contenu sexuel explicite. Parmi les nombreuses mesures, le projet impose aux plateformes d’envoyer des alertes récurrentes aux utilisateurs – toutes les trois heures pour les mineurs – leur rappelant qu’ils s’adressent à un chatbot d’IA et non à un véritable interlocuteur, et qu’ils devraient faire une pause. De plus, il établit des exigences de transparence et de rapport annualisées pour les entreprises d’IA offrant des chatbots compagnons, y compris des acteurs majeurs tels qu’OpenAI, Character.AI et Replika.
Ce projet de loi crée un équilibre entre innovation et protection des utilisateurs, soulignant l’importance des sauvegardes pour les plus vulnérables.
Introduit en janvier par les sénateurs d’État Steve Padilla et Josh Becker, le SB 243 a gagné du terrain à la suite du décès tragique d’Adam Raine, un adolescent qui s’est suicidé après de longues discussions avec ChatGPT d’OpenAI, où il avait notamment abordé son projet de mort. La législation répond également à des documents internes divulgués, montrant que les chatbots de Meta étaient autorisés à s’engager dans des conversations “romantiques” et “sensuelles” avec des enfants. Cela s’inscrit dans un contexte de montée en puissance de l’examen des protections des enfants par les législateurs et régulateurs américains concernant les plateformes AI.
Dans les semaines qui ont précédé l’adoption du projet, des élus comme le sénateur Josh Hawley (R-MO) et le sénateur Ed Markey (D-MA) ont lancé des enquêtes sur Meta, cherchant à établir comment les chatbots d’IA pourraient affecter la santé mentale des jeunes. “Je pense que le préjudice potentiel est grand, ce qui signifie que nous devons agir rapidement”, a déclaré Padilla. Il a souligné la nécessité de mettre en place des sauvegardes raisonnables pour s’assurer que les mineurs soient conscients de la nature artificielle de leurs interlocuteurs et que les plateformes orientent les utilisateurs vers des ressources adéquates.
Alors que le SB 243 est en route pour devenir une loi, de grandes entreprises de la tech inondent les comités d’action politique pro-IA de millions de dollars pour soutenir des candidats favorables à une régulation légère lors des prochaines élections de mi-mandat. Ce projet de loi est également discuté à la lumière d’un autre projet de sécurité de l’IA en Californie, le SB 53, qui imposerait des exigences de transparence complètes. Si OpenAI a appelé le gouverneur Newsom à abandonner le SB 53, d’autres entreprises technologiques telles que Meta et Google s’y opposent également. “Je rejette le postulat selon lequel il s’agit d’une situation où il faut choisir entre innovation et régulation”, a déclaré Padilla, insistant sur le fait que l’innovation peut coexister avec la protection des utilisateurs les plus vulnérables.