Lundi, Anthropic a annoncé son soutien officiel au projet de loi SB 53, proposé par le sénateur d’État Scott Wiener, qui impose des exigences de transparence sans précédent aux plus grands développeurs de modèles d’IA au monde. L’appui d’Anthropic représente une avancée significative pour cette initiative, à un moment où de grands groupes technologiques tels que la Consumer Technology Association (CTA) et le Chamber for Progress font pression contre le projet de loi. Dans un article de blog, Anthropic a déclaré : « Alors que nous croyons que la sécurité de l’IA à la pointe est mieux abordée au niveau fédéral plutôt qu’à travers un patchwork de réglementations étatiques, les avancées puissantes en IA ne patienteront pas pour un consensus à Washington. »
Le projet de loi SB 53 obligerait les développeurs de modèles d’IA comme OpenAI, Anthropic, Google et xAI à élaborer des cadres de sécurité, ainsi qu’à publier des rapports publics de sécurité et de sûreté avant de déployer des modèles d’IA puissants. De plus, le projet établirait des protections pour les lanceurs d’alerte souhaitant faire part de préoccupations relatives à la sécurité. La loi vise spécifiquement à limiter les modèles d’IA susceptibles de contribuer à des « risques catastrophiques », définis comme la mort d’au moins 50 personnes ou plus d’un milliard de dollars en dommages.
« Le projet de loi SB 53 offre un plan solide pour la gouvernance de l’IA qui ne peut être ignoré. »
SB 53 se concentre sur les risques extrêmes liés à l’IA, tels que l’utilisation des modèles pour créer des armes biologiques ou mener des cyberattaques, plutôt que sur des préoccupations plus immédiates comme les deepfakes ou le sycophantisme. Le Sénat de Californie avait déjà approuvé une version antérieure de SB 53, mais la loi doit encore faire l’objet d’un vote final avant de pouvoir être présentée au bureau du gouverneur. Celui-ci, Gavin Newsom, est resté silencieux sur le projet, malgré le veto qu’il avait opposé au précédent projet de loi sur la sécurité de l’IA, SB 1047.
Les projets de loi réglementant les développeurs de modèles d’IA d’avant-garde ont souvent rencontré des résistances tant de la part de Silicon Valley que de l’administration Trump, tous deux soulignant que ces initiatives pourraient entraver l’innovation américaine face à la concurrence chinoise. Des investisseurs comme Andreessen Horowitz et Y Combinator sont également montés au créneau contre SB 1047, de même que certains responsables de la politique de l’IA, qui ont exprimé des préoccupations concernant les effets d’une telle réglementation sur le commerce interétatique en vertu de la clause de commerce de la Constitution.
Cependant, Jack Clark, co-fondateur d’Anthropic, a affirmé que l’industrie technologique continuera de construire des systèmes d’IA puissants dans les années à venir et ne peut pas attendre que le gouvernement fédéral agisse. « Nous avons longtemps dit que nous préférerions une norme fédérale », a-t-il précisé, « mais en l’absence de cela, cela crée une feuille de route solide pour la gouvernance de l’IA. » Bien que certaines entreprises d’IA aient déjà mis en place des politiques de sécurité internes, ces dernières ne sont pas toujours respectées, ce qui pousse l’État à envisager des lois imposant des exigences de sécurité légales avec des conséquences financières pour les manquements.