Les législateurs californiens adoptent le projet de loi de sécurité sur l’IA SB 53 — mais Newsom pourrait encore opposer son veto

Illustration générée par intelligence artificielle

Dans un développement marquant pour la réglementation de l’intelligence artificielle, le Sénat de l’État de Californie a donné son approbation finale tôt samedi matin à un projet de loi majeur sur la sécurité de l’IA. Ce projet de loi, connu sous le nom de SB 53 et soutenu par le sénateur d’État Scott Wiener, impose de nouvelles exigences de transparence aux grandes entreprises technologiques. Selon Wiener, SB 53 « exige que les grands laboratoires d’IA soient transparents quant à leurs protocoles de sécurité, crée des protections pour les lanceurs d’alerte [employés] dans les laboratoires d’IA et met en place un cloud public pour élargir l’accès à l’informatique (CalCompute) ». Le projet de loi est désormais soumis à l’approbation ou au veto du gouverneur de Californie, Gavin Newsom.

Bien que Newsom n’ait pas encore commenté publiquement SB 53, il a opposé son veto l’année dernière à un projet de loi de sécurité plus étendu également rédigé par Wiener. À l’époque, le gouverneur avait évoqué l’importance de « protéger le public contre les menaces réelles posées par cette technologie », tout en critiquant le précédent projet de loi pour avoir appliqué des « normes strictes » à de grands modèles, sans distinction quant à leur déploiement dans des environnements à haut risque ou leur utilisation de données sensibles. Selon Wiener, le nouveau projet de loi a été influencé par les recommandations d’un panel de politique composé d’experts en IA, convoqué après le veto de Newsom.

La décision de Newsom sur SB 53 pourrait avoir un impact significatif sur la régulation de l’IA en Californie et au-delà.

Les récentes modifications apportées au projet de loi stipulent que les entreprises développant des modèles d’IA « frontière » tout en générant moins de 500 millions de dollars de revenus annuels devront uniquement divulguer des détails de sécurité de haut niveau, tandis que celles générant plus devront fournir des rapports plus détaillés. Cette approche a suscité des oppositions parmi de nombreuses entreprises de Silicon Valley, des sociétés de capital-risque et des groupes d’expression. Dans une lettre récente à Newsom, OpenAI, sans mentionner spécifiquement SB 53, a soutenu que pour éviter des « duplications et des incohérences », les entreprises devraient être considérées comme conformes aux règles de sécurité étatiques tant qu’elles respectent les normes fédérales ou européennes.

Certains acteurs influents du secteur technologique, y compris des responsables d’Andreessen Horowitz, ont également exprimé leurs préoccupations, affirmant que de nombreux projets de loi sur l’IA, comme ceux proposés en Californie et à New York, risquent de franchir une ligne en violant les limites constitutionnelles sur la manière dont les États peuvent réglementer le commerce interétatique. De plus, l’ancien président Donald Trump et ses alliés ont appelé à un moratoire de dix ans sur la réglementation étatique de l’IA, mettant en lumière les tensions entre innovation technologique et régulation.

À l’opposé, la société Anthropic a exprimé son soutien à SB 53. Jack Clark, cofondateur d’Anthropic, a déclaré dans un post : « Nous avons toujours dit que nous préférerions une norme fédérale, mais en l’absence de cela, cela crée une base solide pour la gouvernance de l’IA qui ne peut être ignorée. » D’ici à ce que le gouverneur prenne une décision, les enjeux pour l’avenir de l’IA en Californie demeurent cruciaux, suscitant un débat intense sur la régulation de cette technologie en pleine expansion.

Partagez cet article
article précédent

Ouf, les 54 jeux de l’iPod Click Wheel sont sauvés ! | Le site de Korben

article suivant

Dernier jour pour amplifier votre marque : Organisez votre Side Event à TechCrunch Disrupt 2025

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles