Le législateur californien derrière le SB 1047 relance l’initiative pour des rapports de sécurité sur l’IA

Generated with DALL·E 3

“`html

Le sénateur de l’État de Californie, Scott Wiener, a introduit mercredi de nouveaux amendements à son dernier projet de loi, le SB 53. Ce projet exige que les plus grandes entreprises d’intelligence artificielle (IA) au monde publient des protocoles de sécurité et de sûreté, et émettent des rapports lorsqu’un incident de sécurité se produit. Si elle est signée en tant que loi, la Californie serait le premier État à imposer des exigences de transparence significatives aux principaux développeurs d’IA, tels qu’OpenAI, Google, Anthropic et xAI.

Le précédent projet de loi de Wiener, le SB 1047, incluait des exigences similaires pour que les développeurs de modèles d’IA publient des rapports de sécurité. Cependant, la Silicon Valley s’est vigoureusement opposée à ce projet de loi, qui a finalement été rejeté par le gouverneur Gavin Newsom. Ce dernier a alors demandé à un groupe de dirigeants de l’IA — dont le chercheur phare de Stanford et co-fondateur de World Labs, Fei-Fei Li — de former un groupe de politiques pour établir des objectifs concernant la sécurité de l’IA dans l’État. Récemment, ce groupe de politique a publié ses recommandations finales, soulignant le besoin de “conditions sur l’industrie pour publier des informations sur leurs systèmes” afin d’établir un “environnement de preuves robuste et transparent”.

Le projet de loi SB 53 pourrait forcer les entreprises d’IA à publier plus d’informations que ce qu’elles font actuellement.

Le bureau du sénateur Wiener a déclaré dans un communiqué que les amendements apportés au SB 53 étaient largement inspirés par ce rapport. “Le projet de loi continue d’être un travail en cours, et je suis impatient de travailler avec toutes les parties prenantes dans les semaines à venir pour affiner cette proposition en la devenant la loi la plus scientifique et juste possible”, a déclaré le sénateur dans le communiqué. Le SB 53 vise à trouver un équilibre que le gouverneur Newsom a affirmé que le SB 1047 n’avait pas réussi à atteindre, en espérant créer des exigences de transparence significatives pour les plus grands développeurs d’IA sans freiner la croissance rapide de l’industrie de l’IA en Californie.

“Ce sont des préoccupations dont mon organisation et d’autres parlent depuis un certain temps”, a déclaré Nathan Calvin, vice-président des affaires publiques pour le groupe à but non lucratif Encode, dans une interview avec TechCrunch. “Faire en sorte que les entreprises expliquent au public et au gouvernement quelles mesures elles prennent pour aborder ces risques semble être un minimum raisonnable.”

Le projet de loi crée également des protections pour les lanceurs d’alerte qui travaillent dans des laboratoires d’IA et pensent que la technologie de leur entreprise représente un “risque critique” pour la société. De plus, le SB 53 prévoit la création de CalCompute, un cluster de cloud computing public pour soutenir les startups et chercheurs développant des IA à grande échelle. Contrairement au SB 1047, le nouveau projet ne rend pas les développeurs de modèles d’IA responsables des dommages de leurs modèles d’IA. Le SB 53 est maintenant en route vers la Commission de la vie privée et de la protection des consommateurs de l’Assemblée de l’État de Californie pour approbation. S’il réussit, il devra également passer par plusieurs autres instances législatives avant d’atteindre le bureau du gouverneur Newsom.

“`

Partagez cet article
article précédent

Le réseau des écoles du service public valorise l’interministérialité – Centre Inffo

article suivant

OpenAI devrait prochainement lancer un navigateur web doté d’intelligence artificielle

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles