Le projet de loi 1047 du Sénat californien a pour objectif de réguler le développement et l’utilisation des modèles d’intelligence artificielle (IA) dans l’État. Il exige des développeurs qu’ils suivent des protocoles de sécurité, notamment un bouton d’arrêt d’urgence, des procédures de test et des audits annuels. Une nouvelle agence, la Frontière Model Division, serait chargée de faire respecter ces règles.
Les partisans du projet de loi soutiennent que celui-ci est nécessaire pour prévenir d’éventuels dommages causés par la technologie IA. Selon eux, l’IA, bien que prometteuse, n’en reste pas moins une technologie nouvelle et largement inexplorée, potentiellement dangereuse si elle n’est pas correctement réglementée.
“Cependant, les opposants, y compris les acteurs de la Silicon Valley et les chercheurs en IA, affirment que le projet de loi freinera l’innovation et nuira à l’écosystème de l’IA.”
Les détracteurs du projet de loi, incluant les acteurs majeurs de la Silicon Valley et les chercheurs en IA, estiment que cette régulation est préjudiciable. Selon ces derniers, le projet de loi 1047 entraverait l’innovation et pourrait nuire à l’écosystème général de l’IA. Ils soutiennent que trop de réglementations pourraient dissuader de nouvelles entreprises d’entrer sur le marché et freiner la croissance du secteur.
Malgré ces objections, le projet de loi devrait être adopté par le Sénat californien et envoyé au gouverneur Gavin Newsom pour approbation. Si elle est promulguée, cette loi pourrait jeter les bases d’une nouvelle ère de réglementation de l’IA aux États-Unis, mais également influencer la réglementation internationale du domaine.