Un projet de loi controversé en Californie visant à prévenir les désastres liés à l’IA, le SB 1047, a franchi les dernières étapes au sein du Sénat de l’Etat et se dirige maintenant vers le bureau du gouverneur Gavin Newsom. Celui-ci devra peser les risques théoriques les plus extrêmes des systèmes d’IA – y compris leur rôle potentiel dans les décès humains – contre le risque d’étouffer l’essor de l’IA en Californie. Il a jusqu’au 30 septembre pour signer le SB 1047 et en faire une loi, ou pour le mettre son veto. Présenté par le sénateur de l’État, Scott Wiener, le SB 1047 vise à prévenir la possibilité que des modèles d’IA de grande envergure créent des événements catastrophiques, tels que des pertes de vie ou des cyberattaques coûtant plus de 500 millions de dollars de dommages.
Pour être clair, très peu de modèles d’IA existent aujourd’hui qui sont suffisamment importants pour être couverts par le projet de loi et l’IA n’a jamais été utilisée pour une cyberattaque de cette ampleur. Mais le projet de loi concerne l’avenir des modèles d’IA, pas les problèmes qui existent aujourd’hui. Le SB 1047 rendrait les développeurs de modèles d’IA responsables de leurs nuisances – comme rendre les fabricants d’armes à feu responsables des fusillades de masse – et accorderait au procureur général de Californie le pouvoir de poursuivre les entreprises d’IA pour de lourdes pénalités si leur technologie était utilisée lors d’un événement catastrophique. Dans le cas où une entreprise agirait de manière imprudente, un tribunal peut lui ordonner de cesser ses opérations ; les modèles couverts doivent également comporter un “interrupteur d’arrêt” qui permettrait de les arrêter s’ils sont jugés dangereux. Le projet de loi pourrait remodeler l’industrie de l’IA en Amérique, et il ne manque qu’une signature pour devenir loi. Voici comment l’avenir du SB 1047 pourrait se dérouler.
“Si le SB 1047 entre en vigueur, il pourrait profondément modifier l’industrie de l’IA aux États-Unis. Si, en revanche, Newsom y oppose son veto, le rôle de premier plan dans la régulation des modèles d’IA risque d’incomber aux régulateurs fédéraux.”
Wiener soutient que la Silicon Valley a besoin de plus de responsabilité, ayant précédemment déclaré à TechCrunch que l’Amérique doit tirer les leçons de ses échecs passés en matière de réglementation technologique. Newsom pourrait être motivé à agir de manière décisive sur la réglementation de l’IA et à tenir les grandes entreprises technologiques pour responsables. Quelques cadres supérieurs de l’IA se sont montrés prudemment optimistes à propos du SB 1047, notamment Elon Musk. Une autre optimiste prudente à propos du SB 1047 est l’ancienne directrice de l’IA chez Microsoft, Sophia Velastegui. Elle a déclaré à TechCrunch que “le SB 1047 est un bon compromis”, tout en admettant que le projet de loi n’est pas parfait. “Je pense que nous avons besoin d’un bureau de l’IA responsable pour l’Amérique, ou pour tout pays qui travaille sur cette technologie. Ce ne devrait pas seulement être Microsoft”, a déclaré Velastegui. Anthropic est un autre partisan prudent du SB 1047, bien que l’entreprise n’ait pas pris de position officielle sur le projet de loi. Plusieurs des modifications proposées par la start-up ont été ajoutées au SB 1047, et le PDG Dario Amodei déclare maintenant que les “avantages du projet de loi l’emportent probablement sur ses coûts” dans une lettre au gouverneur de Californie.
Ce ne serait pas surprenant si Newsom mettait son veto au projet de loi, compte tenu de l’opposition forte de l’industrie à ce dernier. Il joue sa réputation en signant le SB 1047, mais s’il oppose son veto, il pourrait repousser la question à l’année prochaine ou laisser le Congrès s’en occuper. “Cela [le SB 1047] change le précédent avec lequel nous avons traité la politique logicielle pendant 30 ans”, a argué le partenaire général d’Andreessen Horowitz, Martin Casado, dans une interview avec TechCrunch. “Cela déplace la responsabilité des applications vers l’infrastructure, ce que nous n’avons jamais fait”. Le secteur technologique a répondu par un tollé retentissant contre le SB 1047. En plus d’a16z, la présidente Nancy Pelosi, OpenAI, les groupes de commerce des grandes entreprises technologiques et des chercheurs en IA notables exhortent également Newsom à ne pas signer le projet de loi. Ils craignent que ce changement de paradigme en matière de responsabilité ait un effet dissuasif sur l’innovation de l’IA en Californie. Un effet dissuasif sur l’économie des start-ups est la dernière chose que quiconque souhaite. La boom de l’IA a été un stimulant énorme pour l’économie américaine, et Newsom est sous pression pour ne pas gâcher cela.
Si le SB 1047 devenait loi, rien ne se produirait le premier jour, selon une source impliquée dans la rédaction du SB 1047, qui s’est confiée à TechCrunch. Au 1er janvier 2025, les entreprises technologiques devraient rédiger des rapports de sécurité pour leurs modèles d’IA. A ce stade, le procureur général de Californie pourrait demander une ordonnance injonctive, obligeant une entreprise d’IA à cesser de former ou d’exploiter leurs modèles d’IA si un tribunal les juge dangereux. En 2026, d’autres aspects du projet de loi entrent en vigueur. A ce moment-là, le Board of Frontier Models serait créé et commencerait à collecter des rapports de sécurité des entreprises technologiques. Ce conseil composé de neuf personnes, sélectionnées par le gouverneur de Californie et le législateur, ferait des recommandations au procureur général de Californie sur les entreprises qui ne respectent pas la loi. Cette même année, le SB 1047 exigerait également que les développeurs de modèles d’IA engagent des auditeurs pour évaluer leurs pratiques de sécurité, créant ainsi effectivement une nouvelle industrie pour la conformité à la sécurité de l’IA. Et le procureur général de Californie pourrait commencer à poursuivre les développeurs de modèles d’IA si leurs outils sont utilisés lors d’événements catastrophiques.
Si Newsom oppose son veto au SB 1047, les souhaits d’OpenAI se réaliseraient, et les régulateurs fédéraux prendraient probablement la tête de la régulation des modèles d’IA… éventuellement. Jeudi, OpenAI et Anthropic ont jeté les bases de ce à quoi ressemblerait une régulation fédérale de l’IA. Ils ont convenu de donner à l’AI Safety Institute, un organisme fédéral, un accès précoce à leurs modèles d’IA avancés, selon un communiqué de presse. En même temps, OpenAI a soutenu un projet de loi qui permettrait à l’AI Safety Institute de fixer des normes pour les modèles d’IA. “Pour de nombreuses raisons, nous pensons qu’il est important que cela se passe au niveau national”, a écrit le PDG d’OpenAI, Sam Altman, dans un tweet jeudi. En lisant entre les lignes, on comprend que les agences fédérales produisent en général une réglementation technologique moins contraignante que la Californie et prennent beaucoup plus de temps pour le faire. Mais