“`html
Les législateurs de l’État de New York ont adopté jeudi un projet de loi visant à empêcher les modèles d’IA de pointe développés par OpenAI, Google et Anthropic de contribuer à des scénarios de catastrophe, y compris la mort ou des blessures de plus de 100 personnes, ou des dommages dépassant 1 milliard de dollars. L’adoption de la RAISE Act représente une victoire pour le mouvement de la sécurité de l’IA, qui a perdu du terrain ces dernières années alors que la Silicon Valley et l’administration Trump ont privilégié la vitesse et l’innovation.
Les défenseurs de la sécurité, comme le lauréat du prix Nobel Geoffrey Hinton et le pionnier de la recherche sur l’IA Yoshua Bengio, ont soutenu la RAISE Act. Si elle devient loi, cette loi établirait le premier ensemble de normes de transparence légalement contraignantes pour les laboratoires d’IA de pointe aux États-Unis. Le projet de loi partage certaines dispositions et objectifs avec le controversé projet de loi sur la sécurité de l’IA de Californie, le SB 1047, qui a finalement été veto.
“Je suis très confiant qu’il n’y a aucune raison économique pour que les entreprises d’IA ne rendent pas leurs modèles disponibles à New York,” a déclaré le membre de l’Assemblée Alex Bores.
Cependant, le sénateur de l’État de New York et co-sponsor de la RAISE Act, Andrew Gounardes, a déclaré à TechCrunch dans une interview qu’il avait délibérément conçu la RAISE Act de manière à ne pas refroidir l’innovation parmi les startups ou les chercheurs académiques. “La fenêtre pour mettre en place des garde-fous se rétrécit rapidement étant donné la rapidité d’évolution de cette technologie”, a ajouté le sénateur Gounardes. Si elle est promulguée, la RAISE Act obligerait les plus grands laboratoires d’IA au monde à publier des rapports détaillés sur la sécurité et la sûreté de leurs modèles d’IA de pointe.
La RAISE Act vise à réglementer étroitement les plus grandes entreprises au monde, qu’elles soient basées en Californie (comme OpenAI et Google) ou en Chine (comme DeepSeek et Alibaba). Les exigences de transparence s’appliquent aux entreprises dont les modèles d’IA ont été formés en utilisant plus de 100 millions de dollars de ressources informatiques, ce qui semble concerner plus ou moins tous les modèles d’IA disponibles aujourd’hui. Bien que similaire au SB 1047 à certains égards, la RAISE Act a été conçue pour répondre aux critiques des précédents projets de loi sur la sécurité de l’IA.
En dépit du soutien croissant pour la RAISE Act, la Silicon Valley a réagi fortement contre ce projet de loi. Le partenaire général d’Andreessen Horowitz, Anjney Midha, a qualifié la loi de “stupide” et a exprimé des craintes selon lesquelles elle nuirait aux États-Unis face à la concurrence internationale. D’autres critiques viennent de l’intérieur de l’industrie, certains craignant que la loi n’incite les développeurs de modèles d’IA à ne pas rendre leurs modèles les plus avancés disponibles à New York.
“`