L’un des seuls bureaux du gouvernement des États-Unis dédiés à l’évaluation de la sécurité de l’IA était en danger de disparaître si le Congrès ne décide pas de l’autoriser. L’Institut américain de sécurité de l’IA (AISI), un organisme fédéral qui étudie les risques des systèmes d’IA, a été créé en novembre 2023 dans le cadre de l’AI Executive Order du président Joe Biden. L’AISI opère au sein du NIST, une agence du Département du Commerce qui développe des directives pour le déploiement de diverses catégories de technologies. Mais alors que l’AISI dispose d’un budget, d’un directeur et d’un partenariat de recherche avec son homologue au Royaume-Uni, le UK AI Safety Institute, il pourrait être dissous suite à une simple révocation de l’Ordre exécutif de Biden.
“Si un autre président devait entrer en fonction et révoquer l’AI Executive Order, ils démantèleraient l’AISI,” a déclaré Chris MacKenzie, directeur principal de la communication à Americans for Responsible Innovation, un groupe de lobbying pour l’IA, à TechCrunch. “Et [Donald] Trump a promis de révoquer l’AI Executive Order. Ainsi, l’autorisation formelle de l’Institut de sécurité de l’IA par le Congrès garantirait son existence continue, quel que soit le locataire de la Maison Blanche.” En plus d’assurer l’avenir de l’AISI, l’autorisation du bureau pourrait également conduire à un financement plus stable et à long terme de son initiative par le Congrès. L’AISI dispose actuellement d’un budget d’environ 10 millions de dollars – une somme relativement modeste compte tenu de la concentration des principaux laboratoires d’IA dans la Silicon Valley.
“Les députés ont tendance à donner une priorité plus élevée au budget à des entités formellement autorisées par le Congrès,” a déclaré MacKenzie, “avec l’idée que ces entités bénéficient d’un large soutien et sont là pour durer, plutôt que d’être simplement la priorité d’une seule administration.”
Aujourd’hui, une coalition de plus de 60 entreprises, organisations à but non lucratif et universités a appelé le Congrès à adopter une loi codifiant l’AISI avant la fin de l’année. Parmi les signataires figurent OpenAI et Anthropic, qui ont tous deux signé des accords avec l’AISI pour collaborer sur la recherche, les tests et l’évaluation de l’IA. Le Sénat et la Chambre ont chacun fait avancer des projets de loi bipartites pour autoriser les activités de l’AISI. Cependant, ces propositions ont rencontré une certaine opposition de la part de législateurs conservateurs, dont le sénateur Ted Cruz (R-Texas), qui a appelé à retirer du projet de loi du Sénat les programmes de diversité.
Certes, l’AISI est une organisation relativement faible d’un point de vue exécution. Ses normes sont volontaires. Mais les groupes de réflexion et les coalitions industrielles – ainsi que les géants de la technologie comme Microsoft, Google, Amazon et IBM, qui ont tous signé la lettre mentionnée ci-dessus – voient dans l’AISI la voie la plus prometteuse vers des benchmarks en matière d’IA qui pourraient jeter les bases d’une future politique. Il y a aussi une inquiétude chez certains groupes d’intérêt que permettre à l’AISI de disparaître pourrait risquer de céder le leadership en matière d’IA à des nations étrangères.
“Alors que d’autres gouvernements avancent rapidement, les membres du Congrès peuvent s’assurer que les États-Unis ne sont pas laissés pour compte dans la course mondiale à l’IA en autorisant définitivement l’Institut de sécurité de l’IA et en assurant la certitude de son rôle crucial dans l’avancement de l’innovation et de l’adoption de l’IA aux États-Unis,” a déclaré Jason Oxman, président et CEO du Conseil de l’industrie des technologies de l’information, une association commerciale de l’industrie des TI, dans un communiqué. “Nous exhortons le Congrès à répondre à l’appel à l’action lancé aujourd’hui par l’industrie, la société civile et le milieu universitaire en adoptant la législation bipartite nécessaire avant la fin de l’année.”