Le gouvernement du Royaume-Uni ambitionne de relancer son économie et son industrie en faisant le grand saut dans le domaine de l’IA. Pour ce faire, il a décidé de rediriger une institution qu’il a fondée il y a un peu plus d’un an pour une tout autre finalité. Le département des Sciences, de l’Industrie et de la Technologie a annoncé aujourd’hui qu’il allait renommer l’Institut de sécurité de l’IA en “Institut de sécurité de l’IA”. (Même premières lettres : même URL.) De ce fait, cet organisme passera d’un objectif premier d’exploration de domaines tels que les risques existentiels et les biais dans les grands modèles linguistiques, à un accent mis sur la cybersécurité, spécifiquement “le renforcement des protections contre les risques que l’IA pose à la sécurité nationale et à la criminalité”.
Parallèlement à cela, le gouvernement a également annoncé un nouveau partenariat avec Anthropic. Aucun service ferme n’a été annoncé mais le MOU indique que les deux parties “exploreront” l’utilisation de l’assistant AI Claude d’Anthropic dans les services publics ; et Anthropic visera à contribuer aux travaux de recherche scientifique et de modélisation économique. Et à l’Institut de sécurité de l’IA, il fournira des outils pour évaluer les capacités de l’IA dans le contexte de l’identification des risques de sécurité. “L’IA a le potentiel de transformer la manière dont les gouvernements servent leurs citoyens”, a déclaré dans un communiqué Dario Amodei, co-fondateur et CEO d’Anthropic. “Nous avons hâte d’explorer comment l’assistant AI Claude d’Anthropic pourrait aider les agences gouvernementales britanniques à améliorer les services publics, avec l’objectif de découvrir de nouvelles façons de rendre les informations et les services essentiels plus efficaces et accessibles aux résidents du Royaume-Uni.” Anthropic est la seule entreprise annoncée aujourd’hui – coïncidant avec une semaine d’activités IA à Munich et à Paris – mais elle n’est pas la seule à travailler avec le gouvernement.
“Les changements que j’annonce aujourd’hui représentent l’étape logique suivante dans notre démarche de développement responsable de l’IA – nous aider à libérer l’IA et à développer l’économie dans le cadre de notre Plan pour le Changement”, a déclaré Kyle dans un communiqué.
Une série de nouveaux outils qui ont été dévoilés en janvier étaient tous alimentés par OpenAI. (À l’époque, Peter Kyle, le secrétaire d’État à la Technologie, avait déclaré que le gouvernement prévoyait de travailler avec diverses entreprises fondamentales d’IA, et c’est ce que prouve l’accord avec Anthropic.) Le changement de cap du gouvernement concernant l’Institut de sécurité de l’IA – lancé il y a un peu plus d’un an sous les applaudissements – ne devrait pas trop surprendre. Lorsque le nouveau gouvernement travailliste a annoncé son plan d’action fortement tourné vers l’IA en janvier, il était notable que les mots “sécurité”, “dommage”, “existentiel” et “menace” n’apparaissaient pas du tout dans le document. Ce n’était pas un oubli. Le plan du gouvernement est de stimuler les investissements dans une économie plus modernisée, en utilisant la technologie et spécifiquement l’IA pour ce faire.
Il veut travailler plus étroitement avec les grandes entreprises technologiques, et il souhaite également construire ses propres grandes technologies. Pour ce faire, les principaux messages qu’il a promus ont été le développement, l’IA, et encore plus de développement. Les fonctionnaires auront leur propre assistant AI appelé “Humphrey”, et ils sont encouragés à partager des données et à utiliser l’IA dans d’autres domaines pour accélérer leur travail. Les consommateurs bénéficieront de portefeuilles numériques pour leurs documents gouvernementaux, et des chatbots. Alors, les problèmes de sécurité de l’IA ont-ils été résolus? Pas exactement, mais le message semble être qu’ils ne peuvent pas être considérés au détriment du progrès. Le gouvernement a affirmé que malgré le changement de nom, la chanson restera la même.