Le développement de l’intelligence artificielle (IA) se poursuit à un rythme effréné, mais jusqu’où est-on prêt à aller trop vite ? C’est sur cette question épineuse qu’a porté un débat animé lors du Disrupt 2024. Portait au micro deux figures de la cybersécurité : Elizabeth Kelly, directrice de l’institut de sécurité IA des États-Unis, et Scott Wiener, sénateur de l’État de Californie (D-San Francisco), architecte de la controversée loi californienne de sécurité de l’IA, SB 1047.
Les deux experts ont discuté de la nécessité d’équilibrer innovation et mesures de sécurité en matière d’IA. Pour le sénateur Wiener, père du projet de loi SB 1047, il est essentiel de mettre en place des garde-fous pour éviter toute utilisation abusive ou néfaste de l’IA, sans toutefois freiner l’innovation. De son côté, Elizabeth Kelly insistait sur l’importance d’une gouvernance claire et efficace pour la mise en œuvre et le développement de l’IA.
“La balance parfaite entre l’innovation et la sécurité autour de l’IA est essentielle à notre époque numérique”, a déclaré Elizabeth Kelly, Directrice de l’Institut de sécurité de l’IA aux États-Unis.
Par ailleurs, il a été évoqué l’impact potentiel de la loi SB 1047 sur le paysage de l’IA californien. D’après Scott Wiener, cette loi pourrait encourager les entreprises de la Silicon Valley à adopter des pratiques plus sécuritaires tout en stimulant leur créativité. Toutefois, cette vision n’est pas partagée par tous les acteurs de l’écosystème numérique, qui y voient parfois une entrave à leur liberté d’innover.
En ce qui concerne le futur de la gouvernance de l’IA, les intervenants étaient globalement d’accord : un cadre réglementaire bien pensé et une concertation permanente entre tous les acteurs sont indispensables pour faire de l’IA un levier de création de valeur tout en protégeant les citoyens. Ils ont tous deux appelé à l’adoption d’un tel cadre à l’échelle internationale.
Pour plus d’informations, souscrivez à notre chaîne YouTube.