L’Union européenne travaille actuellement à l’élaboration de lignes directrices pour sa nouvelle loi sur l’intelligence artificielle (IA). Dans le cadre de ce processus, elle a lancé une consultation (ici) pour recueillir des contributions dans deux domaines spécifiques.
Le premier concerne la façon dont la loi définit les systèmes d’IA, par opposition aux logiciels “traditionnels” plus simples. Elle sollicite ainsi les opinions des acteurs de l’industrie de l’IA, du monde des affaires, des universitaires et de la société civile sur la clarté des éléments clés de la définition de l’IA dans le cadre de cette loi, ainsi que des exemples de logiciels qui devraient être exclus de cette définition.
La seconde demande porte sur les utilisations interdites de l’IA. La loi mentionne un certain nombre de cas d’utilisation qui sont interdits car considérés comme comportant un “risque inacceptable”, à l’instar du système de notation sociale à la chinoise. C’est sur cet aspect que la consultation se concentre principalement.
L’Union européenne souhaite obtenir des retours détaillés sur chaque utilisation interdite, et semble particulièrement intéressée par des exemples concrets. La consultation se poursuivra jusqu’au 11 décembre 2024.
L’UE attend un feedback précis sur chaque cas d’utilisation banni. Elle est particulièrement désireuse d’exemples pratiques. La consultation se déroule jusqu’au 11 décembre 2024. Par la suite, la Commission prévoit de publier des lignes directrices sur la définition des systèmes d’IA et des utilisations bannies courant 2025, selon un communiqué de presse.
Les discussions et débats autour de cette nouvelle loi, tant sur la définition de ce qu’est un système d’IA, que sur les cas d’utilisation qui devraient être interdits, soulignent l’importance de l’IA dans la vie quotidienne, et le besoin impératif de régulation et de contrôle pour éviter les abus potentiels.