En 2025, il pourrait y avoir plus d’actions réglementaires au niveau des États qu’au niveau fédéral concernant l’IA. La Californie est en première ligne en matière de législation sur l’IA, et il y a un mouvement pour l’harmonisation des réglementations entre les États. Cela montre qu’une éventuelle course à la législation ne se produira pas uniquement sur la scène fédérale, mais aussi et surtout au niveau des législatures des États.
La data synthétique est perçue par certains comme l’avenir de l’IA. Elle représente une multitude de données générées artificiellement pouvant être utilisées pour entraîner des modèles d’IA, sans les problèmes de confidentialité ou de biais inhérents aux véritables données utilisateur. C’est un domaine prometteur, mais qui nécessitera également une régulation adéquate pour encadrer son utilisation et son développement.
En parallèle, les préoccupations concernant la censure de l’IA pourraient entraîner une réglementation. Le spectre de l’ingérence étrangère, de la désinformation et de la manipulation de l’IA est une préoccupation croissante, qui suscite des débats sur l’équilibre à trouver entre régulation, liberté d’expression et innovation technologique.
Une bonne réglementation de l’IA devrait aborder les risques potentiels et les avantages de la technologie, et être compréhensible par les non-technologues.
L’aspect le plus important est que la réglementation de l’IA doit être centrée sur les personnes et compréhensible pour les non-technologues. Elle doit s’adresser à la fois aux problèmes immédiats engendrés par la technologie et aux défis futurs qu’elle peut susciter. Les citoyens, quel que soit leur niveau de connaissance en matière de technologie, doivent pouvoir comprendre et participer à ces débats.
À l’heure actuelle, la Californie mène la danse, mais il est fort probable que d’autres États suivront et proposeront leurs propres réglementations pour l’IA. Le besoin d’harmonisation sera alors d’autant plus crucial pour éviter une mosaïque confuse de législations à travers le pays.