Le Parlement européen bloque l’utilisation de l’IA sur les appareils des députés, en invoquant des risques de sécurité

Le Parlement européen aurait décidé d’interdire à ses députés d’utiliser les outils d’intelligence artificielle intégrés à leurs appareils de travail. Selon un courriel consulté par Politico, le département informatique de l’institution a justifié cette mesure par des préoccupations liées à la cybersécurité et à la protection de la vie privée, notamment en ce qui concerne l’envoi de correspondances confidentielles vers des serveurs cloud. La sécurité de ces échanges en ligne demeure challengeante et les risques de fuite ou d’espionnage sont jugés trop élevés pour permettre une utilisation généralisée de ces technologies.

Ce courrier précise que l’ensemble des données susceptibles d’être transmises aux entreprises proposant des IA, telles que Anthropic avec Claude, Microsoft avec Copilot, ou OpenAI avec ChatGPT, ne peuvent faire l’objet d’une garantie absolue de sécurité. La manière dont ces informations sont partagées ou exploitées par ces sociétés reste encore « en cours d’évaluation », ce qui alimente les craintes quant à la confidentialité et à la sensibilité des données parlementaires. En conséquence, il a été décidé que « la meilleure option est de désactiver ces fonctionnalités » afin de protéger au maximum les informations institutionnelles.

La décision du Parlement européen de maintenir ses appareils à l’écart des outils d’intelligence artificielle reflète les tensions entre innovation technologique et sécurité nationale.

En réponse à ces préoccupations, la majorité des États membres de l’Union européenne semblent privilégier une approche prudente face à l’usage de l’IA dans le contexte institutionnel. La Commission européenne, qui supervise la politique globale de l’Union, a tenté l’année dernière de faire passer des propositions législatives visant à assouplir les règles de protection des données pour faciliter l’apprentissage des modèles d’IA avec les données européennes. Ces initiatives ont cependant rencontré une forte opposition, certains critiquant une capitulation face aux géants technologiques américains, notamment à cause du risque d’une déréglementation nuisant à la vie privée des citoyens européens.

Ce contexte intervient dans un moment où plusieurs pays membres reconsidèrent leur relation avec les géants américains du numérique, notamment en raison de la législation extraterritoriale qui leur permet d’accéder à des données sensibles. Récemment, le Département de la sécurité intérieure des États-Unis a envoyé des centaines de convocations à des entreprises telles que Google, Meta ou Reddit, pour obtenir des informations sur des citoyens, y compris des Américains critiques envers la politique de l’administration Trump. Ces démarches, souvent faites sans mandat judiciaire, soulèvent la question des limites de la coopération transatlantique en matière de cybersécurité et de respect des droits fondamentaux.

Les restrictions à l’utilisation de l’IA dans le cadre européen illustrent la priorité donnée à la sécurité et à la protection des données face aux tentations d’ouverture impulsée par la technologique.

Les implications de ces choix sont nombreuses, non seulement pour la gouvernance européenne mais aussi pour le développement futur de l’intelligence artificielle au sein de l’Union. Face à ces obstacles, les acteurs institutionnels devront concilier innovation, sécurité et respect de la vie privée, tout en restant attentifs à l’évolution des régulations internationales et à la montée en puissance des cybermenaces.

Partagez cet article
article précédent

WordPress.com ajoute un assistant IA capable de modifier, ajuster les styles, créer des images et plus encore

article suivant

Transitions : les compétences au cœur du changement – Centre Inffo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles