Google annonce qu’il signera le code de pratique de l’IA de l’UE

Generated with DALL·E 3

Google a confirmé son intention de signer le code de pratique pour l’IA de l’Union européenne, une initiative volontaire visant à aider les développeurs d’IA à mettre en place des processus et des systèmes afin de se conformer à la législation européenne sur l’IA. Ce développement survient alors que Meta a, quant à elle, annoncé qu’elle ne signerait pas ce code, qualifiant l’application de la législation européenne en matière d’IA de “débordement” et affirmant que l’Europe s’engageait “dans la mauvaise direction en matière d’IA.”

La décision de Google intervient à quelques jours de l’entrée en vigueur de nouvelles règles pour les fournisseurs de “modèles d’IA générale présentant un risque systémique” le 2 août. Parmi les entreprises probablement touchées par ces règles figurent des noms majeurs comme Anthropic, Google, Meta et OpenAI, ainsi que plusieurs autres grands modèles génératifs. Ces entreprises disposeront de deux ans pour se conformer intégralement à l’IA Act. Kent Walker, président des affaires mondiales chez Google, a reconnu dans un post de blog que la version finale du code de pratique était meilleure que ce que l’UE avait proposé initialement.

“Nous restons préoccupés par le risque que l’IA Act et le Code ralentissent le développement et le déploiement de l’IA en Europe.”

Cependant, Walker a également exprimé certaines réserves concernant l’IA Act et le code. Il a souligné que des divergences par rapport à la législation sur le droit d’auteur de l’UE, des démarches qui ralentissent les approbations ou des exigences qui exposent des secrets commerciaux pourraient nuire au développement et à la mise en œuvre des modèles en Europe, compromettant ainsi la compétitivité du continent. En signant le code de pratique de l’UE, les entreprises d’IA s’engageraient à respecter un ensemble de directives incluant la fourniture d’une documentation mise à jour sur leurs outils et services d’IA, l’interdiction de former l’IA sur du contenu piraté et la conformité aux demandes des propriétaires de contenu pour ne pas utiliser leurs œuvres dans leurs ensembles de données.

Le cadre réglementaire basé sur le risque pour les applications d’IA, le célèbre IA Act de l’UE, interdit certains cas d’utilisation jugés “inacceptables”, tels que la manipulation comportementale cognitive ou le scoring social. Les règles définissent également un ensemble d’utilisations “à haut risque”, incluant la biométrie et la reconnaissance faciale, ainsi que l’utilisation de l’IA dans des domaines comme l’éducation et l’emploi. Par ailleurs, la loi exige que les développeurs enregistrent les systèmes d’IA et respectent des obligations en matière de gestion des risques et de qualité.

Partagez cet article
article précédent

Possibilité d’une collecte des contributions conventionnelles par les Urssaf à compter de 2026 – Centre Inffo

article suivant

Observe continue de s’adapter au monde en évolution de l’observabilité des logiciels

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles