Apple signe l’engagement de la Maison Blanche pour la sécurité de l’IA | TechCrunch

Generated with DALL·E 3

Apple a signé l’engagement volontaire de la Maison Blanche pour le développement d’une IA sûre, sécurisée et fiable, selon un communiqué de presse publié vendredi. La société prévoit prochainement d’intégrer son offre d’IA générative, Apple Intelligence, dans ses produits phares, ce qui mettra cette technologie à portée de ses 2 milliards d’utilisateurs. Apple rejoint ainsi 15 autres entreprises technologiques – notamment Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI – qui se sont engagées en juillet 2023 à respecter les règles édictées par la Maison Blanche pour le développement de l’IA générative. À l’époque, Apple n’avait pas révélé à quel point elle prévoyait d’intégrer l’IA dans iOS. Mais lors de la WWDC en juin, Apple a clairement indiqué qu’elle misait tout sur l’IA générative, en commençant par un partenariat qui intègre ChatGPT dans l’iPhone.

En tant que cible fréquente des régulateurs fédéraux, Apple veut faire savoir dès à présent qu’elle est prête à respecter les règles de la Maison Blanche en matière d’IA – une possible tentative de marquer des points avant que n’éclatent d’éventuels futurs combats réglementaires sur l’IA. Mais que vaut réellement l’engagement volontaire d’Apple envers la Maison Blanche ? Pas grand-chose, mais c’est un début. La Maison Blanche considère cela comme la “première étape” pour qu’Apple et 15 autres entreprises d’IA développent une IA qui soit sûre, sécurisée et digne de confiance.

La seconde étape a été le décret de l’IA du président Biden en octobre, et plusieurs projets de loi sont actuellement en cours d’examen par les législatures fédérale et des États afin de mieux réglementer les modèles IA.

Selon l’engagement, les entreprises d’IA s’engagent à soumettre leurs modèles d’IA à une équipe rouge (agissant comme un pirate informatique adverse pour tester la résistance des mesures de sécurité d’une organisation) avant une publication publique et à partager ces informations avec le public. L’engagement volontaire de la Maison Blanche demande également aux entreprises d’IA de traiter de manière confidentielle les poids des modèles d’IA non publiés. Apple et les autres entreprises s’engagent à travailler sur les poids des modèles d’IA dans des environnements sécurisés, en limitant l’accès aux poids des modèles au strict minimum pour le personnel. Enfin, les entreprises d’IA s’engagent à développer des systèmes d’étiquetage de contenu, tels que le filigranage, pour aider les utilisateurs à distinguer ce qui est et ce qui n’est pas généré par l’IA.

Séparément, le département du Commerce indique qu’il publiera prochainement un rapport sur les avantages potentiels, les risques et les implications des modèles de base open source. L’IA open source devient de plus en plus un champ de bataille réglementaire chargé politiquement. Certains camps souhaitent limiter l’accessibilité des poids des modèles aux modèles d’IA puissants, au nom de la sécurité. Cependant, cela pourrait limiter de manière significative l’écosystème des startups en IA et la recherche. La position de la Maison Blanche à ce sujet pourrait avoir un impact significatif sur l’ensemble de l’industrie de l’IA. La Maison Blanche a également souligné que les agences fédérales ont réalisé des progrès significatifs sur les tâches énoncées dans le décret exécutif d’octobre. Les agences fédérales ont jusqu’à présent recruté plus de 200 personnes spécialisées dans l’IA, accordé à plus de 80 équipes de recherche un accès à des ressources informatiques et publié plusieurs cadres pour le développement de l’IA (le gouvernement aime les cadres)

Partagez cet article
article précédent

Sportif de haut niveau: aménagement de la formation pour certaines certifications

article suivant

Le régulateur de la vie privée se dit “surpris” de l’option d’Elon Musk d’intégrer les données des utilisateurs dans la formation de l’IA Grok | TechCrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles