Microsoft accuse un groupe avocat de développer un outil pour abuser de son service d’IA dans un nouveau procès | TechCrunch

Generated with DALL·E 3

Microsoft a engagé une action en justice contre un groupe que la société accuse d’avoir intentionnellement développé et utilisé des outils pour contourner les gardes de sécurité de ses produits d’IA sur le cloud. Selon une plainte déposée par la société en décembre devant le tribunal de district des États-Unis pour l’Est de la Virginie, un group de 10 défendeurs anonymes auraient utilisé des identifiants clients volés et des logiciels personnalisés pour s’introduire dans l’Azure OpenAI Service de Microsoft, un service entièrement géré par OpenAI, le fabricant de ChatGPT. Dans la plainte, Microsoft accuse les défendeurs – qu’elle ne désigne que par “Does”, un pseudonyme juridique – de violer le Computer Fraud and Abuse Act, le Digital Millennium Copyright Act, et une loi fédérale sur le racket en accédant illégalement et en utilisant le logiciel et les serveurs de Microsoft pour créer du contenu “offensif” et “nuisible et illicite”. Microsoft n’a pas fourni de détails précis sur le contenu abusif qui a été généré.

La société recherche une injonction et des dommages-intérêts “équitables” et d’autres réparations. Dans sa plainte, Microsoft dit avoir découvert en juillet 2024 que des clients avec des identifiants de l’Azure OpenAI Service, spécifiquement les clés d’API, les chaînes uniques de caractères utilisées pour authentifier une application ou un utilisateur, étaient utilisées pour générer du contenu qui viole la politique d’utilisation acceptable du service. Par la suite, grâce à une enquête, Microsoft a découvert que ces clés d’API avaient été volées à des clients payants, selon la plainte.

“La manière précise dont les défendeurs ont obtenu toutes les clés d’API utilisées pour commettre les méfaits décrits dans cette plainte est inconnue”, lit-on dans la plainte de Microsoft, “mais il semble que les défendeurs aient mis en œuvre un vol systématique de clés d’API qui leur a permis de voler les clés d’API de Microsoft à plusieurs clients de Microsoft.”

Microsoft allègue que les défendeurs ont utilisé des clés d’API du service Azure OpenAI volées appartenant à des clients basés aux États-Unis pour créer un programme de “hacking en tant que service”. Selon la plainte, pour réaliser cette opération, les défendeurs ont créé un outil côté client appelé de3u, ainsi qu’un logiciel pour le traitement et le routage des communications de de3u vers les systèmes de Microsoft. De3u permettait aux utilisateurs de tirer profit des clés d’API volées pour générer des images à l’aide de DALL-E, l’un des modèles OpenAI disponibles pour les clients du service Azure OpenAI, sans avoir à écrire leur propre code, allègue Microsoft. De3u a également tenté d’empêcher le service Azure OpenAI de réviser les invites utilisées pour générer des images, selon la plainte, ce qui peut se produire, par exemple, lorsqu’une invite textuelle contient des mots qui déclenchent le filtrage de contenu de Microsoft.

Un dépôt contenant le code du projet de3u, hébergé sur GitHub, une entreprise que Microsoft possède, n’est plus accessible à l’heure de la presse. “Ces caractéristiques, combinées à l’accès programmatique illégal des défendeurs à l’API du service Azure OpenAI, ont permis aux défendeurs de trouver un moyen de contourner les mesures de contenu et d’abus de Microsoft”, lit-on dans la plainte. “Les défendeurs ont sciemment et intentionnellement accédé à l’Azure OpenAl Service, des ordinateurs protégés sans autorisation, et à la suite d’une telle conduite ont causé des dommages et des pertes”.

Dans un article de blog publié vendredi, Microsoft indique que la cour l’a autorisé à saisir un site web “instrumental” à l’opération des défendeurs qui permettra à la société de recueillir des preuves, de comprendre comment les services présumés des défendeurs sont monétisés, et de perturber toute infrastructure technique supplémentaire qu’elle trouve. Microsoft dit également qu’elle a “mis en place des contre-mesures”, que la société n’a pas spécifiées, et “ajouté des mesures de sécurité supplémentaires” au service Azure OpenAI visant l’activité qu’elle a observée.

Partagez cet article
article précédent

Abandon de poste et présomption de démission : le Conseil d’État déboute le recours de syndicats

article suivant

Les investisseurs déclarent que les entreprises d’IA ont besoin de données propriétaires pour se démarquer du lot | TechCrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles