Malgré les allégations de son proche partenaire et collaborateur, OpenAI, qui suggère que DeepSeek aurait volé sa propriété intellectuelle et enfreint ses conditions d’utilisation, Microsoft semble vouloir plus que jamais exploiter les nouveaux modèles de DeepSeek sur sa plateforme cloud. L’entreprise vient d’annoncer que le modèle de raisonnement R1 de DeepSeek est désormais disponible sur Azure AI Foundry, une plateforme qui regroupe plusieurs services d’IA pour les entreprises sous une seule bannière.
Dans un billet de blog, Microsoft a affirmé que la version de R1 présente sur Azure AI Foundry a “subi des tests rigoureux de la part de la red team et des évaluations de sécurité”, y compris des “évaluations automatisées du comportement du modèle et des revues de sécurité approfondies pour atténuer les risques potentiels”. Prochainement, les clients pourront utiliser des versions “distillées” de R1 pour fonctionner localement sur les PC Copilot+, une marque de matériel Windows de Microsoft qui répond à certaines exigences de préparation à l’IA.
“Alors que nous continuons à étendre le catalogue de modèles dans Azure AI Foundry, nous sommes impatients de voir comment les développeurs et les entreprises exploitent […] R1 pour relever des défis concrets et offrir des expériences transformatrices”, a ajouté Microsoft dans son post.
L’ajout de R1 aux services cloud de Microsoft intrigue, étant donné que la société a lancé une enquête sur un éventuel abus de ses services et de ceux d’OpenAI par DeepSeek.
L’ajout de R1 aux services cloud de Microsoft est effectivement curieux, considérant que Microsoft a apparemment initié une enquête sur un potentiel abus de DeepSeek de ses services et ceux d’OpenAI. Selon des chercheurs en sécurité de Microsoft, DeepSeek aurait extrait une grande quantité de données en utilisant l’API d’OpenAI à l’automne 2024. Microsoft, qui se trouve également être le plus grand actionnaire d’OpenAI, a informé OpenAI de l’activité suspecte, selon Bloomberg. Mais le modèle R1 est actuellement très en vogue, et Microsoft a peut-être été convaincu de l’intégrer à son cloud pendant qu’il a encore de l’attrait.
Il n’est pas précisé si Microsoft a apporté des modifications au modèle pour améliorer sa précision et lutter contre sa censure. Selon un test de l’organisation de fiabilité de l’information NewsGuard, R1 donne des réponses inexactes ou ne répond pas du tout dans 83% des cas lorsqu’il est interrogé sur des sujets d’actualité. Un autre test a révélé que R1 refuse de répondre à 85% des prompts liés à la Chine, ce qui pourrait être une conséquence de la censure gouvernementale à laquelle sont soumis les modèles d’IA développés dans ce pays.