Microsoft apporte un modèle DeepSeek à son cloud

Crédits image : Jakub Porzycki/NurPhoto / Getty Images

OpenAI, partenaire et collaborateur proche de Microsoft, pourrait suggérer que DeepSeek a volé sa propriété intellectuelle et violé ses conditions de service . Mais Microsoft veut toujours les nouveaux modèles brillants de DeepSeek sur sa plateforme cloud.

Microsoft a annoncé aujourd’hui que R1 , le modèle de raisonnement de DeepSeek, est disponible sur le service Azure AI Foundry , la plateforme de Microsoft qui rassemble un certain nombre de services d’IA pour les entreprises sous une même bannière. Dans un article de blog , Microsoft a déclaré que la version de R1 sur Azure AI Foundry a « subi des évaluations rigoureuses de red teaming et de sécurité », notamment « des évaluations automatisées du comportement du modèle et des examens de sécurité approfondis pour atténuer les risques potentiels ».

Dans un avenir proche, a déclaré Microsoft, les clients pourront utiliser des versions « distillées » de R1 pour s’exécuter localement sur les PC Copilot+ , la marque de matériel Windows de Microsoft qui répond à certaines exigences de préparation de l’IA.

« Alors que nous continuons à étendre le catalogue de modèles dans Azure AI Foundry, nous sommes ravis de voir comment les développeurs et les entreprises exploitent […] R1 pour relever les défis du monde réel et offrir des expériences transformatrices », a poursuivi Microsoft dans le message.

L’ajout de R1 aux services cloud de Microsoft est curieux, étant donné que Microsoft aurait lancé une enquête sur les abus potentiels de DeepSeek envers ses services et ceux d’OpenAI. Selon des chercheurs en sécurité travaillant pour Microsoft, DeepSeek aurait exfiltré une grande quantité de données en utilisant l’API d’OpenAI à l’automne 2024. Microsoft, qui se trouve également être le principal actionnaire d’OpenAI, a informé OpenAI de cette activité suspecte, selon Bloomberg .

Mais R1 est le sujet de toutes les conversations, et Microsoft a peut-être été persuadé de l’intégrer à son offre cloud alors qu’il est encore attrayant.

On ne sait pas si Microsoft a modifié le modèle pour améliorer sa précision et lutter contre la censure. Selon un test réalisé par l’organisation de fiabilité des informations NewsGuard, R1 fournit des réponses inexactes ou ne répond pas dans 83 % des cas lorsqu’on lui pose des questions sur des sujets liés à l’actualité. Un autre test a révélé que R1 refuse de répondre dans 85 % des cas aux questions concernant la Chine, ce qui pourrait être une conséquence de la censure gouvernementale à laquelle sont soumis les modèles d’IA développés dans le pays .

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use