Quelques heures seulement après que David Sacks a affirmé que DeepSeek avait utilisé les modèles d’OpenAI pour former ses propres modèles, Bloomberg Law rapporte que Microsoft enquête sur l’utilisation par DeepSeek de l’interface de programmation d’application (API) d’OpenAI.
Selon des chercheurs en sécurité travaillant pour Microsoft, la société chinoise à l’origine du modèle de raisonnement R1 aurait exfiltré une grande quantité de données en utilisant l’API d’OpenAI à l’automne 2024. Microsoft, qui est également le principal actionnaire d’OpenAI, a informé OpenAI de cette activité suspecte.
Bien que tout le monde puisse s’inscrire et accéder à l’API d’OpenAI, les conditions de service de la société stipulent que vous ne pouvez pas utiliser la sortie pour former un nouveau modèle d’IA.
Il est interdit d’utiliser « Output pour développer des modèles concurrents d’OpenAI », indique l’entreprise dans ses conditions d’utilisation . En outre, l’entreprise précise que vous ne pouvez pas « extraire automatiquement ou par programmation des données ou Output ».
Le problème principal semble provenir de la distillation, une méthode utilisée par les développeurs de modèles d’IA pour extraire des connaissances d’un autre modèle en utilisant un comportement de type enseignant-élève. Il sera intéressant de voir si DeepSeek a trouvé des moyens innovants pour contourner les limites de débit d’OpenAI et interroger son API à grande échelle. Si tel est le cas, il y aura certainement des ramifications juridiques.