Le laboratoire d’IA chinois DeepSeek a provoqué la première panique de la Silicon Valley de 2025 après avoir publié des versions ouvertes de modèles d’IA qui rivalisent avec les meilleures technologies qu’OpenAI, Meta et Google ont à offrir.
DeepSeek affirme avoir développé ses modèles de manière très efficace et rapide, et les propose à un prix bien inférieur à celui pratiqué par les entreprises américaines d’IA. Cette évolution a ébranlé non seulement les géants de la technologie, mais aussi les plus hautes instances du gouvernement américain, qui craignent que la Chine ne prenne de l’avance dans la course aux armements de l’IA.
« Je ne serais pas surpris si de nombreux laboratoires d’IA disposaient actuellement de salles de guerre », a déclaré Robert Nishihara, cofondateur de la startup d’infrastructure d’IA Anyscale, dans une interview avec TechCrunch.
L’essor de DeepSeek marque un tournant dans le paysage de l’IA dans la Silicon Valley. Les PDG, fondateurs, chercheurs et investisseurs de l’IA ont déclaré à TechCrunch que les modèles de DeepSeek ont des implications majeures pour la politique américaine en matière d’IA. De plus, selon ces experts, les modèles servent d’indicateur de l’accélération du rythme des progrès de l’IA.
« Bien sûr, [DeepSeek] a été surfait », a déclaré à TechCrunch Ravid Shwartz-Ziv, professeur adjoint au Center for Data Science de l’Université de New York. « Mais il reste très intéressant et nous pouvons en tirer de nombreuses leçons. »
De nouvelles façons de faire réfléchir l’IA
L’une des innovations clés de DeepSeek lors de la création de son modèle R1 était « l’apprentissage par renforcement pur », une approche par essais et erreurs, selon Kian Katanforoosh, PDG de Workera et professeur adjoint à Stanford.
Katanfoorosh a comparé la percée de DeepSeek à un enfant qui apprend à ne pas toucher une plaque chauffante en se brûlant accidentellement.
« [Un enfant] peut toucher une plaque chauffante, se brûler et apprendre rapidement à ne plus recommencer », a expliqué Katanforoosh par SMS. « C’est de l’apprentissage par renforcement pur : apprendre par essais et erreurs en fonction des retours d’information […] La méthode de DeepSeek consiste à laisser le modèle apprendre uniquement par l’expérience. »
DeepSeek semble s’être davantage appuyé sur l’apprentissage par renforcement que d’autres modèles d’IA de pointe. OpenAI a également utilisé des techniques d’apprentissage par renforcement pour développer o1 , que la société a révélé quelques semaines avant que DeepSeek n’annonce R1. Le prochain modèle o3 d’OpenAI atteint des performances encore meilleures en utilisant des méthodes largement similaires, mais aussi des calculs supplémentaires, affirme la société.
Selon Katanforoosh, l’apprentissage par renforcement est l’une des méthodes les plus prometteuses pour améliorer les modèles de base de l’IA. Le terme « modèles de base » désigne généralement les modèles d’IA entraînés sur des quantités massives de données, comme des images et du texte provenant du Web. Il semble probable que d’autres laboratoires d’IA continueront à repousser les limites de l’apprentissage par renforcement pour améliorer leurs modèles d’IA, notamment compte tenu du succès de DeepSeek.
Il y a quelques mois à peine, les entreprises d’IA avaient du mal à améliorer les performances de leurs modèles fondamentaux . Mais le succès de méthodes telles que l’apprentissage par renforcement et d’autres, comme le réglage fin supervisé et la mise à l’échelle des temps de test, indique que les progrès de l’IA pourraient reprendre.
« R1 m’a donné beaucoup plus de confiance dans le fait que le rythme des progrès restera élevé », a déclaré Nathan Lambert, chercheur chez Ai2, dans une interview avec TechCrunch.
Un tournant pour la politique de l’IA
R1, qui peut être téléchargé et exécuté sur n’importe quelle machine répondant aux exigences matérielles, égale ou dépasse o1 sur un certain nombre de tests d’IA. Bien que ce ne soit pas la première fois que nous voyons l’écart de performance se réduire entre des modèles « fermés » comme celui d’OpenAI et des modèles disponibles ouvertement, la vitesse à laquelle DeepSeek y est parvenu a surpris l’industrie.
Cela pourrait pousser les États-Unis à accroître leurs investissements dans l’IA ouverte, voire entièrement open source, afin de concurrencer la Chine. Martin Casado, associé général chez Andreessen Horowitz (a16z), explique à TechCrunch que DeepSeek prouve à quel point la logique réglementaire des deux dernières années a été « erronée ».
« En ce qui concerne l’IA, je pense que cela montre simplement que [les États-Unis] ne sont pas les seuls à avoir des capacités techniques », a déclaré Casado dans une interview. « Des solutions très compétitives peuvent venir de n’importe où, mais en particulier de Chine. Plutôt que d’entraver l’innovation américaine, nous devrions y investir massivement. L’open source ne favorise en rien la Chine. En fait, interdire à nos entreprises de faire de l’open source signifie que notre technologie ne prolifère pas autant. »
Casado semblait faire référence au décret exécutif sur l’IA récemment abrogé par l’ancien président Biden et au projet de loi californien SB 1047 , tous deux vigoureusement opposés par a16z. A16z a fait valoir que ces deux mesures accordaient la priorité à la prévention de scénarios apocalyptiques « farfelus » de l’IA plutôt qu’à l’innovation américaine. Plus généralement, la Silicon Valley a généralement réussi à freiner le « mouvement apocalyptique de l’IA » en 2024. La véritable préoccupation concernant l’IA, a16z et d’autres l’ont répété à plusieurs reprises, est que l’Amérique perde son avantage concurrentiel face à la Chine.
Ce scénario semble beaucoup plus tangible à la lumière de l’essor de DeepSeek.
Ce n’est pas pour rien que a16z a investi massivement dans de nombreux acteurs majeurs de l’IA ouverte, notamment Databricks, Mistral et Black Forest Labs. La société de capital-risque pourrait également jouer un rôle de premier plan en conseillant l’administration Trump sur l’IA. L’ancien associé d’a16z, Sriram Krishnan, est désormais le conseiller politique principal de Trump pour l’IA .
Lundi, le président Trump a déclaré que DeepSeek devrait être un « signal d’alarme » pour les entreprises américaines d’IA, tout en félicitant le laboratoire d’IA chinois pour son approche ouverte. Cela correspond assez bien à la position d’a16z sur l’IA.
« DeepSeek R1 est le moment Spoutnik de l’IA », a déclaré Marc Andreessen, cofondateur d’a16z, dans un article sur X , faisant référence au lancement du vaisseau spatial en orbite autour de la Terre de l’Union soviétique il y a des décennies, qui a poussé les États-Unis à investir sérieusement dans leur programme spatial.
L’essor de DeepSeek semble également avoir changé l’opinion des sceptiques de l’IA ouverte, comme l’ancien PDG de Google Eric Schmidt. L’année dernière encore, Schmidt s’inquiétait de la prolifération des modèles d’IA ouverts occidentaux dans le monde. Mais dans un éditorial publié mardi, Schmidt a déclaré que l’essor de DeepSeek marquait un « tournant » dans la course mondiale à l’IA et a appelé à davantage d’investissements dans l’IA ouverte américaine.
Regard vers l’avenir
Il est important de ne pas surestimer les réalisations de DeepSeek.
Par exemple, certains analystes sont sceptiques quant à l’affirmation de DeepSeek selon laquelle il aurait formé l’un de ses modèles phares, DeepSeek V3, pour seulement 5,6 millions de dollars – une somme dérisoire dans le secteur de l’IA – en utilisant environ 2 000 anciens GPU Nvidia. Le laboratoire d’IA chinois n’a pas vu le jour du jour au lendemain, après tout, et DeepSeek aurait un stock de plus de 50 000 GPU Nvidia Hopper plus performants.
Les modèles de DeepSeek sont également imparfaits. Selon un test réalisé par l’organisation de fiabilité des informations NewsGuard, R1 fournit des réponses inexactes ou des non-réponses dans 83 % des cas lorsqu’on lui pose des questions sur des sujets liés à l’actualité. Un autre test a révélé que R1 refuse de répondre dans 85 % des cas aux questions concernant la Chine, ce qui pourrait être une conséquence de la censure gouvernementale à laquelle sont soumis les modèles d’IA développés dans le pays .
Ensuite, il y a les allégations de vol de propriété intellectuelle. OpenAI affirme avoir la preuve que DeepSeek a utilisé ses modèles d’IA pour former ses propres modèles, ce qui, si cela s’avérait vrai, constituerait une violation des conditions d’OpenAI. (Bien entendu, OpenAI est actuellement poursuivie par un certain nombre de parties pour avoir prétendument commis une violation du droit d’auteur lors de la formation de ses modèles.)
Malgré tout, DeepSeek a fait bouger les choses avec des modèles plus efficaces et a innové. Lambert a noté que, contrairement à o1, R1 révèle son « processus de réflexion » aux utilisateurs. Lambert a observé que certains utilisateurs font davantage confiance aux modèles de raisonnement de l’IA ou y croient davantage lorsqu’ils voient leur processus interne, au cours duquel ils « expliquent leur travail ».
Il faudra maintenant voir comment les décideurs politiques américains et les laboratoires d’IA réagiront.