
Les premiers développeurs DeepSeek ont déjà commencé à fuir
TechFlow SélectionTechFlow Sélection

Les premiers développeurs DeepSeek ont déjà commencé à fuir
Après avoir connu un succès fulgurant, la stabilité est devenue une nécessité.

Image source : générée par Wujie AI
Derrière les réponses occupées de DeepSeek, ce ne sont pas seulement des utilisateurs ordinaires qui attendent anxieusement. Lorsque la réponse de l'interface API franchit un seuil critique, le monde des développeurs DeepSeek connaît également un effet papillon durable.
Le 30 janvier, Lin Sen, un développeur d'intelligence artificielle basé à Pékin ayant intégré DeepSeek, a soudainement reçu une alerte du système en arrière-plan. Avant même de pouvoir profiter quelques jours du succès soudain de DeepSeek, son programme s'est effondré pendant trois jours faute de pouvoir appeler DeepSeek.
Au début, Lin Sen pensait que cela était dû à un solde insuffisant sur son compte DeepSeek. Ce n'est qu'après son retour au travail après les vacances du Nouvel An chinois, le 3 février, qu'il a finalement reçu la notification officielle de suspension du rechargement API par DeepSeek. À ce moment-là, malgré un solde suffisant, il ne pouvait plus utiliser DeepSeek.
Le troisième jour après avoir reçu la notification, DeepSeek a officiellement annoncé le 6 février la suspension du service de rechargement API. Près d'une demi-semaine plus tard, au 19 février, le service de recharge API de la plateforme ouverte DeepSeek n'était toujours pas revenu à la normale.

Légende : La plateforme de développeurs DeepSeek n'a toujours pas rétabli la recharge. Source : capture d'écran Alphabang
En réalisant que l'effondrement du système était causé par une surcharge des serveurs DeepSeek, et qu'en tant que développeur, il n'avait reçu aucune notification préalable pendant plusieurs jours, ni aucun service après-vente, Lin Sen s'est senti « abandonné ».
« C'est comme si devant chez vous il y avait un petit magasin, vous êtes client régulier, vous avez une carte de fidélité, et vous entretenez de bons rapports avec le propriétaire. Soudain, un jour, le petit magasin est élu restaurant Michelin, le patron laisse tomber les anciens clients et refuse désormais de reconnaître les cartes achetées auparavant », décrit Lin Sen.
En tant que l'un des premiers développeurs à déployer DeepSeek dès juillet 2023, Lin Sen est enthousiasmé par la popularité soudaine de DeepSeek, mais aujourd'hui, pour maintenir son activité, il doit basculer vers ChatGPT, car « même si ChatGPT est un peu plus cher, au moins il est stable ».
Lorsque DeepSeek passe d’un petit magasin connu uniquement par bouche-à-oreille à un restaurant Michelin prisé des touristes, de nombreux développeurs comme Lin Sen, incapables d'appeler l'API, commencent massivement à fuir DeepSeek.
En juin 2024, Xiaochuang, un appareil d'intelligence artificielle pour les questions-réponses, a intégré très tôt DeepSeek V2. Ce qui a particulièrement impressionné Lou Chi, associé de Xiaochuang, c’est que DeepSeek était alors le seul grand modèle capable de réciter intégralement sans erreur le « Mémorial de la tour Yueyang ». L’équipe a donc confié à DeepSeek l’un des rôles centraux du produit.
Mais pour les développeurs, bien que DeepSeek soit bon, sa stabilité reste constamment insuffisante.
Lou Chi a indiqué à Alphabang (ID : wujicaijing) que pendant les vacances du Nouvel An chinois, non seulement les utilisateurs grand public subissaient des accès saturés, mais aussi que les développeurs avaient fréquemment des difficultés à appeler DeepSeek. L'équipe a donc décidé d'appeler simultanément plusieurs grandes plateformes de modèles déjà intégrées à DeepSeek.
Après tout, « il existe désormais des dizaines de plateformes disposant de la version complète DeepSeek R1 ». En utilisant ces versions R1 combinées à des agents et des prompts, elles peuvent également satisfaire les besoins des utilisateurs.
Pour attirer les développeurs fuyant DeepSeek, certains grands fournisseurs de cloud ont commencé à organiser régulièrement des événements destinés aux développeurs. « Participez aux activités et obtenez gratuitement de la puissance de calcul ; si vous n’effectuez pas d’appels en grande quantité, les petits développeurs peuvent presque l’utiliser gratuitement », explique Yang Huichao, directeur technique d’Yibiao AI.
Cependant, alors que DeepSeek connaît actuellement un pic de popularité, au moment où les premiers développeurs s’enfuient, de nouveaux développeurs affluent massivement dans l’espoir de profiter de leur trafic.
Le projet entrepreneurial de Xi Jian consiste en une application d’IA compagnon permettant de jouer des rôles via l’API DeepSeek. Lancée le 2 février, elle a attiré environ 3 000 utilisateurs actifs dès la première semaine.
Bien que certains utilisateurs signalent des erreurs occasionnelles lors de l’appel à l’API DeepSeek, 60 % d’entre eux souhaitent déjà que Xi Jian lance rapidement une version Android. Chaque jour, des dizaines d’utilisateurs envoient des messages privés sur les réseaux sociaux de Xi Jian pour demander le lien de téléchargement. Sans aucun doute, la plateforme d’accompagnement par IA construite sur DeepSeek est devenue une nouvelle étiquette de viralité pour l’application.
Selon un recensement effectué par Alphabang, la liste des applications intégrant DeepSeek publiée sur le site officiel comptait seulement 182 lignes avant 2025, et s’étend désormais à 488 lignes.
D’un côté, DeepSeek devient une « fierté nationale » faisant sensation, attirant 100 millions d’utilisateurs en 7 jours. De l’autre, les premiers développeurs ayant déployé leurs services sur DeepSeek migrent progressivement vers d’autres grands modèles en raison de la saturation du service provoquée par cet afflux massif.
Pour les développeurs, des interruptions prolongées du service ne sont plus de simples pannes, mais se transforment en failles entre le monde du code et la logique commerciale. Confrontés à des coûts de migration élevés, ils doivent faire des calculs de survie. Qu'ils arrivent ou partent, tous doivent faire face aux répliques provoquées par le succès fulgurant de DeepSeek.
I
Trois jours après que le système arrière-plan de son mini-programme a été forcé à l’arrêt pendant les vacances du Nouvel An chinois, Lin Sen, afin de garantir le bon fonctionnement de son programme au sixième jour du nouvel an lunaire, a quitté DeepSeek, sur lequel il était déployé depuis plus d’un an, pour revenir à ChatGPT.
Même si le prix d’appel API est près de 10 fois plus élevé, assurer la stabilité du service est devenu une priorité absolue.
Il convient de noter que pour les développeurs, migrer de DeepSeek vers un autre grand modèle n’est pas aussi simple que pour un utilisateur de changer de modèle dans une application. « Les différents grands modèles linguistiques, voire différentes versions d’un même modèle, produisent des résultats légèrement différents selon les prompts utilisés. » Bien que Lin Sen continue d’appeler ChatGPT, transférer tous les points critiques de DeepSeek vers ChatGPT et garantir une qualité de réponse stable lui a pris plus d’une demi-journée.
Le changement en soi peut prendre deux secondes, mais « pour la plupart des développeurs, passer à un nouveau modèle prend une semaine entière de réglages répétés des prompts et de tests multiples », explique Lin Sen à Alphabang.
Pour des petits développeurs comme Lin Sen, une capacité insuffisante des serveurs DeepSeek est compréhensible, mais une notification anticipée aurait permis d’éviter bien des pertes, que ce soit en temps ou en coût de maintenance de l’application.
Après tout, « l’inscription au back-office développeur DeepSeek nécessite un numéro de téléphone portable ; un simple SMS pourrait informer les développeurs à l’avance ». Aujourd’hui, ces pertes doivent être assumées par les développeurs qui ont soutenu DeepSeek durant ses heures obscures.
Lorsqu’un développeur est profondément lié à une plateforme de grands modèles, la stabilité devient incontestablement un contrat implicite. Une interface de service instable suffit à remettre en question la fidélité du développeur envers la plateforme.
L’année dernière, lorsque Lin Sen a appelé le grand modèle Mistral (entreprise française leader), il a été facturé deux fois à cause d’une erreur dans le système de facturation. Moins d’une heure après avoir envoyé un courriel, Mistral a corrigé le problème et lui a offert un bon d’achat de 100 euros en compensation. Cette réaction a renforcé la confiance de Lin Sen. Aujourd’hui, il a même réaffecté une partie de ses services vers Mistral.
Yang Huichao, directeur technique d’Yibiao AI, envisageait déjà de fuir DeepSeek après la sortie de la version V3.
Plutôt que d'utiliser DeepSeek pour écrire des poèmes ou critiquer, que se passerait-il s’il servait à rédiger des offres ? Après la sortie de la version V3, Yang Huichao, responsable du projet d’offres d’IA au sein de l’entreprise, a commencé à chercher des solutions alternatives. Pour lui, dans des domaines professionnels comme la rédaction d’offres, « la stabilité de DeepSeek diminue de plus en plus ».
La capacité de raisonnement remarquable de la version DeepSeek R1 ne séduit pas Yang Huichao. Après tout, « en tant que développeur, la principale capacité de raisonnement du logiciel repose sur les programmes et algorithmes, pas trop sur les capacités fondamentales du modèle. Même en utilisant le plus ancien GPT 3.5 en fond, on peut obtenir d’excellents résultats grâce à des algorithmes correcteurs. Il suffit que le modèle fournisse des réponses stables ».
Dans l’usage pratique, DeepSeek ressemble davantage, aux yeux de Yang Huichao, à un « élève doué mais paresseux ».
Après la mise à niveau vers la version V3, Yang Huichao a constaté que DeepSeek réussissait mieux à répondre à certaines questions complexes, mais que sa stabilité avait atteint un niveau inacceptable : « Maintenant, sur 10 questions posées, au moins une réponse est instable. Souvent, DeepSeek aime s’exprimer librement, ajoutant du contenu supplémentaire non pertinent par rapport à la question. »
Par exemple, les offres ne doivent contenir aucun caractère erroné. De plus, les développeurs exigent souvent que les résultats retournés par le grand modèle soient formatés en structure Json (via des instructions spécifiques à chaque appel pour garantir un retour stable avec des champs fixes), facilitant ainsi les appels ultérieurs aux fonctions. Tout résultat erroné ou imprécis entraîne alors l’échec des appels suivants.
« DeepSeek R1, comparé à la précédente version V3, a peut-être considérablement amélioré ses capacités de raisonnement, mais sa stabilité n’atteint pas encore le niveau requis pour une commercialisation. » a souligné Yang Huichao sur le compte @productivitéMark.

Légende : apparition de caractères illisibles lors de la génération par DeepSeek V3. Source : compte @productivitéMark
Utilisateur parmi les premiers à rejoindre DeepSeek dès le début 2024, à l’époque DeepSeek-coder, Yang Huichao ne nie pas que DeepSeek est un bon élève, mais aujourd’hui, pour garantir la qualité et la stabilité de la génération d’offres, il doit porter son regard vers d'autres entreprises chinoises de grands modèles plus orientées vers les clients B2B.
Après tout, DeepSeek, autrefois surnommé le « Pinduoduo de l’IA », a rapidement rassemblé une foule de petits et moyens développeurs IA grâce à son excellent rapport qualité-prix. Mais aujourd’hui, pour appeler DeepSeek de manière stable et directe, il faut nécessairement procéder à un déploiement local. « Déployer un DeepSeek R1 coûte entre 300 000 et 400 000 yuans. Si je calcule selon l’API en ligne, 300 000 yuans me suffiraient pour toute ma vie. »
À la fois pas assez bon marché, pas assez stable, et inaccessible, Yang Huichao et d’autres comme lui quittent massivement DeepSeek.
II
Au départ, Lin Sen et ses pairs étaient les premiers à choisir fermement DeepSeek.
En juin 2024, en développant son mini-programme IA « Jeunesse écoute le monde », Lin Sen a comparé des dizaines de plateformes de grands modèles nationaux et internationaux. Il devait utiliser un grand modèle pour traiter quotidiennement des milliers de nouvelles, les filtrer, les classer, identifier celles adaptées aux adolescents concernant la technologie et la nature, puis retravailler le texte.
Cela exigeait non seulement un modèle intelligent, mais aussi économique.
Le traitement quotidien de milliers de nouvelles consomme énormément de tokens. Pour un développeur indépendant comme Lin Sen, le modèle ChatGPT est trop cher, convenant uniquement aux processus centraux. Le tri rapide et l’analyse de grandes quantités de textes doivent être supportés par d’autres modèles moins coûteux.
De plus, que ce soit Mistral, Gemini ou ChatGPT à l’étranger, les appels sont fastidieux : vous devez disposer d’un serveur spécifique à l’étranger, créer une station-relais, et utiliser une carte de crédit étrangère pour acheter des tokens.
C’est grâce à la carte de crédit d’un ami britannique que Lin Sen a pu recharger son compte ChatGPT. Et une fois le serveur à l’étranger, la vitesse de réponse de l’API subit des retards. Tout cela a conduit Lin Sen à chercher en Chine un substitut efficace à ChatGPT.
DeepSeek l’a vivement impressionné. « À l’époque, DeepSeek n’était pas le plus célèbre, mais c’était celui dont les retours étaient les plus stables. » En prenant l'exemple d'une requête API toutes les 10 secondes, d'autres grands modèles chinois peuvent dans 30 % des cas sur 100 tentatives ne rien retourner, alors que DeepSeek répondait à chaque fois, tout en maintenant une qualité de réponse comparable à ChatGPT ou aux grands modèles des géants BAT.
Et par rapport aux prix des API de ChatGPT et des grands modèles des BAT, DeepSeek était vraiment bon marché.
Après avoir confié à DeepSeek le traitement et l'analyse initiale de nombreuses actualités, Lin Sen a découvert que le coût d'appel était 10 fois inférieur à celui de ChatGPT. Après optimisation des instructions, le coût quotidien d'appel à DeepSeek descendait à 2-3 yuans, « comparé à ChatGPT, ce n’est peut-être pas le meilleur, mais le prix de DeepSeek est extrêmement bas. Pour mon projet, le rapport qualité-prix est exceptionnel. »

Légende : Lin Sen utilise un grand modèle pour collecter et analyser les actualités (gauche), puis les présente finalement dans le mini-programme « Jeunesse écoute le monde » (droite). Source : fournie par Lin Sen
Le rapport qualité-prix est devenu la raison principale pour laquelle les développeurs choisissent DeepSeek. En 2023, Yang Huichao a d’abord fait basculer le projet d’IA de son entreprise de ChatGPT vers Mistral, principalement pour contrôler les coûts. Puis, en mai 2024, DeepSeek a lancé sa version V2, abaissant le prix de l’API à 2 yuans par million de tokens, un coup de tonnerre dévastateur pour les autres fabricants de grands modèles, ce qui a incité Yang Huichao à migrer le projet de son entreprise vers DeepSeek.
En outre, après tests, Yang Huichao a constaté que les géants BAT, déjà bien implantés sur le marché B2B grâce à leurs services cloud, avaient des « plateformes trop lourdes ».
Pour une startup comme Yibiao AI, choisir les BAT impliquait une consommation forcée liée aux services cloud. Pour Yang Huichao, qui n’a besoin que d’un simple appel au service du grand modèle, l’API DeepSeek est nettement plus pratique.
Sur le plan du coût de migration, DeepSeek l’emporte également.
Tant Lin Sen que Yang Huichao ont conçu leurs applications initialement selon l’interface OpenAI. Basculer vers les grands modèles des BAT aurait nécessité de tout reconstruire en profondeur. Mais DeepSeek étant compatible avec les interfaces de type OpenAI, le changement de modèle se fait simplement en modifiant l’adresse de la plateforme : « Migration indolore en une minute. »
Le premier jour de vente officielle du dispositif de questions-réponses IA Xiaochuang, DeepSeek était déjà embarqué, et les rôles de base chinoise et d’accompagnement à la rédaction ont été confiés à DeepSeek.
En tant qu’associé, Lou Chi a été impressionné par DeepSeek dès juin dernier. « DeepSeek excelle dans la compréhension du chinois, c’était le seul grand modèle à l’époque capable de réciter intégralement sans erreur le "Mémorial de la tour Yueyang". » Lou Chi confie à Alphabang que comparé aux sorties documentaires standard et ternes des autres grands modèles, l’enseignement de la rédaction aux enfants avec DeepSeek gagne souvent par l’imagination.
Avant que DeepSeek ne devienne populaire sur les réseaux sociaux pour écrire des poèmes ou des romans de science-fiction, son style littéraire élaboré avait déjà ébloui l’équipe de Xiaochuang AI.
Pour les développeurs, ils espèrent encore que DeepSeek rétablisse les appels. Pour l’instant, que ce soit migrer vers des plateformes BAT ayant déployé la version complète DeepSeek R1, ou vers d’autres fournisseurs de grands modèles, tout cela semble être une forme de « substitution imparfaite ».
III
Mais les concurrents s’efforcent activement de combler la spécialité phare de DeepSeek : le raisonnement approfondi.
En Chine, Baidu et Tencent ont récemment intégré progressivement des capacités de réflexion approfondie à leurs propres grands modèles. À l’étranger, OpenAI a lancé d’urgence en février une fonctionnalité « Deep Research », utilisant les capacités de raisonnement du grand modèle pour la recherche en ligne, accessible aux utilisateurs Pro, Plus et Team. Le laboratoire d’intelligence artificielle de Google (Google DeepMind) a également publié en février la série de modèles Gemini 2.0, dont la version expérimentale 2.0 Flash Thinking est un modèle doté de capacités de raisonnement améliorées.
À noter que DeepSeek reste principalement centré sur la lecture de texte, tandis que ChatGPT et Gemini 2.0 intègrent désormais leurs capacités de raisonnement à la multimodalité, prenant en charge divers modes d’entrée comme vidéo, voix, documents et images.
Pour DeepSeek, outre le rattrapage en multimodalité, un défi encore plus grand vient de la concurrence croissante sur les prix.
Côté déploiement sur les plateformes cloud, plusieurs grands fournisseurs cloud ont choisi d’intégrer DeepSeek, divisant ainsi le trafic tout en attachant les clients via leurs services cloud. L’appel au grand modèle DeepSeek devient en quelque sorte un « bonus » pour fidéliser les clients aux services cloud d’entreprise.
Récemment, Li Yanhong, fondateur de Baidu, a affirmé que dans le domaine des grands modèles linguistiques, « tous les 12 mois, le coût de raisonnement peut baisser de plus de 90 % ».
Avec cette tendance à la baisse des coûts de raisonnement, la diminution continue des prix d’appel API des BAT est inévitable. L’avantage de DeepSeek en termes de rapport qualité-prix subit désormais la pression d’une nouvelle guerre des prix menée par les grands groupes.
Néanmoins, la guerre des prix sur les API de grands modèles ne fait que commencer. Face aux développeurs, les fournisseurs de grands modèles rivalisent aussi en termes de service.

Lin Sen a testé de nombreuses plateformes de grands modèles, petites et grandes. Ce qui l’a marqué, c’est qu’une grande entreprise technologique met à disposition un chargé de clientèle dédié, qui contacte activement les développeurs en cas d’instabilité ou de problème technique.
Pourtant, bien qu’en tant que plateforme open source de grands modèles, DeepSeek vise à fournir un soutien IA plus inclusif aux développeurs, il n’offre même pas d’entrée pour émettre des factures aux développeurs sur son site officiel.
« Après chaque rechargement API, contrairement aux autres plateformes de grands modèles qui permettent d’émettre directement une facture depuis l’arrière-plan, DeepSeek oblige à sortir du site, ajouter le WeChat d’entreprise du service client pour obtenir la facture », explique Yang Huichao à Alphabang. Que ce soit sur le plan des prix ou du service, l’étiquette de « rapport qualité-prix » de DeepSeek semble désormais difficile à tenir.
Un chef de produit AI d’une grande entreprise internet indique à Alphabang que certains chefs d’entreprise persistent à remplacer leurs grands modèles existants par DeepSeek, sans se soucier du temps perdu à réajuster les prompts. En outre, même la version complète DeepSeek R1 ne prend pas en charge certaines fonctionnalités générales comme Function calling.
Comparé aux géants BAT qui ont maîtrisé les scénarios B2B via les services cloud, DeepSeek reste encore en retard en termes de commodité.
Mais l’effet de trafic de DeepSeek n’a pas encore disparu, attirant toujours de nombreux opportunistes.
Certaines entreprises prétendent avoir intégré DeepSeek, alors qu’elles viennent juste d’appeler l’API après un rechargement de quelques centaines de yuans. D’autres annoncent avoir déployé le modèle DeepSeek, mais en réalité, leurs employés n’ont fait que regarder un tutoriel sur Bilibili et télécharger un package d’installation automatique. Dans cette vague de frénésie autour de DeepSeek, le bon grain côtoie l’ivraie.
La marée finira par se retirer, mais DeepSeek a clairement encore beaucoup de travail à accomplir.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














