
« DouBao » réduit les prix, déclenchant une course à la rentabilité des grands modèles mondiaux
TechFlow SélectionTechFlow Sélection

« DouBao » réduit les prix, déclenchant une course à la rentabilité des grands modèles mondiaux
Avant que DouBao n'apparaisse avec un excellent rapport qualité-prix, de nombreux grands modèles nationaux tels que Qwen (Tongyi Qianwen), Zhipu AI et DeepSeek avaient déjà commencé à s'engager dans une compétition sur les prix.
Par Mu Mu
Les grands modèles entrent désormais dans une guerre des prix.
Le 15 mai, Volc Engine, filiale de ByteDance, a lancé le grand modèle DouBao. En plus de l'application DouBao gratuite pour les utilisateurs grand public (C), le modèle est proposé aux entreprises (B) au prix le plus bas du secteur.
Selon Tan Dai, président de Volc Engine, le prix du modèle principal (≤32K) sur le marché entreprise est fixé à seulement 0,0008 yuan par mille tokens, soit 0,8 centime pour traiter plus de 1500 caractères chinois, ce qui représente une réduction de 99,3 % par rapport aux tarifs habituels du secteur.
Avant même que DouBao ne se positionne comme une solution hautement rentable, de nombreux grands modèles chinois tels que Qwen d’Alibaba, Zhipu AI ou DeepSeek avaient déjà commencé à « s’affronter » sur les prix. La bataille entre centaines de modèles entre ainsi dans une nouvelle phase marquée par une baisse généralisée. Comme l’a souligné Tan Dai, la réduction des coûts constitue un facteur clé pour accélérer l’entrée des grands modèles dans une « phase de création de valeur ».
DouBao fixe un nouveau plancher des prix pour les clients professionnels
Le prédécesseur du modèle DouBao était le modèle Yunque, premier grand modèle basé sur l’architecture Transformer lancé par ByteDance en août 2023. Six mois plus tard, non seulement DouBao propose désormais une gamme complète de produits, mais il applique également des baisses de prix ciblées pour les entreprises.
Le modèle principal DouBao est proposé aux entreprises à 0,0008 yuan par mille tokens : avec 0,8 centime, on peut traiter plus de 1500 caractères chinois, soit une économie de 99,3 % par rapport au reste du marché. Sur cette base, 1 yuan permet d’utiliser jusqu’à 1,25 million de tokens du modèle principal, soit environ 2 millions de caractères chinois – l’équivalent de trois fois le roman classique « Le Roman des Trois Royaumes ». Quant au modèle généraliste DouBao en version 128K, son prix s’élève à 0,005 yuan par mille tokens, soit une réduction de 95,8 % par rapport aux prix standards.
Pour comparaison, GPT-4 Turbo coûte 0,01 dollar américain pour 1000 tokens en entrée et 0,21 yuan pour 1000 tokens en sortie. ByteDance impose ici des tarifs radicalement revus à la baisse, à tel point qu’on pourrait qualifier sa stratégie de « Pinduoduo de l’intelligence artificielle ».
DouBao n’est pas seul : de nombreux autres grands modèles chinois connaissent aussi une forte déflation.
Récemment, Baidu a publié une version allégée de son modèle Ernie, dont la variante ERNIE Tiny voit son prix tombé à 0,001 yuan par mille tokens, autrement dit 1 yuan pour 1 million de tokens.
En mai dernier, Zhipu AI a également fortement réduit ses tarifs commerciaux : le modèle d’entrée de gamme GLM-3 Turbo a vu son prix diminuer de 80 %, passant de 5 yuan par million de tokens à 1 yuan par million de tokens, rendant ainsi accessible ce produit à davantage d’entreprises et particuliers.
Les tarifs des grands modèles de Zhipu AI
Le 6 mai, DeepSeek, société d’intelligence artificielle appartenant au fonds quantitatif chinois High-Flyer, a lancé sa toute nouvelle deuxième génération de modèle MoE, DeepSeek-V2. L’API DeepSeek-V2 est tarifée à 1 yuan par million de tokens en entrée et 2 yuan en sortie (contexte 32K).
Le 9 mai, Alibaba Cloud a officiellement sorti Qwen 2.5. Selon les résultats d’évaluation d’OpenCompass, Qwen 2.5 atteint le même niveau que GPT-4 Turbo. Par ailleurs, les utilisateurs individuels peuvent l’utiliser gratuitement via l’application mobile, le site web ou les mini-programmes.
Le 14 mai, Tencent a carrément rendu open source son modèle génératif d’images HunYuan-DiT, autorisant son utilisation commerciale gratuite.
À l’international, OpenAI vient également de publier GPT-4o avec une baisse significative des prix : non seulement il est gratuit pour tous les utilisateurs, mais son API est aussi deux fois moins chère qu’elle ne l’était en novembre dernier avec GPT-4-turbo, tout en étant deux fois plus rapide. Il s’agit de la troisième baisse de prix consécutive des produits grand modèle d’OpenAI.
Le modèle Mistral Large de l’entreprise française d’intelligence artificielle Mistral AI affiche actuellement des prix d’entrée et de sortie inférieurs d’environ 20 % à ceux de GPT-4 Turbo, attirant ainsi une attention considérable.
Que ce soit en Chine ou à l’étranger, les grands modèles connaissent donc une baisse collective de leurs prix.
Réduction des coûts des grands modèles : accélération du déploiement applicatif
La guerre des prix fait rage entre les différents fabricants. Pourtant, il y a encore quelques mois à peine, la conviction dominante était que l’entraînement des grands modèles coûtait extrêmement cher. Comment, alors, ces entreprises ont-elles pu si rapidement réduire leurs prix et entamer cette spirale concurrentielle ?
Tan Dai, président de Volc Engine, estime que la réduction des coûts est un facteur clé pour propulser rapidement les grands modèles vers une « phase de création de valeur ». Pour les petites et moyennes entreprises, le coût d’utilisation d’un grand modèle est un critère essentiel. Tan Dai précise que ByteDance a mis en œuvre de nombreuses optimisations techniques au niveau de l’architecture du modèle, de l’entraînement et de la production, permettant ainsi de proposer des tarifs réduits.
Sam Altman, PDG d’OpenAI, s’enorgueillit lui aussi que les utilisateurs puissent utiliser ChatGPT sans voir de publicité : « L’une de nos missions essentielles est de fournir gratuitement les produits d’intelligence artificielle au grand public. »
En effet, les prix bas aident les entreprises spécialisées dans les grands modèles à saisir des opportunités de marché et à s’y implanter durablement. En retour, l’augmentation du nombre d’utilisateurs permet également d’améliorer continuellement les modèles grâce aux données collectées. Mais alors, les coûts d’entraînement des grands modèles ont-ils vraiment baissé ?
Lors de la sortie de GPT-4 l’an dernier, Sam Altman avait indiqué que le coût d’entraînement du plus grand modèle d’OpenAI « dépassait largement les 50 millions de dollars ». Selon l’« Indice de l’intelligence artificielle 2024 » publié par l’université de Stanford, le coût d’entraînement de GPT-4 serait de 78 millions de dollars.
Ce coût élevé d’entraînement a directement entraîné des tarifs élevés à l’utilisation, excluant de fait de nombreux clients professionnels.
Toutefois, les chercheurs explorent activement des méthodes d’entraînement à moindre coût. L’an dernier, des chercheurs de l’université nationale de Singapour et de l’université Tsinghua ont proposé un cadre appelé VPGTrans, permettant d’entraîner des modèles multimodaux performants à très faible coût. Comparé à un entraînement complet du module visuel, ce cadre permettrait de ramener les coûts d’entraînement de BLIP-2 FlanT5-XXL de plus de 19 000 yuans à moins de 1000 yuans.
Du côté des grands modèles chinois, les équipes de R&D ont également trouvé divers moyens de réduire les coûts tout en améliorant les performances. Après avoir amélioré la qualité du jeu de données et optimisé l’architecture, la plateforme d’informatique hétérogène « Baige » a permis à DeepSeek-V2 d’augmenter jusqu’à 30 % et 60 % le débit dans les scénarios d’entraînement et d’inférence respectivement.
En dehors de l’entraînement lui-même, certains composants critiques de l’infrastructure, comme les puces, connaissent aussi une baisse de prix. Par exemple, la baisse du prix de la puce IA Nvidia A100 a permis de réduire directement d’environ 60 % le coût d’entraînement des grands modèles.
L’effet le plus direct de cette guerre des prix est une accélération du déploiement des applications. Sur la plateforme DouBao, plus de 8 millions d’agents intelligents ont déjà été créés. Sur GPT Store, plus de 3 millions d’applications basées sur les modèles GPT ont été développées.
En seulement six mois, l’ère où l’on investissait massivement pour faire briller la performance des grands modèles semble révolue. Désormais, face à la baisse généralisée des prix, les utilisateurs accordent davantage d’importance à la combinaison « bon marché ET efficace ». Cette dynamique va inévitablement accélérer l’intégration des grands modèles dans des cas d’usage concrets et leur monétisation.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News










