
「ドウバオ」が価格ラインを引き下げ、世界の大型モデルがコストパフォーマンス競争に突入
TechFlow厳選深潮セレクト

「ドウバオ」が価格ラインを引き下げ、世界の大型モデルがコストパフォーマンス競争に突入
豆包が高コストパフォーマンスで登場する以前に、通義千問や智譜AI、DeepSeekなど、国内の多くの大規模モデルがすでに価格競争を始めていた。
執筆:木沐
大規模モデルも価格競争に突入した。
5月15日、字節跳動傘下の火山エンジンは「豆包」大規模モデルを発表した。C向けユーザーが無料で利用可能な「豆包」アプリに加え、B向け市場での価格も業界最低水準に引き下げた。
火山エンジン社長の譚待氏によると、豆包主力モデル(≤32K)の企業市場価格はわずか0.0008元/千トークンであり、0.8厘で1500字以上の漢字を処理でき、業界比99.3%安価であるという。
豆包が高コストパフォーマンスで登場する以前から、通義千問や智普AI、DeepSeekなど中国国内の大手大規模モデル各社はすでに価格競争に入っていた。百モデル戦争も一斉値下げにより新たな段階に入った。譚待氏が述べたように、「コスト削減」は大規模モデルを「価値創造フェーズ」へと加速させる鍵となる要因なのである。
「豆包」がB向け価格を業界新低に引き下げ
豆包大規模モデルの前身は、2023年8月に字節跳動がリリースした初のTransformerアーキテクチャベースの大規模モデル「雲雀(Yunque)」である。それから半年後、豆包大規模モデルはフルラインナップを展開するとともに、産業向けB顧客への価格引き下げを実施した。
豆包主力モデルの企業市場価格は0.0008元/千トークンにまで低下し、0.8厘で1500字以上の漢字を処理できる。これは業界比99.3%安い水準だ。この価格に基づき計算すると、1元で125万トークンの使用量が得られ、約200万漢字に相当し、『三国志演義』3冊分に匹敵する。また、128K版の汎用モデルも0.005元/千トークンに設定され、業界平均より95.8%安い。
GPT-4 Turboの場合、1000トークンの入力が0.01米ドル、出力が0.021元であることを考えれば、字節跳動の価格破壊はまさにAI業界の「拼多多」と呼べよう。
「豆包」だけでなく、中国国内の多くの大規模モデルも続々と価格引き下げを進めている。
先日、百度は文心大規模モデルのライトバージョンを発表し、ERNIE Tiny版の価格を千トークンあたり0.001元にまで引き下げた。つまり、1元で100万トークン利用可能となった。
今年5月、智普AIも大規模モデルの商用価格を大幅に引き下げた。エントリーモデルGLM-3 TurboのAPI呼び出し価格は80%値下げされ、従来の5元/百万トークンから1元/百万トークンとなり、個人や中小企業でも気軽に利用できるようになった。
智普AIの大規模モデル価格
5月6日、中国の著名なプライベートエクイティファンド「幻方量化」傘下のAI企業DeepSeekは、第二世代MoE型大規模モデル「DeepSeek-V2」を発表。DeepSeek-V2のAPI価格は、入力百万トークン1元、出力百万トークン2元(32Kコンテキスト)となった。
5月9日、アリババクラウドは正式に通義千問2.5をリリース。OpenCompassによる評価結果では、GPT-4 Turboと同点を記録。個人ユーザーはアプリ、公式サイト、ミニプログラムから無料で利用可能となった。
5月14日、テンセントの混元文生成画像モデルがオープンソース化され、商用利用も無料となった。
海外でも、OpenAIが最近発表したGPT-4oは大幅に価格を引き下げ、すべてのユーザーが無料で利用できるだけでなく、API呼び出し価格も昨年11月のGPT-4-turbo比で半額になった一方、速度は2倍に向上した。これはOpenAIの大規模モデル製品として3度目の値下げである。
フランスのAI企業Mistral AIが提供する大規模モデル「Mistral Large」も、現在の入出力価格がGPT-4 Turboより約20%安く、大きな注目を集めている。
国内・海外を問わず、大規模モデルは集団的に価格を下げている。
大規模モデルのコスト削減でアプリケーションの実用化と効率向上が加速
各ベンダー間の「価格戦争」が始まっているが、ほんの半年前までは「大規模モデルの学習には巨額の費用がかかる」というのが常識だった。なぜこれほど短期間に価格を引き下げ、激しい競争に突入できたのか?
火山エンジンの譚待社長は、「コスト削減」こそが大規模モデルを「価値創造フェーズ」へと急加速させる鍵だと指摘する。中小企業にとって、大規模モデルの導入における最大の関心事はコストだ。譚待氏は、字節跳動がモデル構造、学習、生産プロセスなどの技術面で多数の最適化手段を活用しているため価格引き下げが可能になると明かした。
OpenAI CEOのSam Altmanも、「ChatGPTで広告を見せずに済むことに誇りを持っている。私たちの重要なミッションの一つは、人々にAI製品を無料で提供することだ」と語った。
確かに、低価格は大規模モデル開発企業が市場機会を掴み、地位を確立する上で有効な戦略となっている。一方で、ユーザー数の増加は逆により優れたモデルの開発・訓練を支援する好循環を生む。だが、果たして大規模モデルの学習コストは本当に下がったのだろうか?
昨年GPT-4発表時、Sam Altmanは「当社最大モデルの学習コストは5000万米ドルを大きく超えた」と明かしていた。スタンフォード大学が発表した『2024年人工知能指数レポート』では、OpenAIのGPT-4の学習コストは7800万米ドルと推定されている。
この高額な学習コストが直接的に利用料金を押し上げ、多くの企業ユーザーを排除してきたのである。
しかし研究者たちは、より低コストな学習手法の開発に取り組んでいる。昨年、シンガポール国立大学と清華大学の研究者が提案したVPGTransフレームワークは、高性能マルチモーダル大規模モデルを極めて低いコストで学習可能にするもので、視覚モジュールをゼロから学習する場合に比べ、BLIP-2 FlanT5-XXLの学習コストを19,000元以上から1,000元未満にまで削減できる。
中国国内の大規模モデルにおいても、研究者はさまざまな側面からコスト削減と効率向上の方法を探っている。DeepSeek-V2はデータセットの品質向上とアーキテクチャの最適化により、AI異種計算プラットフォーム「百舸」上で、学習および推論のスループットを最大でそれぞれ30%、60%向上させた。
学習プロセス以外にも、大規模モデルのインフラであるチップの価格も下落している。例えば、NVIDIAのAIチップA100の価格下落により、大規模モデルの学習コストは約60%削減された。
大規模モデルの価格競争がもたらす最も直接的な影響は、アプリケーションの実用化スピードの加速である。「豆包」プラットフォーム上では、すでに800万を超えるスマートエージェントが作成されている。GPT Storeでは、GPTモデルを活用したアプリが300万以上登録されている。
わずか半年で、性能だけを追求して資金を投入する時代は終わりを告げた。今や市場とユーザーは、どの大規模モデルがより安くて使いやすいかを重視するようになっている。これにより、大規模モデルのシーンごとの応用とビジネス実装がさらに加速されるだろう。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News










