
「豆包」拉低價格線,全球大模型開卷性價比
TechFlow Selected深潮精選

「豆包」拉低價格線,全球大模型開卷性價比
豆包以高性價比亮相之前,通義千問、智普 AI、DeepSeek 等國內很多大模型都開始「卷」起價格。
撰文:木沐
大模型也開始打起價格戰。
5 月 15 日,字節跳動旗下火山引擎發佈豆包大模型,除了針對 C 端用戶的豆包 APP 可免費使用該模型的應用外,豆包大模型將 B 端用價拉至行業最低。
按照火山引擎總裁譚待的說法,豆包主力模型(≤32K)在企業市場的定價只有 0.0008 元 / 千 Tokens,0.8 釐就能處理 1500 多個漢字,比行業便宜 99.3%。
豆包以高性價比亮相之前,通義千問、智普 AI、DeepSeek 等國內很多大模型都開始「卷」起價格,百模大戰也隨著集體降價進入了新階段。正如譚待所說,降低成本是推動大模型快進到「價值創造階段」的一個關鍵因素。
「豆包」將 B 端用價拉至行業新低
豆包大模型的前身是雲雀大模型,也是 2023 年 8 月字節跳動旗下發布的首個基於 Transformer 架構的大模型。半年後,豆包大模型不僅出了全家桶,還將針對行業 B 端用戶降價。
豆包主力模型在企業市場的定價只有 0.0008 元 / 千 Tokens,0.8 釐就能處理 1500 多個漢字,比行業便宜 99.3%。據此計算,1 塊錢就能買到豆包主力模型的 125 萬 Tokens 的用量,大約為 200 萬個漢字,相當於三本《三國演義》。而 128K 的豆包通用模型也只需要 0.005 元 / 千 Tokens,比行業價格低 95.8%。
要知道 GPT-4 Turbo 輸入 1000 Tokens 為 0.01 美元,輸出 1000 Tokens 價格為 0.21 元。相比之下,字節跳動直接把價格「打骨折」,堪稱 AI 界的拼多多。
不止「豆包」,國內不少大模型都在降價。
不久前,百度發佈了文心大模型輕量版,其中 ERNIE Tiny 版本的價格降到了 0.001 元每千 Tokens,相當於 1 元 100 萬 Tokens。
今年 5 月,智譜 AI 的大模型商用價格也大幅降價。入門級產品 GLM-3 Turbo 模型調用價格下調 80%,從 5 元 / 百萬 Tokens 降至 1 元 / 百萬 Tokens,足以讓更多企業和個人都能用上這款入門級產品。
智譜 AI 的大模型的價格
5 月 6 日,國內知名私募巨頭幻方量化旗下的 AI 公司 DeepSeek 發佈全新第二代 MoE 大模型 DeepSeek-V2,DeepSeek-V2 API 定價為每百萬 Tokens 輸入 1 元、輸出 2 元(32K 上下文)。
5 月 9 日,阿里雲正式發佈通義千問 2.5,根據 OpenCompass 的測評結果,通義千問 2.5 得分追平 GPT-4 Turbo,與此同時,個人用戶可從 App、官網和小程序免費使用。
5 月 14 日,騰訊的混元文生圖大模型直接開源,免費商用。
在海外,OpenAI 剛剛發佈的 GPT-4o 也大幅度降價,不僅供所有用戶免費使用,在 API 調用方面也比去年 11 月發佈的 GPT-4-turbo 降價一半,但速度提升兩倍。這是 OpenAI 大模型產品的第三次降價。
法國人工智能企業 Mistral AI 大模型 Mistral Large 的輸入、輸出價格目前也比 GPT-4 Turbo 便宜約 20%,一度引起廣泛關注。
無論國內還是海外,大模型正在集體降價。
大模型降本 應用落地增效
各個廠商「價格戰」已經開打,而在大半年前,人們獲知的常識是大模型訓練很燒錢,為何僅僅半年時間,廠商們就能將價格「打下來」、紛紛捲了起來?
火山引擎總裁譚待認為,降低成本是推動大模型快進到「價值創造階段」的一個關鍵因素。對於中小型企業客戶而言,調用大模型的一個重要考慮就是成本。譚待透露,字節跳動在模型結構、訓練、生產等各種技術層面有很多優化手段能夠實現降價。
OpenAI CEO Sam Altman 也為人們不用在 ChatGPT 上看廣告就能使用它而感到驕傲, 「我們的一個關鍵使命就是將 AI 產品免費提供給人們。」
的確,低價正在幫助大模型研發企業抓住市場機會,以佔據一席之地。而用戶體量的增加也能反過來幫助研發訓練出更好模型。那麼,大模型的訓練成本真的降低了嗎?
去年 GPT-4 發佈時,Sam Altman 曾透露,OpenAI 最大模型的訓練成本「遠遠超過了 5000 萬美元」。據斯坦福大學發佈的《2024 年人工智能指數報告》估算,OpenAI 的 GPT-4 訓練成本為 7800 萬美元。
高昂的大模型訓練成本也直接推高的使用費用,直接將很多企業用戶阻攔在外。
不過,研究人員們正在尋找更低成本的訓練方法。去年,新加坡國立大學和清華大學的研究者提出了一個名為 VPGTrans 框架,以極低成本訓練高性能多模態大模型,相比於從頭訓練視覺模塊,VPGTrans 框架可以將 BLIP-2 FlanT5-XXL 的訓練開銷從 19000 + 人民幣縮減到不到 1000 元。
國產大模型中,研發人員也各個方面找到降本增效的辦法。DeepSeek-V2 提升數據集質量、優化架構後,AI 異構計算平臺「百舸」將訓練和推理場景的吞吐量最高提升 30% 和 60%。
除了訓練過程外,一些大模型訓練的基礎設施——芯片也在降價,比如英偉達 AI 芯片 Nvidia A100 的降價直接將大模型訓練成本降低了約 60%。
大模型價格戰最直接的影響就是應用落地開始提速。豆包平臺上,已經有超過 800 萬個智能體被創建。GPT Store 已有超過 300 萬個依託 GPT 模型的 APP 被創建。
僅半年時間,砸錢拼大模型性能的時代似乎已經是過去式。現如今,市場用戶也隨著各家大模型的降價更看重誰家大模型又實惠又好用。這將推動大模型應用更快在場景和商業上實現落地。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News










