
一文讀懂 AI 存儲層級的利潤池與產業格局
TechFlow Selected深潮精選

一文讀懂 AI 存儲層級的利潤池與產業格局
這三個方向,決定了未來五年每一層利潤池的形狀。
撰文:戈多 Godot
AI 存儲可以拆成六層,
1)片上 SRAM
2)HBM
3)主板 DRAM
4)CXL 池化層
5)企業級 SSD
6)NAS 與雲對象存儲
這個層級是根據存儲所在位置分的,越往下離計算單元越遠,存儲量越大。
2025 年這六層(SRAM 在算力芯片上,需剔除嵌入價值)總盤子約 2290 億美元,其中 DRAM 佔一半、HBM 佔 15%、SSD 佔 11%。
利潤情況,每一層都極度寡頭集中,前三普遍市佔率超 90%。
可以把這些利潤池分成三類,
1)硅片層的高毛利寡佔池(HBM、嵌入式 SRAM、QLC SSD)
2)互連層的高毛利新興池(CXL)
3)服務層的規模化複利池(NAS、雲對象存儲)
三類池子性質不同、增速不同、護城河也不同。
存儲為什麼會分層?
因為負責控制的 CPU 和負責計算的 GPU 芯片上,只有臨時的緩存,也就是 SRAM 片上緩存。這個緩存空間太小了,只能放點臨時參數,放不下大模型。
在這倆芯片外,就需要外接更大的內存在存儲大模型,還有推理的上下文。
算是很快的,數據在不同存儲層級之間搬運有延遲和能耗,這才是最大的問題。
所以,目前三個方向,
1)堆 HBM,把內存堆到 GPU 旁邊,縮短搬運距離
2)CXL 把內存池化到機架級,共享容量
3)計算和存儲焊在同一顆晶圓上,存算一體
這三個方向,決定了未來五年每一層利潤池的形狀。
以下是具體分層,
L0 片上 SRAM:獨屬臺積電的利潤池
SRAM(Static Random-access Memory,靜態隨機存儲)是 CPU/GPU 內部的緩存,嵌在每顆芯片裡,不單獨交易。
獨立 SRAM 晶片市場只有 10–17 億美元規模,龍頭是 Infineon(約 15%)、Renesas(約 13%)、ISSI(約 10%),市場小。
這一部分的利潤池在臺積電 TSMC,每一代 AI 芯片為了多塞 SRAM,必須買更多晶圓。
而全球先進工藝晶圓超 70% 在臺積電手裡。每一顆 H100、B200、TPU v5 等等 SRAM 面積,最終都變成了臺積電的營收。
L1 HBM:AI 時代最大的利潤池
HBM(High Bandwidth Memory,高寬帶內存)是把 DRAM(Dynamic Random-access Memory,動態隨機存儲) 用硅通孔 TSV 工藝垂直堆疊,再通過 CoWoS 封裝貼在 GPU 旁邊的高帶寬內存。
HBM 幾乎單槍匹馬決定了 AI 加速器能跑多大的模型。SK 海力士、美光 Micron、三星市佔率幾乎 100%。
截至 2026 年第一季度,最新的市場份額格局為:SK 海力士 57% 至 62%、三星 22%、美光 21%,SK 海力士拿下了 NVIDIA 等企業的大量採購份額,是當前佔據主導地位的供應商。
美光 2026 財年第一季度財報電話會議提到,HBM TAM(總潛在市場)將以約 40% 的複合年增長率增長,從 2025 年的約 350 億美元增長至 2028 年的 1000 億美元,達到 1000 億美元的時間節點比之前的預測提前了兩年。
HBM 的核心優勢在於極高的利潤率。2026 年第一季度,SK 海力士的營業利潤率達到了創紀錄的 72%。
利潤高的原因,
1)TSV 製造工藝會犧牲部分傳統 DRAM 產能,使 HBM 保持供不應求狀態;
2)先進封裝良率提升困難,三星此前份額從 40% 下降至 22% 也是受此影響;
3)主要供應商擴產較為謹慎,並在 2026 年第一季度實現了 DRAM 平均售價(ASP)超 60% 的環比漲幅,顯現出明確的賣方市場地位。
三巨頭裡,SK 海力士受 HBM 強勁拉動,2025 年全年營業利潤達到 47.21 萬億韓元,歷史上首次超越三星電子,在 2026 年第一季度憑藉 72% 的營業利潤率,甚至超越了臺積電(58.1%)和 NVIDIA(65%)的盈利水平。
美光具有極高的增長預期,美國銀行(BofA)在 2026 年 5 月將其目標價大幅上調至 950 美元。三星隨著 HBM4 的量產不斷推進,擁有最大的份額回升空間。
L2 主板 DRAM
這個層級是我們通常說的內存條。
主板 DRAM 包含 DDR5、LPDDR、GDDR、MR-DIMM 等常規內存產品,目前是 AI 存儲體系中市場銷售額佔比最高的部分,2025 年全球 DRAM 市場總體規模達到了約 1218.3 億美元。
三星、SK 海力士、美光三家依然佔據絕大部分市場。根據 2025 年第四季度的最新數據,三星以 36.6% 的市場佔有率位列第一,SK 海力士以 32.9% 排名第二,美光以 22.9% 排名第三。
目前產能轉向利潤更高的 HBM,讓內存維持了高利潤和定價權。常規主板 DRAM 的單一產品利潤率雖然不及 HBM,但其整體市場規模最大。
L3 CXL 池化層
CXL(Compute Express Link)允許把 DRAM 從單臺服務器主板“池化”到整個機架。
CXL 3.x 之後,未來一個機櫃裡所有的內存可以被多個 GPU 共享調度,按需分配。解決 AI 推理時 KV cache、向量數據庫、RAG 索引裝不下也搬不動的問題。
CXL 內存模塊 2024 年僅 16 億美元,2033 年預計 237 億美元。看起來,還是三星、SK 海力士、美光的寡頭格局。
這層裡 Astera Labs 做的是 CXL 與 PCIe 之間的重定時器(Retimer)和智能內存控制器,佔該子市場約 55% 份額。最新一季營收 3.08 億美元、同比 +93%,非 GAAP 毛利率 76.4%,淨利潤同比 +85%。相當暴利可以說是。
L4 企業級 SSD:推理時代的最大受益者
企業級 NVMe SSD 是 AI 訓練 checkpoint、RAG 索引、KV cache offload、模型權重緩存的主戰場。QLC 大容量 SSD 已經把 HDD 從 AI 數據湖裡徹底擠出。
2025 年企業級 SSD 市場約 261 億美元,CAGR 24%,2030 年預計 760 億美元。
格局嘛,沒錯,還是三巨頭把持。
市場份額按 2025 Q4 營收計算,三星 36.9%、SK 海力士(含 Solidigm)32.9%、美光 14.0%、Kioxia 11.7%、SanDisk 4.4%。前五合計約 90%。
這一層最大的變化是 QLC SSD 在 AI 推理場景中的爆發。海力士子公司 Solidigm 與 Kioxia 已經做出 122 TB 單碟容量的產品,AI 推理的 KV cache 與 RAG 索引正從 HBM 外溢到 SSD。
利潤池角度看,企業級 SSD 沒有 HBM 那麼極致的毛利率,但享受容量驅動 + 推理擴張的雙重紅利。
海力士和 Kioxia 是相對純粹的標的。三星和 SK 海力士則同時享受 HBM + DRAM + NAND 三層紅利,是更全面的 AI 存儲平臺公司。
L5 NAS 與雲對象存儲:數據引力的複利池
NAS 與雲對象存儲是 AI 數據湖、訓練語料、備份歸檔、跨團隊協作的最外層。2025 年 NAS 約 396 億美元(CAGR 複合年增長率 17%),雲對象存儲約 91 億美元(CAGR 16%)。
企業級文件存儲主要廠商是 NetApp、Dell、HPE、華為;中小企業則是 Synology、QNAP。雲對象存儲用 IaaS 份額推算,AWS 約 31–32%、Azure 約 23–24%、Google Cloud 約 11–12%,三家合計約 65–70%。
這一層的利潤主要是長期託管 + 數據出網 + 生態鎖定。
總結一下,
1)DRAM 盤子最大但毛利率最低 30–40%;HBM 盤子只有 DRAM 的三分之一,毛利率卻翻倍 60%+;CXL 重定時器盤子最小,毛利率最高 76%+。越靠近算力的層,越稀缺、越暴利。
2)利潤池增量主要來自三處,HBM(複合年增長率 CAGR 28%)、企業級 SSD(CAGR 24%)、CXL 池化(CAGR 37%)。
3)每一層有不同的業務壁壘,HBM 靠技術壁壘,TSV、CoWoS、良率爬坡;CXL 類靠 IP 與認證,重定時器單一供應鏈;服務類靠切換成本。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News












