
一文读懂 AI 存储层级的利润池与产业格局
TechFlow Selected 深潮精选

一文读懂 AI 存储层级的利润池与产业格局
这三个方向,决定了未来五年每一层利润池的形状。
撰文:戈多 Godot
AI 存储可以拆成六层,
1)片上 SRAM
2)HBM
3)主板 DRAM
4)CXL 池化层
5)企业级 SSD
6)NAS 与云对象存储
这个层级是根据存储所在位置分的,越往下离计算单元越远,存储量越大。
2025 年这六层(SRAM 在算力芯片上,需剔除嵌入价值)总盘子约 2290 亿美元,其中 DRAM 占一半、HBM 占 15%、SSD 占 11%。
利润情况,每一层都极度寡头集中,前三普遍市占率超 90%。
可以把这些利润池分成三类,
1)硅片层的高毛利寡占池(HBM、嵌入式 SRAM、QLC SSD)
2)互连层的高毛利新兴池(CXL)
3)服务层的规模化复利池(NAS、云对象存储)
三类池子性质不同、增速不同、护城河也不同。
存储为什么会分层?
因为负责控制的 CPU 和负责计算的 GPU 芯片上,只有临时的缓存,也就是 SRAM 片上缓存。这个缓存空间太小了,只能放点临时参数,放不下大模型。
在这俩芯片外,就需要外接更大的内存在存储大模型,还有推理的上下文。
算是很快的,数据在不同存储层级之间搬运有延迟和能耗,这才是最大的问题。
所以,目前三个方向,
1)堆 HBM,把内存堆到 GPU 旁边,缩短搬运距离
2)CXL 把内存池化到机架级,共享容量
3)计算和存储焊在同一颗晶圆上,存算一体
这三个方向,决定了未来五年每一层利润池的形状。
以下是具体分层,
L0 片上 SRAM:独属台积电的利润池
SRAM(Static Random-access Memory,静态随机存储)是 CPU/GPU 内部的缓存,嵌在每颗芯片里,不单独交易。
独立 SRAM 晶片市场只有 10–17 亿美元规模,龙头是 Infineon(约 15%)、Renesas(约 13%)、ISSI(约 10%),市场小。
这一部分的利润池在台积电 TSMC,每一代 AI 芯片为了多塞 SRAM,必须买更多晶圆。
而全球先进工艺晶圆超 70% 在台积电手里。每一颗 H100、B200、TPU v5 等等 SRAM 面积,最终都变成了台积电的营收。
L1 HBM:AI 时代最大的利润池
HBM(High Bandwidth Memory,高宽带内存)是把 DRAM(Dynamic Random-access Memory,动态随机存储) 用硅通孔 TSV 工艺垂直堆叠,再通过 CoWoS 封装贴在 GPU 旁边的高带宽内存。
HBM 几乎单枪匹马决定了 AI 加速器能跑多大的模型。SK 海力士、美光 Micron、三星市占率几乎 100%。
截至 2026 年第一季度,最新的市场份额格局为:SK 海力士 57% 至 62%、三星 22%、美光 21%,SK 海力士拿下了 NVIDIA 等企业的大量采购份额,是当前占据主导地位的供应商。
美光 2026 财年第一季度财报电话会议提到,HBM TAM(总潜在市场)将以约 40% 的复合年增长率增长,从 2025 年的约 350 亿美元增长至 2028 年的 1000 亿美元,达到 1000 亿美元的时间节点比之前的预测提前了两年。
HBM 的核心优势在于极高的利润率。2026 年第一季度,SK 海力士的营业利润率达到了创纪录的 72%。
利润高的原因,
1)TSV 制造工艺会牺牲部分传统 DRAM 产能,使 HBM 保持供不应求状态;
2)先进封装良率提升困难,三星此前份额从 40% 下降至 22% 也是受此影响;
3)主要供应商扩产较为谨慎,并在 2026 年第一季度实现了 DRAM 平均售价(ASP)超 60% 的环比涨幅,显现出明确的卖方市场地位。
三巨头里,SK 海力士受 HBM 强劲拉动,2025 年全年营业利润达到 47.21 万亿韩元,历史上首次超越三星电子,在 2026 年第一季度凭借 72% 的营业利润率,甚至超越了台积电(58.1%)和 NVIDIA(65%)的盈利水平。
美光具有极高的增长预期,美国银行(BofA)在 2026 年 5 月将其目标价大幅上调至 950 美元。三星随着 HBM4 的量产不断推进,拥有最大的份额回升空间。
L2 主板 DRAM
这个层级是我们通常说的内存条。
主板 DRAM 包含 DDR5、LPDDR、GDDR、MR-DIMM 等常规内存产品,目前是 AI 存储体系中市场销售额占比最高的部分,2025 年全球 DRAM 市场总体规模达到了约 1218.3 亿美元。
三星、SK 海力士、美光三家依然占据绝大部分市场。根据 2025 年第四季度的最新数据,三星以 36.6% 的市场占有率位列第一,SK 海力士以 32.9% 排名第二,美光以 22.9% 排名第三。
目前产能转向利润更高的 HBM,让内存维持了高利润和定价权。常规主板 DRAM 的单一产品利润率虽然不及 HBM,但其整体市场规模最大。
L3 CXL 池化层
CXL(Compute Express Link)允许把 DRAM 从单台服务器主板“池化”到整个机架。
CXL 3.x 之后,未来一个机柜里所有的内存可以被多个 GPU 共享调度,按需分配。解决 AI 推理时 KV cache、向量数据库、RAG 索引装不下也搬不动的问题。
CXL 内存模块 2024 年仅 16 亿美元,2033 年预计 237 亿美元。看起来,还是三星、SK 海力士、美光的寡头格局。
这层里 Astera Labs 做的是 CXL 与 PCIe 之间的重定时器(Retimer)和智能内存控制器,占该子市场约 55% 份额。最新一季营收 3.08 亿美元、同比 +93%,非 GAAP 毛利率 76.4%,净利润同比 +85%。相当暴利可以说是。
L4 企业级 SSD:推理时代的最大受益者
企业级 NVMe SSD 是 AI 训练 checkpoint、RAG 索引、KV cache offload、模型权重缓存的主战场。QLC 大容量 SSD 已经把 HDD 从 AI 数据湖里彻底挤出。
2025 年企业级 SSD 市场约 261 亿美元,CAGR 24%,2030 年预计 760 亿美元。
格局嘛,没错,还是三巨头把持。
市场份额按 2025 Q4 营收计算,三星 36.9%、SK 海力士(含 Solidigm)32.9%、美光 14.0%、Kioxia 11.7%、SanDisk 4.4%。前五合计约 90%。
这一层最大的变化是 QLC SSD 在 AI 推理场景中的爆发。海力士子公司 Solidigm 与 Kioxia 已经做出 122 TB 单碟容量的产品,AI 推理的 KV cache 与 RAG 索引正从 HBM 外溢到 SSD。
利润池角度看,企业级 SSD 没有 HBM 那么极致的毛利率,但享受容量驱动 + 推理扩张的双重红利。
海力士和 Kioxia 是相对纯粹的标的。三星和 SK 海力士则同时享受 HBM + DRAM + NAND 三层红利,是更全面的 AI 存储平台公司。
L5 NAS 与云对象存储:数据引力的复利池
NAS 与云对象存储是 AI 数据湖、训练语料、备份归档、跨团队协作的最外层。2025 年 NAS 约 396 亿美元(CAGR 复合年增长率 17%),云对象存储约 91 亿美元(CAGR 16%)。
企业级文件存储主要厂商是 NetApp、Dell、HPE、华为;中小企业则是 Synology、QNAP。云对象存储用 IaaS 份额推算,AWS 约 31–32%、Azure 约 23–24%、Google Cloud 约 11–12%,三家合计约 65–70%。
这一层的利润主要是长期托管 + 数据出网 + 生态锁定。
总结一下,
1)DRAM 盘子最大但毛利率最低 30–40%;HBM 盘子只有 DRAM 的三分之一,毛利率却翻倍 60%+;CXL 重定时器盘子最小,毛利率最高 76%+。越靠近算力的层,越稀缺、越暴利。
2)利润池增量主要来自三处,HBM(复合年增长率 CAGR 28%)、企业级 SSD(CAGR 24%)、CXL 池化(CAGR 37%)。
3)每一层有不同的业务壁垒,HBM 靠技术壁垒,TSV、CoWoS、良率爬坡;CXL 类靠 IP 与认证,重定时器单一供应链;服务类靠切换成本。
欢迎加入深潮TechFlow官方社群
Telegram订阅群:https://t.me/TechFlowDaily
Twitter官方账号:https://x.com/TechFlowPost
Twitter英文账号:https://x.com/BlockFlow_News













