
Một bài viết để hiểu rõ “hồ lợi nhuận” và cục diện ngành công nghiệp của phân tầng lưu trữ AI
Tuyển chọn TechFlowTuyển chọn TechFlow

Một bài viết để hiểu rõ “hồ lợi nhuận” và cục diện ngành công nghiệp của phân tầng lưu trữ AI
Ba hướng này sẽ quyết định hình dạng của từng “bể lợi nhuận” trong năm năm tới.
Tác giả: Godot
Bộ nhớ AI có thể chia thành sáu lớp:
1) SRAM tích hợp trên chip
2) HBM
3) DRAM trên bo mạch chủ
4) Lớp phân bổ bộ nhớ CXL
5) SSD doanh nghiệp
6) Lưu trữ đối tượng NAS và đám mây
Phân cấp này dựa trên vị trí vật lý của bộ nhớ: càng xuống thấp, khoảng cách tới đơn vị tính toán càng xa và dung lượng lưu trữ càng lớn.
Năm 2025, quy mô thị trường tổng cộng của sáu lớp này (loại trừ giá trị tích hợp của SRAM trên chip tính toán) đạt khoảng 22,9 tỷ USD, trong đó DRAM chiếm một nửa, HBM chiếm 15% và SSD chiếm 11%.
Về lợi nhuận, mỗi lớp đều có mức độ tập trung độc quyền cực cao, với ba nhà sản xuất hàng đầu thường chiếm hơn 90% thị phần.
Các “bể lợi nhuận” này có thể chia thành ba loại:
1) Các bể lợi nhuận cao, độc quyền ở tầng silicon (HBM, SRAM tích hợp, SSD QLC)
2) Các bể lợi nhuận cao, mới nổi ở tầng kết nối (CXL)
3) Các bể lợi nhuận tăng trưởng theo hiệu ứng lãi kép nhờ quy mô ở tầng dịch vụ (NAS, lưu trữ đối tượng đám mây)
Ba loại bể lợi nhuận này khác biệt về bản chất, tốc độ tăng trưởng và moat cạnh tranh.
Tại sao bộ nhớ lại được phân tầng?
Do CPU (đơn vị điều khiển) và GPU (đơn vị tính toán) chỉ tích hợp bộ đệm tạm thời — tức là bộ đệm SRAM trên chip — mà không có đủ dung lượng để lưu trữ các mô hình ngôn ngữ lớn (LLM). Dung lượng bộ đệm này quá nhỏ, chỉ đủ chứa các tham số tạm thời chứ không thể chứa toàn bộ mô hình.
Do đó, cần gắn thêm bộ nhớ ngoài lớn hơn vào hai chip này để lưu trữ mô hình lớn và ngữ cảnh (context) cho suy luận (inference).
Tuy nhiên, việc di chuyển dữ liệu giữa các tầng bộ nhớ khác nhau gây ra độ trễ và tiêu tốn năng lượng đáng kể — đây chính là vấn đề lớn nhất hiện nay.
Hiện nay, ngành công nghiệp đang theo ba hướng giải quyết:
1) Tăng cường sử dụng HBM — xếp chồng bộ nhớ ngay bên cạnh GPU để rút ngắn khoảng cách vận chuyển dữ liệu;
2) Sử dụng CXL để phân bổ bộ nhớ ở cấp độ tủ máy (rack-level), cho phép chia sẻ dung lượng;
3) Tích hợp tính toán và lưu trữ trên cùng một tấm wafer — kiến trúc “tính-lưu一体化” (in-memory computing).
Ba hướng này sẽ định hình hình dạng của từng “bể lợi nhuận” trong năm năm tới.
Dưới đây là phân tích chi tiết từng lớp:
L0 – SRAM tích hợp trên chip: Bể lợi nhuận độc quyền của TSMC
SRAM (Static Random-access Memory – Bộ nhớ truy cập ngẫu nhiên tĩnh) là bộ đệm tích hợp bên trong CPU/GPU, được gắn cố định trên mỗi chip và không được giao dịch riêng lẻ.
Thị trường SRAM rời rạc chỉ đạt quy mô 1–1,7 tỷ USD, do Infineon (khoảng 15%), Renesas (khoảng 13%) và ISSI (khoảng 10%) dẫn đầu — một thị trường nhỏ.
“Bể lợi nhuận” thực sự nằm ở TSMC: mỗi thế hệ chip AI muốn tích hợp nhiều SRAM hơn buộc phải đặt mua thêm wafer. Hơn 70% tổng sản lượng wafer tiên tiến toàn cầu thuộc về TSMC. Diện tích SRAM trên mỗi chip như H100, B200, TPU v5… cuối cùng đều biến thành doanh thu cho TSMC.
L1 – HBM: Bể lợi nhuận lớn nhất thời đại AI
HBM (High Bandwidth Memory – Bộ nhớ băng thông cao) là bộ nhớ DRAM (Dynamic Random-access Memory – Bộ nhớ truy cập ngẫu nhiên động) được xếp chồng theo chiều dọc bằng công nghệ xuyên silicon (TSV), sau đó được đóng gói bằng công nghệ CoWoS và gắn sát bên cạnh GPU.
HBM gần như đơn phương quyết định kích thước mô hình mà bộ gia tốc AI có thể xử lý. SK Hynix, Micron và Samsung chiếm gần như toàn bộ thị phần.
Tính đến quý I năm 2026, cơ cấu thị phần mới nhất là: SK Hynix chiếm 57–62%, Samsung chiếm 22%, Micron chiếm 21%. SK Hynix đã giành được lượng lớn đơn hàng từ các doanh nghiệp như NVIDIA và hiện là nhà cung cấp thống lĩnh thị trường.
Theo cuộc họp báo cáo tài chính quý I năm tài khóa 2026 của Micron, TAM (thị trường tiềm năng toàn cầu) của HBM sẽ tăng trưởng trung bình hàng năm (CAGR) khoảng 40%, từ khoảng 3,5 tỷ USD năm 2025 lên 10 tỷ USD vào năm 2028 — thời điểm đạt 10 tỷ USD sớm hơn hai năm so với dự báo trước đây.
Ưu thế cốt lõi của HBM nằm ở biên lợi nhuận cực kỳ cao. Trong quý I năm 2026, biên lợi nhuận hoạt động của SK Hynix đạt mức kỷ lục 72%.
Nguyên nhân lợi nhuận cao:
1) Quy trình sản xuất TSV làm giảm một phần năng lực sản xuất DRAM truyền thống, khiến HBM luôn trong tình trạng cung không đủ cầu;
2) Tỷ lệ thành phẩm (yield) của công nghệ đóng gói tiên tiến rất khó cải thiện — đây cũng là nguyên nhân khiến thị phần của Samsung giảm từ 40% xuống còn 22%;
3) Các nhà cung cấp chính mở rộng sản xuất một cách thận trọng và trong quý I năm 2026 đã đạt mức tăng giá bán trung bình (ASP) của DRAM hơn 60% so với quý trước — rõ ràng thể hiện vị thế thị trường người bán.
Trong “bộ ba” này, SK Hynix được thúc đẩy mạnh mẽ bởi HBM, đạt lợi nhuận hoạt động cả năm 2025 ở mức 47,21 nghìn tỷ KRW — lần đầu tiên vượt qua Samsung Electronics trong lịch sử; và trong quý I năm 2026, với biên lợi nhuận hoạt động 72%, thậm chí còn vượt cả TSMC (58,1%) và NVIDIA (65%).
Micron được kỳ vọng tăng trưởng rất mạnh: Ngân hàng Mỹ (BofA) vào tháng 5 năm 2026 đã nâng mạnh mục tiêu giá cổ phiếu lên 950 USD. Còn Samsung, nhờ tiến độ sản xuất hàng loạt HBM4 ngày càng được đẩy nhanh, có dư địa lớn nhất để phục hồi thị phần.
L2 – DRAM trên bo mạch chủ
Đây là loại “RAM” mà chúng ta thường gọi.
DRAM trên bo mạch chủ bao gồm các sản phẩm bộ nhớ thông thường như DDR5, LPDDR, GDDR và MR-DIMM. Đây là phân khúc có tỷ trọng doanh thu cao nhất trong toàn bộ hệ sinh thái bộ nhớ AI, với quy mô thị trường toàn cầu năm 2025 đạt khoảng 12,183 tỷ USD.
Samsung, SK Hynix và Micron vẫn chiếm phần lớn thị phần. Theo dữ liệu mới nhất quý IV năm 2025, Samsung dẫn đầu với thị phần 36,6%, SK Hynix đứng thứ hai với 32,9%, Micron đứng thứ ba với 22,9%.
Hiện năng lực sản xuất đang chuyển dịch sang HBM – sản phẩm có biên lợi nhuận cao hơn – giúp duy trì mức lợi nhuận và quyền định giá cao cho DRAM thông thường. Mặc dù biên lợi nhuận đơn lẻ của DRAM thông thường không bằng HBM, nhưng quy mô thị trường tổng thể của nó là lớn nhất.
L3 – Lớp phân bổ bộ nhớ CXL
CXL (Compute Express Link) cho phép “phân bổ” DRAM từ bo mạch chủ của một máy chủ thành tài nguyên chung cho toàn bộ tủ máy (rack).
Từ phiên bản CXL 3.x trở đi, toàn bộ bộ nhớ trong một tủ máy sẽ có thể được nhiều GPU chia sẻ và phân bổ linh hoạt theo nhu cầu — giải quyết bài toán “không chứa nổi và không di chuyển được” bộ nhớ KV cache, cơ sở dữ liệu vector và chỉ mục RAG trong suy luận AI.
Quy mô thị trường module bộ nhớ CXL năm 2024 chỉ đạt 1,6 tỷ USD, nhưng dự kiến tăng lên 23,7 tỷ USD vào năm 2033. Dường như đây vẫn là cục diện độc quyền của “bộ ba”: Samsung, SK Hynix và Micron.
Trong phân khúc này, Astera Labs chuyên sản xuất bộ tái đồng bộ (Retimer) giữa CXL và PCIe, cũng như bộ điều khiển bộ nhớ thông minh — chiếm khoảng 55% thị phần con. Doanh thu quý gần nhất đạt 308 triệu USD (+93% so với cùng kỳ), biên lợi nhuận gộp (non-GAAP) đạt 76,4%, lợi nhuận ròng tăng +85% so với cùng kỳ. Có thể nói đây là một phân khúc siêu lợi nhuận.
L4 – SSD doanh nghiệp: Đối tượng hưởng lợi lớn nhất thời đại suy luận
SSD NVMe doanh nghiệp là sân chơi chính cho các tác vụ như lưu checkpoint huấn luyện AI, chỉ mục RAG, offload KV cache và lưu bộ đệm trọng số mô hình. SSD QLC dung lượng lớn đã hoàn toàn đẩy ổ cứng HDD ra khỏi “hồ dữ liệu AI”.
Thị trường SSD doanh nghiệp năm 2025 đạt khoảng 2,61 tỷ USD, với CAGR 24% và dự kiến đạt 7,6 tỷ USD vào năm 2030.
Cơ cấu thị phần vẫn đúng như dự đoán: ba ông lớn nắm giữ đa số. Theo doanh thu quý IV năm 2025, Samsung chiếm 36,9%, SK Hynix (bao gồm Solidigm) chiếm 32,9%, Micron chiếm 14,0%, Kioxia chiếm 11,7%, SanDisk chiếm 4,4%. Năm nhà sản xuất hàng đầu chiếm tổng cộng khoảng 90%.
Thay đổi lớn nhất ở lớp này là sự bùng nổ của SSD QLC trong các ứng dụng suy luận AI. Solidigm (công ty con của SK Hynix) và Kioxia đã tung ra sản phẩm có dung lượng lên tới 122 TB trên một đĩa — chứng tỏ KV cache và chỉ mục RAG trong suy luận AI đang dần “tràn ra” từ HBM sang SSD.
Xét về “bể lợi nhuận”, SSD doanh nghiệp không đạt được biên lợi nhuận cao như HBM, nhưng lại được hưởng kép lợi ích từ tăng trưởng dung lượng và mở rộng ứng dụng suy luận.
SK Hynix và Kioxia là những lựa chọn tương đối “tinh khiết”. Còn Samsung và SK Hynix thì đồng thời được hưởng lợi từ cả ba lớp: HBM, DRAM và NAND — nên là những công ty nền tảng bộ nhớ AI toàn diện hơn cả.
L5 – NAS và lưu trữ đối tượng đám mây: Bể lợi nhuận lãi kép nhờ “lực hấp dẫn dữ liệu”
NAS và lưu trữ đối tượng đám mây là lớp ngoài cùng dành cho hồ dữ liệu AI, kho ngữ liệu huấn luyện, sao lưu/lưu trữ lâu dài và cộng tác liên đội nhóm. Năm 2025, thị trường NAS đạt khoảng 3,96 tỷ USD (CAGR 17%), còn lưu trữ đối tượng đám mây đạt khoảng 0,91 tỷ USD (CAGR 16%).
Các nhà cung cấp lưu trữ file doanh nghiệp chủ lực gồm NetApp, Dell, HPE và Huawei; còn thị trường SMB (doanh nghiệp vừa và nhỏ) do Synology và QNAP thống lĩnh. Với lưu trữ đối tượng đám mây, dựa trên thị phần IaaS, AWS chiếm khoảng 31–32%, Azure chiếm 23–24%, Google Cloud chiếm 11–12% — ba nhà cung cấp này chiếm tổng cộng khoảng 65–70%.
Lợi nhuận ở lớp này chủ yếu đến từ chi phí lưu trữ dài hạn + phí xuất dữ liệu ra ngoài mạng (data egress) + khóa sinh thái (ecosystem lock-in).
Tóm lại:
1) DRAM có quy mô thị trường lớn nhất nhưng biên lợi nhuận thấp nhất (30–40%); HBM chỉ bằng khoảng một phần ba quy mô DRAM nhưng biên lợi nhuận lại gấp đôi (trên 60%); còn thị trường bộ tái đồng bộ CXL tuy nhỏ nhất nhưng lại có biên lợi nhuận cao nhất (trên 76%). Càng gần đơn vị tính toán, lớp bộ nhớ càng khan hiếm và càng siêu lợi nhuận.
2) Tăng trưởng “bể lợi nhuận” chủ yếu đến từ ba nguồn: HBM (CAGR 28%), SSD doanh nghiệp (CAGR 24%) và phân bổ bộ nhớ CXL (CAGR 37%).
3) Mỗi lớp có rào cản kinh doanh khác nhau: HBM phụ thuộc vào rào cản kỹ thuật (TSV, CoWoS, cải thiện tỷ lệ thành phẩm); CXL phụ thuộc vào sở hữu IP và chứng nhận (chuỗi cung ứng duy nhất cho bộ tái đồng bộ); còn các dịch vụ thì phụ thuộc vào chi phí chuyển đổi (switching cost).
Chào mừng tham gia cộng đồng chính thức TechFlow
Nhóm Telegram:https://t.me/TechFlowDaily
Tài khoản Twitter chính thức:https://x.com/TechFlowPost
Tài khoản Twitter tiếng Anh:https://x.com/BlockFlow_News












