
AI 스토리지 계층의 수익 풀과 산업 구조를 한 눈에 알아보기
글쓴이: 고도(Godot)
AI 스토리지는 6개 계층으로 나눌 수 있다.
1) 칩 내 SRAM
2) HBM
3) 메인보드 DRAM
4) CXL 풀링 계층
5) 엔터프라이즈급 SSD
6) NAS 및 클라우드 객체 저장소
이 계층 구조는 저장 매체의 물리적 위치에 따라 구분되며, 계층이 낮아질수록 연산 유닛에서 멀어지고 저장 용량은 커진다.
2025년 기준 이 6개 계층(단, SRAM은 연산 칩 상에 탑재되어 있어, 별도의 시장 규모로 산정하지 않고 임베디드 가치를 제외함)의 총 시장 규모는 약 2290억 달러로 추정된다. 이 중 DRAM이 절반을 차지하고, HBM이 15%, SSD가 11%를 차지한다.
수익성 측면에서는 각 계층 모두 극도로 과점화된 구조를 보이며, 상위 3개 계층은 일반적으로 시장 점유율이 90%를 넘는다.
이러한 수익 풀을 세 가지 유형으로 분류할 수 있다.
1) 반도체 웨이퍼 계층의 고마진 과점 풀(HBM, 임베디드 SRAM, QLC SSD)
2) 인터커넥트 계층의 고마진 신생 풀(CXL)
3) 서비스 계층의 규모화 복리 풀(NAS, 클라우드 객체 저장소)
이 세 유형의 수익 풀은 성격, 성장 속도, 경쟁 장벽 모두 다르다.
왜 스토리지는 계층화되는가?
제어를 담당하는 CPU와 연산을 담당하는 GPU 칩 내부에는 일시적인 캐시, 즉 SRAM 온칩 캐시만 존재하기 때문이다. 이 캐시 용량은 매우 작아서 단지 임시 파라미터만 저장할 수 있을 뿐, 대규모 언어 모델(Large Model)을 저장하기에는 부족하다.
따라서 이 두 칩 외부에 더 큰 메모리를 외부 연결하여 대규모 모델과 추론 시 필요한 컨텍스트 정보를 저장해야 한다.
데이터 전송 속도는 빠르지만, 다양한 저장 계층 간 데이터 이동에는 지연 시간과 에너지 소모가 발생하며, 이것이 가장 큰 문제이다.
현재 이 문제 해결을 위한 세 가지 주요 방향이 있다.
1) HBM 적층: 메모리를 GPU 옆에 직접 적층하여 데이터 이동 거리를 단축
2) CXL 기반 메모리 풀링: 랙 단위로 메모리를 풀링하여 용량을 공유
3) 컴퓨팅과 스토리지를 동일한 웨이퍼에 통합하는 ‘컴퓨트-인-메모리’(CIM) 아키텍처
이 세 방향은 향후 5년간 각 계층의 수익 풀 형상을 결정할 것이다.
다음은 구체적인 계층별 분석이다.
L0 칩 내 SRAM: TSMC 전용 수익 풀
SRAM(Static Random-access Memory, 정적 랜덤 액세스 메모리)은 CPU/GPU 칩 내부의 캐시로, 각 칩에 내장되어 별도로 거래되지 않는다.
독립형 SRAM 칩 시장 규모는 10–17억 달러 수준으로, 주요 업체는 인피니언(약 15%), 르네사스(약 13%), ISSI(약 10%) 등으로, 전체 시장 규모는 작다.
이 영역의 수익 풀은 대만 TSMC에 집중되어 있으며, AI 칩 제조사들은 매 세대 칩 설계 시 SRAM 용량을 늘리기 위해 더 많은 웨이퍼를 구매해야 한다.
전 세계 첨단 공정 웨이퍼의 70% 이상이 TSMC에 집중되어 있으며, H100, B200, TPU v5 등 모든 최신 AI 칩의 SRAM 면적은 궁극적으로 TSMC의 매출로 이어진다.
L1 HBM: AI 시대 최대 수익 풀
HBM(High Bandwidth Memory, 고대역폭 메모리)은 DRAM(Dynamic Random-access Memory, 동적 랜덤 액세스 메모리)을 실리콘 관통 비아(TSV) 공정으로 수직 적층한 후, CoWoS 패키징 기술을 통해 GPU 옆에 부착하는 고대역폭 메모리이다.
HBM은 거의 단독으로 AI 가속기에서 실행 가능한 모델 크기를 결정한다. SK하이닉스, 마이크론, 삼성전자의 시장 점유율은 사실상 100%에 달한다.
2026년 1분기 기준 최신 시장 점유율은 다음과 같다: SK하이닉스 57~62%, 삼성전자 22%, 마이크론 21%. SK하이닉스는 NVIDIA 등 주요 고객사로부터 대량 조달 계약을 확보하며 현재 시장의 주도적 공급업체로 자리매김하고 있다.
마이크론은 2026 회계연도 1분기 실적 발표 전화 회의에서, HBM의 TAM(총 잠재 시장)이 2025년 약 350억 달러에서 2028년 1000억 달러로 연평균 약 40% 성장할 것이라고 밝혔다. 이는 기존 예측보다 2년 앞당겨진 시점이다.
HBM의 핵심 강점은 극도로 높은 수익성이다. 2026년 1분기 SK하이닉스의 영업이익률은 사상 최고치인 72%를 기록했다.
높은 수익률의 원인은 다음과 같다.
1) TSV 제조 공정은 기존 DRAM 생산 능력 일부를 희생시키므로, HBM은 지속적으로 공급 부족 상태를 유지한다.
2) 첨단 패키징 공정의 수율 개선이 어려워, 삼성전자의 시장 점유율이 이전 40%에서 22%로 하락한 것도 이 때문이었다.
3) 주요 공급업체들이 증산에 신중하게 대응하면서, 2026년 1분기 DRAM 평균 판매 단가(ASP)가 전분기 대비 60% 이상 급등했으며, 명백한 공급자 우위 시장 구조를 보여주고 있다.
삼대 업체 중 SK하이닉스는 HBM의 강력한 수요 증가에 힘입어 2025년 연간 영업이익이 47.21조 원에 달해 역사상 처음으로 삼성전자를 넘어섰으며, 2026년 1분기 72%의 영업이익률로 TSMC(58.1%) 및 NVIDIA(65%)를 모두 상회했다.
마이크론은 매우 높은 성장 기대치를 받고 있으며, 미국 뱅크오브아메리카(BofA)는 2026년 5월 목표 주가를 950달러로 대폭 상향 조정했다. 삼성전자는 HBM4 양산 확대를 통해 시장 점유율 회복 여지가 가장 크다.
L2 메인보드 DRAM
이 계층은 일반적으로 ‘메모리 모듈’이라 불리는 제품이다.
메인보드 DRAM은 DDR5, LPDDR, GDDR, MR-DIMM 등 일반적인 메모리 제품을 포함하며, 현재 AI 스토리지 체계 중 매출 규모가 가장 큰 부분이다. 2025년 글로벌 DRAM 시장 규모는 약 1218.3억 달러에 달한다.
삼성전자, SK하이닉스, 마이크론 3사가 여전히 대부분의 시장을 점유하고 있다. 2025년 4분기 최신 자료에 따르면, 삼성전자가 36.6%의 점유율로 1위, SK하이닉스가 32.9%로 2위, 마이크론이 22.9%로 3위를 차지했다.
현재 생산 능력이 수익성이 더 높은 HBM으로 전환됨에 따라, 일반 메인보드 DRAM은 여전히 높은 수익성과 가격 주도권을 유지하고 있다. 단일 제품 기준 수익률은 HBM보다 낮지만, 전체 시장 규모는 가장 크다.
L3 CXL 풀링 계층
CXL(Compute Express Link)은 서버 한 대의 메인보드에 장착된 DRAM을 전체 랙 단위로 ‘풀링’할 수 있도록 해준다.
CXL 3.x 이후, 향후 하나의 랙에 있는 모든 메모리를 여러 GPU가 공유·스케줄링하여 필요에 따라 동적으로 할당할 수 있게 된다. 이는 AI 추론 시 KV 캐시, 벡터 데이터베이스, RAG 인덱스 등을 저장하거나 이동시키기 어려운 문제를 해결한다.
CXL 메모리 모듈 시장은 2024년 16억 달러에서 2033년 237억 달러로 성장할 것으로 전망된다. 여전히 삼성전자, SK하이닉스, 마이크론의 과점 구조가 지속될 전망이다.
이 계층에서 Astera Labs는 CXL와 PCIe 사이의 리타이머(Retimer) 및 스마트 메모리 컨트롤러를 공급하며, 해당 세부 시장에서 약 55% 점유율을 차지한다. 최근 분기 매출은 3.08억 달러로 전년 동기 대비 93% 증가했으며, 비-GAAP 매출총이익률은 76.4%, 순이익은 전년 동기 대비 85% 증가했다. 말 그대로 ‘폭리’ 수준이다.
L4 엔터프라이즈급 SSD: 추론 시대 최대 수혜자
엔터프라이즈급 NVMe SSD는 AI 훈련 체크포인트, RAG 인덱스, KV 캐시 오프로드, 모델 가중치 캐시 등이 주로 저장되는 공간이다. QLC 대용량 SSD는 이미 AI 데이터 레이크에서 HDD를 완전히 퇴출시켰다.
2025년 엔터프라이즈급 SSD 시장 규모는 약 261억 달러이며, 연평균 성장률(CAGR)은 24%로, 2030년에는 760억 달러에 이를 것으로 예상된다.
시장 구도 역시 여전히 삼대 업체가 주도하고 있다.
2025년 4분기 매출 기준 시장 점유율은 삼성전자 36.9%, SK하이닉스(솔리딕스 포함) 32.9%, 마이크론 14.0%, 키옥시아 11.7%, 샌디스크 4.4%이며, 상위 5개 업체 점유율 합계는 약 90%이다.
이 계층에서 가장 큰 변화는 QLC SSD가 AI 추론 시나리오에서 폭발적으로 성장하고 있다는 점이다. SK하이닉스 자회사 솔리딕스와 키옥시아는 이미 122TB 단일 플래터 용량 제품을 출시했으며, AI 추론용 KV 캐시와 RAG 인덱스가 HBM에서 SSD로 점차 이동하고 있다.
수익 풀 관점에서 보면, 엔터프라이즈급 SSD는 HBM만큼 극단적인 매출총이익률은 아니지만, 용량 확대와 추론 수요 증가라는 이중 혜택을 누리고 있다.
SK하이닉스와 키옥시아는 비교적 순수한 NAND 기반 기업이다. 반면 삼성전자와 SK하이닉스는 HBM + DRAM + NAND 세 계층의 혜택을 동시에 누리는, 보다 포괄적인 AI 스토리지 플랫폼 기업이다.
L5 NAS 및 클라우드 객체 저장소: 데이터 중력의 복리 풀
NAS 및 클라우드 객체 저장소는 AI 데이터 레이크, 훈련 데이터셋, 백업·보관, 팀 간 협업을 위한 가장 외곽 계층이다. 2025년 NAS 시장 규모는 약 396억 달러(CAGR 17%), 클라우드 객체 저장소는 약 91억 달러(CAGR 16%)이다.
엔터프라이즈 파일 저장 솔루션 주요 업체는 넷앱(NetApp), 델(Dell), HPE, 화웨이(Huawei)이며, 중소기업용은 시놀로지(Synology), 큐냅(QNAP)이 주도한다. 클라우드 객체 저장소 시장은 IaaS 점유율을 기준으로 산정하면, AWS가 약 31–32%, Azure가 약 23–24%, Google Cloud가 약 11–12%로, 상위 3사 점유율 합계는 약 65–70%이다.
이 계층의 수익은 주로 장기 호스팅, 데이터 아웃바운드 요금, 생태계 잠금 효과에서 발생한다.
요약하자면,
1) DRAM은 시장 규모가 가장 크지만 매출총이익률은 가장 낮은 30–40% 수준이다. 반면 HBM은 DRAM 규모의 약 1/3에 불과하지만 매출총이익률은 60% 이상으로 두 배 이상 높다. CXL 리타이머는 시장 규모가 가장 작지만 매출총이익률은 76% 이상으로 가장 높다. 연산 유닛에 가까울수록 자원은 더욱 희귀해지고, 수익성도 더 높아진다.
2) 수익 풀의 성장은 주로 세 곳에서 비롯된다: HBM(CAGR 28%), 엔터프라이즈급 SSD(CAGR 24%), CXL 풀링(CAGR 37%).
3) 각 계층은 서로 다른 사업 진입 장벽을 갖는다. HBM은 TSV, CoWoS, 수율 향상 등 기술 장벽에 의존하고, CXL 관련 제품군은 IP 및 인증, 리타이머 단일 공급망에 의존하며, 서비스 계층은 고객 이전 비용에 의존한다.
TechFlow 공식 커뮤니티에 오신 것을 환영합니다
Telegram 구독 그룹:https://t.me/TechFlowDaily
트위터 공식 계정:https://x.com/TechFlowPost
트위터 영어 계정:https://x.com/BlockFlow_News












