作者:戈多Godot
AI 儲存可以拆成六層,
1)片上SRAM
2)HBM
3)主機板DRAM
4)CXL 池化層
5)企業級SSD
6)NAS 與雲端物件存儲
這個層級是依照儲存所在位置分的,越往下離運算單元越遠,儲存量越大。
2025 年這六層(SRAM 在算力晶片上,需剔除嵌入價值)總盤子約2,290 億美元,其中DRAM 佔一半、HBM 佔15%、SSD 佔11%。
獲利狀況,每一層都極度寡頭集中,前三普遍市佔率超90%。
可以把這些利潤池分成三類,
1)矽片層的高毛利寡占池(HBM、嵌入式SRAM、QLC SSD)
2)互連層的高毛利新興池(CXL)
3)服務層的規模化複利池(NAS、雲端物件儲存)
三類池子性質不同、增速不同、護城河也不同。
儲存為什麼會分層?
因為負責控制的CPU 和負責運算的GPU 晶片上,只有臨時的緩存,也就是SRAM 晶片上快取。這個快取空間太小了,只能放點臨時參數,放不下大模型。
在這倆晶片外,就需要外接更大的內部存在儲存大模型,還有推理的上下文。
算是很快的,資料在不同儲存層級之間搬運有延遲和能耗,這才是最大的問題。
所以,目前三個方向,
1)堆HBM,把記憶體堆到GPU 旁邊,縮短搬運距離
2)CXL 把記憶體池化到機架級,共享容量
3)運算與儲存焊在同一顆晶圓上,存算一體
這三個方向,決定了未來五年每一層利潤池的形狀。
以下是具體分層,
L0 片上SRAM:獨屬台積電的利潤池
SRAM(Static Random-access Memory,靜態隨機儲存)是CPU/GPU 內部的緩存,嵌在每顆晶片裡,不單獨交易。
獨立SRAM 晶片市場只有10–17 億美元規模,龍頭是Infineon(約15%)、Renesas(約13%)、ISSI(約10%),市場小。
這部分的利潤池在台積電TSMC,每一代AI 晶片為了多塞SRAM,必須買更多晶圓。
而全球先進製程晶圓超70% 在台積電手裡。每一顆H100、B200、TPU v5 等等SRAM 面積,最後都變成了台積電的營收。
L1 HBM:AI 時代最大的利潤池
HBM(High Bandwidth Memory,高寬頻記憶體)是把DRAM(Dynamic Random-access Memory,動態隨機儲存) 用矽通孔TSV 製程垂直堆疊,再透過CoWoS 封裝貼在GPU 旁的高頻寬記憶體。
HBM 幾乎單槍匹馬決定了AI 加速器能跑多大的模型。 SK 海力士、美光Micron、三星市佔率幾乎100%。
截至2026 年第一季度,最新的市場份額格局為:SK 海力士57% 至62%、三星22%、美光21%,SK 海力士拿下了NVIDIA 等企業的大量採購份額,是目前佔據主導地位的供應商。
美光2026財年第一季財報電話會議提到,HBM TAM(總潛在市場)將以約40% 的複合年增長率增長,從2025 年的約350 億美元增長至2028 年的1000 億美元,達到1000 億美元的時間節點比之前的預測提前了兩年。
HBM 的核心優勢在於極高的利潤率。 2026 年第一季,SK 海力士的營業利益率達到了創紀錄的72%。
利潤高的原因,
1)TSV 製造流程會犧牲部分傳統DRAM 產能,使HBM 保持供不應求狀態;
2)先進封裝良率提升困難,三星先前份額從40% 下降至22% 也是受此影響;
3)主要供應商擴產較為謹慎,並在2026 年第一季實現了DRAM 平均售價(ASP)超60% 的環比漲幅,顯現出明確的賣方市場地位。
三巨頭裡,SK 海力士受HBM 強勁拉動,2025 年全年營業利潤達到47.21 萬億韓元,歷史上首次超越三星電子,在2026 年第一季憑藉72% 的營業利潤率,甚至超越了台積電(58.1%)和NVIDIA(65%)的盈利水平。
美光具有極高的成長預期,美國銀行(BofA)在2026 年5 月將目標價大幅上調至950 美元。三星隨著HBM4 的量產不斷推進,擁有最大的份額回升空間。
L2 主機板DRAM
這個層級是我們通常會說的記憶體條。
主機板DRAM 包含DDR5、LPDDR、GDDR、MR-DIMM 等常規記憶體產品,目前是AI 儲存系統中市場銷售額佔比最高的部分,2025 年全球DRAM 市場整體規模達到了約1,218.3 億美元。
三星、SK 海力士、美光三家仍佔據絕大部分市場。根據2025 年第四季的最新數據,三星以36.6% 的市佔率位居第一,SK 海力士以32.9% 排名第二,美光以22.9% 排名第三。
目前產能轉向利潤更高的HBM,讓記憶體維持了高利潤和定價權。常規主機板DRAM 的單一產品利潤率雖然不如HBM,但其整體市場規模最大。
L3 CXL 池化層
CXL(Compute Express Link)允許把DRAM 從單一伺服器主機板「池化」到整個機架。
CXL 3.x 之後,未來一個機櫃裡所有的記憶體可以被多個GPU 共享調度,並按需分配。解決AI 推理時KV cache、向量資料庫、RAG 索引裝不下也搬不動的問題。
CXL 記憶體模組2024 年僅16 億美元,2033 年預計237 億美元。看起來,還是三星、SK 海力士、美光的寡頭格局。
這層裡Astera Labs 做的是CXL 與PCIe 之間的重定時器(Retimer)和智慧型記憶體控制器,佔該子市場約55% 份額。最新一季營收3.08 億美元、年比+93%,非GAAP 毛利率76.4%,淨利年比+85%。相當暴利可以說是。
L4 企業級SSD:推理時代的最大受益者
企業級NVMe SSD 是AI 訓練checkpoint、RAG 索引、KV cache offload、模型權重快取的主戰場。 QLC 大容量SSD 已經把HDD 從AI 資料湖裡徹底擠出。
2025 年企業級SSD 市場約261 億美元,CAGR 24%,2030 年預估760 億美元。
格局嘛,沒錯,還是三巨頭把持。
市佔率以2025 Q4 營收計算,三星36.9%、SK 海力士(含Solidigm)32.9%、美光14.0%、Kioxia 11.7%、SanDisk 4.4%。前五合計約90%。
這一層最大的變化是QLC SSD 在AI 推理場景中的爆發。海力士子公司Solidigm 與Kioxia 已經做出122 TB 單碟容量的產品,AI 推理的KV cache 與RAG 索引正從HBM 外溢到SSD。
利潤池角度看,企業級SSD 沒有HBM 那麼極致的毛利率,但享受容量驅動+ 推理擴張的雙重紅利。
海力士和Kioxia是相對純粹的標的。三星和SK 海力士則同時享受HBM + DRAM + NAND 三層紅利,是更全面的AI 儲存平台公司。
L5 NAS 與雲端物件儲存:資料引力的複利池
NAS 與雲端物件儲存是AI 資料湖、訓練語料、備份歸檔、跨團隊協作的最外層。 2025 年NAS 約396 億美元(CAGR 複合年增長率17%),雲端物件儲存約91 億美元(CAGR 16%)。
企業級文件儲存主要廠商為NetApp、Dell、HPE、華為;中小企業則是Synology、QNAP。雲端物件儲存以IaaS 份額推算,AWS 約31–32%、Azure 約23–24%、Google Cloud 約11–12%,三家合計約65–70%。
這一層的利潤主要是長期託管+ 資料出網+ 生態鎖定。
總結一下,
1)DRAM 盤子最大但毛利率最低30–40%;HBM 盤子只有DRAM 的三分之一,毛利率卻翻倍60%+;CXL 重定時器盤最小,毛利率最高76%+。越靠近算力的層,越稀缺、越暴利。
2)利潤池增量主要來自三處,HBM(複合年增長率CAGR 28%)、企業級SSD(CAGR 24%)、CXL 池化(CAGR 37%)。
3)每一層有不同的業務壁壘,HBM 靠技術壁壘,TSV、CoWoS、良率爬坡;CXL 類靠IP 與認證,重定時器單一供應鏈;服務類靠切換成本。




