您好,歡迎進入深圳市穎特新科技有限公司官方網(wǎng)站!
存儲市場冰火兩重天,HBM價格暴漲5倍
實際上,自去年Q3以來,DRAM市場進入寒冬。今年以來時不時聽到存儲要觸底反彈的聲音,但目前市場仍未解凍。據(jù)TrendForce最新研究顯示,由于DRAM供應商減產(chǎn)速度不及需求走弱速度,DRAM產(chǎn)品Q2均價季度跌幅擴大至13~18% 。
在DRAM的整體頹勢之中,HBM卻在逆勢增長。據(jù)悉,2023年開年后三星、SK海力士兩家存儲大廠HBM訂單快速增加,HBM3規(guī)格DRAM價格上漲超過5倍。
一邊是DRAM整體跌幅仍在進一步擴大,另一邊是HBM價格卻暴漲5倍,冰火兩重天。不禁要問,HBM為什么會這么重要?主要用在什么地方?HBM逆勢增長的主要驅(qū)動原因是什么?
HBM:AI芯片的最佳搭檔
按照不同應用場景,JEDEC(固態(tài)技術協(xié)會)將DRAM分為三個類型:標準DDR、移動DDR以及圖形DDR。HBM屬于最后一種,即圖形DDR。
內(nèi)存墻,指的是內(nèi)存性能嚴重限制CPU性能發(fā)揮的現(xiàn)象。存儲器與處理器性能差異正隨時間發(fā)展逐漸擴大,當存儲器訪問速度跟不上處理器數(shù)據(jù)處理速度時,存儲與運算之間便筑起了一道“內(nèi)存墻”。而隨著人工智能、高性能計算等應用市場興起,數(shù)據(jù)量指數(shù)級增長,“內(nèi)存墻”問題也愈發(fā)突出。
圖形DDR中,先出現(xiàn)的是GDDR,它是為了設計高端顯卡而特別設計的高性能DDR存儲器,是打破“內(nèi)存墻”的有效方案。隨著深度學習等 AI 算法的發(fā)展,AI 服務器對計算能力和內(nèi)存帶寬的要求越來越高。GDDR 逐漸達到極限,每秒每增加1GB 的帶寬所需要的電量劇增,NVIDIA 和 AMD 等廠商逐漸開始使用 HBM。
HBM(High Bandwidth Memory)即高帶寬存儲器,其通過使用先進的封裝方法(如TSV硅通孔技術)垂直堆疊多個DRAM,并與GPU封裝在一起。HBM通過系統(tǒng)級封裝(SIP)和硅通孔(TSV)技術實現(xiàn)垂直堆疊,擁有多達1024個數(shù)據(jù)引腳,可顯著提升數(shù)據(jù)傳輸速度,因此成為AI芯片中存儲的主流技術方案。
HBM結(jié)構圖
資料來源:美光官網(wǎng)
相較而言,GDDR獨立封裝在PCB上圍繞在處理器的周圍,而HBM則排布在硅中階層上并和GPU封裝在一起,面積縮小,離GPU更近,數(shù)據(jù)傳輸也更快。HBM之所以可以做到這樣的布局,是因為采用了3D堆疊技術,其直接結(jié)果就是接口變得更寬。因此,與傳統(tǒng)內(nèi)存技術相比,HBM具有更高帶寬、更多I/O數(shù)量、更低功耗、更小尺寸的特點。與 GDDR5 相比,在相同數(shù)量顯存下,HBM產(chǎn)品大小僅僅是 GDDR5 的 6%,并且每瓦帶寬是其 3 倍以上。
HBM與GDDR5對比
資料來源:AMD官網(wǎng)
在HBM技術加持之下,DRAM芯片從2D轉(zhuǎn)變?yōu)?D,可以在很小的物理空間里實現(xiàn)高容量、高帶寬、低延時與低功耗。自2014年首款硅通孔HBM產(chǎn)品問世至今,HBM技術已經(jīng)發(fā)展至第四代,分別是:HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)。HBM朝著不斷提高存儲容量、帶寬,減小功耗和封裝尺寸方向不斷升級,從最初的1GB存儲容量和128GB/s 帶寬的HBM1發(fā)展到目前的24GB存儲容量和819GB/s帶寬。
乘AI東風,HBM需求激增
今年 ChatGPT 引爆全球,AI 相關需求呈快速增長態(tài)勢。據(jù)Bloomberg Intelligence報告顯示,生成式 AI 市場規(guī)模有望爆發(fā)式增長,從 2022 年的 400 億美元高速擴大至 2032 年的 1.3 萬億美元,十年間復合增速高達 42%。而 AI 的快速發(fā)展,對數(shù)據(jù)量和算力的需求也有大幅拉動,將拉動相關半導體需求的持續(xù)提升。
TrendForce 最新報告預計,2023年AI服務器出貨量(含GPU、FPGA、ASIC等)預估在120萬臺,年增長率近38%。AI芯片出貨量同步看漲,預計今年將增長50%。報告稱,目前高端AI服務器GPU搭載HBM芯片已成主流,預計2023年全球HBM需求量將年增近六成,達到2.9億GB,2024年將再增長30%。
作為高性能GPU的核心組件,根據(jù)Omdia 數(shù)據(jù),2020 年全球 HBM 市場規(guī)模為 4.58 億美元,預計 2025 年市場規(guī)模將達到 25 億美元,年復合增長率高達 40.38%。
在ChatGPT等AI浪潮的推動下,高端AI芯片紛紛選擇搭載HBM技術,推升了HBM存儲需求。根據(jù)TrendForce統(tǒng)計,NVIDIA、AMD、Intel等高端AI芯片中大多選擇搭載HBM。目前NVIDIA的A100及H100各搭載達80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,單顆芯片HBM搭載容量再提升20%,達96GB。AMD的MI300也搭配HBM3,其中,MI300A容量與前一代相同為128GB,更高端MI300X則達192GB,提升了50%。
DRAM原廠主導HBM市場,SK海力士稱王
HBM市場目前由三大DRAM原廠占據(jù),SK海力士占據(jù)過半份額。根據(jù)TrendForce統(tǒng)計,2022年三大原廠HBM市占率分別為SK海力士50%、三星約40%、美光約10%,預計2023年SK海力士將受益新世代HBM3產(chǎn)品的量產(chǎn),其市占率有望提升至53%。
SK海力士是目前唯一量產(chǎn)HBM3的公司,并向英偉達大量供貨,配置在英偉達高性能GPU H100之中,持續(xù)鞏固其市場領先地位。今年4月SK海力士又推出24GB HBM3產(chǎn)品(HBM3E),容量再度提升且采用更薄的DRAM芯片垂直堆疊,實現(xiàn)了與16GB產(chǎn)品相同的高度,正被頭部公司爭相申請樣片測試。據(jù)韓媒Korea Times報道,三星的HBM3產(chǎn)品預計23H2量產(chǎn),屆時將追趕SK海力士的市場。美光科技則進展相對較慢,于2020年7月宣布大規(guī)模量產(chǎn)HBM2E,HBM3作為其產(chǎn)品線仍在持續(xù)研發(fā)之中。
2021年的時候,HBM占整體DRAM市場只有不到1%。主要是因為HBM高昂的成本以及當時服務器市場中搭載相關AI運算卡的比重仍小于1%,且多數(shù)存儲器仍使用GDDR5、GDDR6來支持其算力。
今年以來,AI的浪潮愈演愈烈。在ChatGPT帶動的AIGC(生成式AI)的熱潮下,大廠們紛紛開始推出自己的類ChatGPT的大模型。TrendForce預測,到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,類似Midjourney的中型產(chǎn)品有25款,以及80款小型產(chǎn)品,在這個條件下,上述所需的運算資源至少包含145600~233700顆英偉達A100 GPU。作為高性能GPU的核心組件,HBM今后的存在感或許會越來越強。
最新HBM產(chǎn)品消息,BusinessKorea報道,包括英偉達、AMD、微軟、亞馬遜在內(nèi)的全球科技巨擘,已依序向SK海力士要求HBM3E樣品。申請樣本是下單前的必要程序,目的是厘清存儲器與客戶的GPU、IC或云端系統(tǒng)是否兼容。據(jù)信,該公司正在為今年下半年準備 8Gbps HBM3E 產(chǎn)品樣品,并計劃在明年上半年實現(xiàn)量產(chǎn)。