AI服務器需求強勁,HBM龍頭SK海力士今年市占率或達53%
4月18日消息,隨著以ChatGPT為代表的生成式AI的持續火爆,帶動了AI服務器出貨量的持續增長,這也使得的HBM(High Bandwidth Memory,高帶寬存儲器)的需求大漲。
NVIDIA定義的DL / ML型AI服務器平均每臺均需搭載4張或8張高階顯卡,搭配兩顆主流型號x86服務器CPU,主要采購商來自美系云服務廠商,包括Google、AWS、Meta與微軟等。據TrendForce統計,2022年高階搭載GPGPU的服務器出貨量年增約9%,近80%出貨量集中在全球頭部的八大云服務業者。展望2023年,微軟、Meta、百度與字節跳動相繼推出基于生成式AI衍生產品服務而積極加單,今年AI服務器出貨量年增長率有望達到15.4%,2023~2027年AI服務器出貨量年復合增長率約12.2%。
隨著AI服務器需求的增長,也帶動了相關存儲芯片需求的增長。目前,服務器DRAM普遍規格約500~600GB,AI服務器的單條模組多采用64~128GB容量,單個AI服務器的平均容量可達1.2~1.7TB。以企業級SSD來說,AI伺服器追求速度更高,要求優先提升DRAM或HBM容量來滿足,SSD容量的提升呈非必要擴大容量態勢,但傳輸接口會為了高速運算需求,優先采用PCIe 5.0接口。相較一般的服務器,AI服務器多采用GPGPU來進行運算,因此以NVIDIA A100 80GB配備4或8張加速卡來計算,HBM用量約320~640GB。未來AI模型逐漸復雜化趨勢下,將刺激更多HBM需求成長。
據此前《韓國經濟日報》報道,受益于ChatGPT的火爆,隨著市場對AI GPU需求劇增,三星、SK海力士的HBM芯片(High Bandwidth Memory,高帶寬存儲器)贏得了額外的訂單,成為目前持續下滑的存儲芯片市場當中意外增長的品類。
下半年隨著更為高端的NVIDIA H100與AMD MI300的推出,也刺激了HBM產品規格的更新。據了解,SK海力士作為目前唯一量產新一代HBM3產品的供應商,今年其在整體HBM市場的市占率有望提升至53%。三星、美光也規劃對應規格的HBM3,將會陸續在年底至明年初量產,它們在HBM市場的市占率分別為38%及9%。
TrendForce的數據也顯示,2022 年三大HBM原廠SK海力士、三星、美光的市占率分別為 50%、 40%和近10%。
資料顯示,2021年10月,SK 海力士就宣布成功開發出HBM3 DRAM 內存,是全球首家開發出新一代高帶寬內存(HBM),也是HBM 系列內存第四代產品。新一代HBM3 DRAM不僅提供高達819GB/s 的帶寬,還堆疊更多層數DRAM 以增加容量,提供更廣泛應用解決方案。相比上一代的HBM2E(460GB/s),整體帶寬提高了78%。目前,NVIDIA A100加速卡目前使用的是6 顆HBM2E內存,提供2TB/s 帶寬。一旦換成HBM3 規格,帶寬最高可提高到4.9TB/s,顯存容量也提升至最高144GB。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。