英偉達推出最強AI芯片:首發HBM3e,大模型運行能力提升3.5倍!
早在今年5月29日,AI芯片大廠英偉達(NVIDIA) CEO黃仁勛就在COMPUTEX 2023展前發布會上,正式發布了升級版的GH200 Grace Hopper超級芯片,旨在助力開發面向生成式AI語言應用、推薦系統和數據分析工作負載的巨型、下一代模型。
GH200超級芯片,是將 72 核的Grace CPU、H100 GPU、96GB 的 HBM3 和 512 GB 的 LPDDR5X 集成在同一個封裝中,擁有高達 2000 億個晶體管。這種組合提供了 CPU 和 GPU 之間驚人的數據帶寬,高達 900 GB / s,為某些內存受限的工作負載提供了巨大的優勢。
相關文章:《AI性能突破1Eflop!英偉達DGX GH200發布:256個GH200芯片,144TB共享內存!》
美國當地時間8月8日,英偉達又發布了新一代GH200 Grace Hopper(簡稱“新版GH200”)平臺。但與今年5月發布的GH200不同的是,新一代GH200搭載了全球首款HBM3e內存,內存容量和帶寬都有顯著提高,專為加速計算和生成式AI時代而打造。
英偉達稱,新版GH200旨在處理世界上最復雜的生成式AI工作負載,涵蓋大型語言模型、推薦系統和矢量數據庫,將提供多種配置。新版GH200將于2024年第二季度投產。
具體來說,新版GH200芯片平臺基于 72 核 Grace CPU,配備 480 GB ECC LPDDR5X 內存以及 GH100 計算 GPU,搭配 141 GB 的 HBM3e 內存,分為六個 24 GB 的堆棧,并使用了 6,144 位的內存接口。雖然英偉達實際安裝了 144 GB 的內存,但只有 141 GB 是可用的。
相比原版GH200平臺,新版GH200平臺的雙芯片配置將內存容量提高3.5倍,帶寬增加三倍,一個服務器就有144個Arm Neoverse高性能內核、8 petaflops 的 AI 性能和282GB的最新HBM3e內存技術。
HBM3e是全新一代的高帶寬內存,帶寬達每秒5TB,比原版的GH200所搭載的HBM3快50%,可為新版的GH200提供總共每秒10TB的組合帶寬,使新平臺能運行比前代大3.5倍的模型,同時通過快3倍的內存帶寬提高性能。
據英偉達介紹,目前配備 HBM3 內存的原版GH200 Grace Hopper超級芯片平臺已經在生產中,并將于下個月開始商業銷售。而配備 HBM3e 內存的新版GH200 Grace Hopper超級芯片平臺現在正在樣品測試中,預計將于 2024 年第二季度上市。
英偉達強調,新版GH200 Grace Hopper 使用了與原版相同的 Grace CPU 和 GH100 GPU 芯片,因此公司無需推出任何新的軟件版本或步進。英偉達表示,原版 GH200 和升級版 GH200 將在市場上共存,這意味著后者將以更高的價格出售,畢竟其更先進的內存技術帶來的更高性能。
英偉達表示,配備 HBM3e 內存的下一代 Grace Hopper 超級芯片平臺完全兼容英偉達的 MGX 服務器規范,并且可以與現有的服務器設計直接兼容。
黃仁勛說,為了滿足生成式 AI 不斷增長的需求,數據中心需要有針對特殊需求的加速計算平臺。新的GH200 Grace Hopper 超級芯片平臺提供了卓越的內存技術和帶寬,以此提高吞吐量,提升無損耗連接GPU聚合性能的能力,并且擁有可以在整個數據中心輕松部署的服務器設計。
編輯:芯智訊-浪客劍
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。