微軟推出首款自研大模型AI芯片!臺積電5nm、1050億顆晶體管,OpenAI率先試用
編輯 | 漠影
芯東西11月16日報道,今日凌晨,微軟在年度IT專業人士和開發者大會Ignite上推出兩款自研芯片——云端AI芯片微軟Azure Maia 100、服務器CPU微軟Azure Cobalt 100。
▲微軟現場展示AI端到端機架
兩款芯片明年年初開始在微軟數據中心推出,最初為微軟的Copilot或Azure OpenAI Service等服務提供動力。微軟已經在設計第二代版本的Azure Maia AI芯片和Cobalt CPU系列。▲納德拉與黃仁勛握手
當微軟CEO納德拉提問未來AI創新的發展方向是什么,黃仁勛回答說:“生成式AI是計算史上最重要的平臺轉型。在過去40年里,從來沒有發生過如此大的事情。到目前為止,它比個人電腦更大、比手機更大,而且將比互聯網更大?!?/span>01.揭秘微軟造芯實驗室:實現最大硬件利用率
▲在微軟雷德蒙德實驗室里,一位系統級測試人員正在模擬芯片在微軟數據中心內的運行情況。這臺機器在真實世界的條件下嚴格評估每個芯片,以確保它符合性能和可靠性標準。(圖源:微軟)
微軟認為增加自研芯片是一種確保每個元素都適合微軟云和AI工作負載的方式。這些芯片將安裝在定制的服務器主板上、放在定制的機架上,隨著機架被安裝到現有的微軟數據中心中。AI芯片微軟Azure Maia 100旨在實現硬件的絕對最大利用率,將為運行在微軟Azure上的一些最大的內部AI工作負載提供動力。▲首批由微軟Azure Cobalt 100 CPU驅動的服務器,位于華盛頓州昆西的一個數據中心內。(圖源:微軟)
“我們正在最有效地利用硅上的晶體管。將我們所有數據中心的服務器的效率提升相乘,這是一個相當大的數字?!盡cCulloug談道。02.從2020年開始為云造芯,給AI芯片定制機架和“散熱助手”
▲在微軟雷德蒙德實驗室里,芯片正在進行系統級測試,在安裝到服務器上之前,模擬它們在實際生產條件下的使用情況。(圖源:微軟)
今天公布的芯片架構不僅可以提高冷卻效率,還能優化其當前數據中心資產的使用,并在現有范圍內最大限度地提高服務器容量。例如,不存在機架來容納Maia 100服務器主板的獨特需求,所以微軟從零做出更寬的數據中心機架。這種擴展的設計為電源和網絡電纜提供了充足的空間,能滿足AI工作負載的獨特需求。▲在微軟雷德蒙德實驗室的一個熱室里,為Maia 100 AI芯片和它的“伙伴”定制的機架。在處理AI工作負載的計算需求時,新“助手”在機架之間循環液體來冷卻芯片。(圖源:微軟)
大型AI任務需要大量的計算、消耗更多的電力。傳統空氣冷卻方法無法滿足這些需求,液冷已成為應對這些熱挑戰的首選方案。但微軟目前的數據中心并不是為大型液冷機器設計的。因此它開發了一個“助手”,放在Maia 100機架旁邊。這些“助手”的工作原理有點像汽車的散熱器。冷液從側板流向附著在Maia 100芯片表面的冷板。每個板都有通道,液體通過這些通道循環以吸收和輸送熱量。這些熱量會流到副翼,副翼會從液體中去除熱量,并將其送回機架以吸收更多的熱量,以此類推。▲冷板附著在Maia 100 AI芯片的表面。(圖源:微軟)
McCullough強調說,機架和“助手”的串聯設計強調了基礎設施系統方法的價值。通過控制每一個方面——從Cobalt 100芯片的低功耗理念到數據中心冷卻的復雜性——微軟可以協調每個組件之間的和諧相互作用,確保在減少環境影響方面,整體確實大于各部分的總和。微軟已經與行業合作伙伴分享了其定制機架的設計經驗,無論內部安裝的是什么芯片,微軟都可以使用這些經驗。“我們建造的所有東西,無論是基礎設施、軟件還是固件,我們都可以利用我們自己的芯片,或是我們行業合作伙伴的芯片?!盡cCullough分享道,“這是客戶做出的選擇,我們正努力為他們提供最好的選擇,無論是性能、成本還是他們關心的任何其他方面?!?/span>Stemen說,微軟的使命很明確:優化其技術堆棧的每一層,從核心芯片到終端服務。“微軟的創新將進一步深入到芯片工作中,以確保我們客戶在Azure上的工作負載的未來,優先考慮性能、能效和成本。”他談道,“我們有意選擇這項創新,以便我們的客戶能夠在今天和未來獲得Azure的最佳體驗?!?/span>大會期間,微軟還宣布了其中一個關鍵要素的全面可用性——Azure Boost,這是一個將存儲和網絡進程從主機服務器轉移到專用硬件和軟件上的系統,有助于加快存儲和網絡的速度。03.英偉達推出AI代工服務,助攻快速定制生成式AI模型
04.結語:尚未公布具體芯片參數,如何影響云服務定價有待觀察
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。