未來的危機:人工智能數據中心的功耗
人工智能數據中心的能源消耗速度大約是電網新增電力速度的四倍,這為發電地點、人工智能數據中心的建設地點以及更高效的系統、芯片和軟件架構的根本轉變奠定了基礎。
對于美國和中國來說,這些數字尤其引人注目,它們正在競相擴大人工智能數據中心。美國能源部委托編寫的一份 2024 年報告顯示,去年,美國數據中心消耗了約 4.4% 的總發電量,約合 176 太瓦時。預計到 2028 年,這一數字將增加到 325 至 580 太瓦時,分別占美國所有發電量的 6.7% 至 12%。
圖 1:2014 年至 2028 年總發電量與服務器存儲、網絡設備和基礎設施消耗量(估計)。資料來源:勞倫斯伯克利國家實驗室報告[1]
與此同時,中國預計到明年將達到 400 太瓦時,雖然這些數字看起來與美國的消費量相當,但國際能源署指出[2],中國公民的能源消耗量明顯低于美國公民。在全球范圍內,消費率每年增長 30%,這主要是由于人工智能,美國和中國約占其中 80%。
圖 2:用電的位置。資料來源:國際能源署
“電源不再是開玩笑了,”西門子 EDA 副總裁兼硬件輔助驗證總經理 Jean-Marie Brunet 說?!跋胂笠幌拢绻?2028 年數據中心的功耗占美國整個功耗的 12%。這太瘋狂了。我們必須重做整個電網。
其他人也同意?!鞍l電將是一件大事,”NVIDIA 總裁兼首席執行官黃仁勛在最近與 Cadence 首席執行官 Anirudh Devgan 的 CDNLive 討論中指出?!霸蚴请娋W不足以維持這個行業的增長。我們想在岸上建立這個行業,如果你想這樣做,那么我們將看到很多柴油發電機和各種東西。
那么我們能做些什么呢?有四個主要目標領域,每個領域都直接涉及半導體行業:
減少傳輸距離和降壓電壓數量;
盡可能限制數據移動;
更高效的處理,以及
在靠近加工元件或包裝內部時冷卻效果更好。
距離和降壓損耗與數據
一樣,移動電力也存在成本。根據美國能源信息署的數據,在輸配電過程中平均損失 5% 的電力。違反直覺的是,長達數百英里的高壓線路的損耗(約 2%)低于運行較短距離的低壓線路(約 4%)。這些數字也會因來源而復合,因為不同的來源具有不同的轉化率(見下圖 3)。
圖 3:以千萬億 BTU 為單位的美國電流。來源:美國能源信息署,2025 年 4 月
“理想情況下,您將電壓保持在盡可能高的位置,這意味著電流盡可能低,”Saras Micro Devices 首席商務官 Eelco Bergman 說。“損失是當前乘以阻力的平方。所以你全程都在失去動力。無論高壓電線是什么,你都要不斷降低它。這可能是 400 伏電壓進入數據中心,然后轉換為機架的 48 伏電壓,然后最終降至 12 伏到負載點。但是,在每一步,您都希望在數據中心旁邊發電,以縮短距離并保持盡可能高的電壓,并使電壓更靠近您的端點。“
這里的權衡是電壓與電流。電流越高,熱量越大。沒有什么是 100% 高效的,因此當電源靠近封裝時,會產生一些熱量。反過來,封裝內部發生的一切(包括處理數據、在內存中來回移動數據以及互連中的電阻/電容)使情況變得更加復雜。最重要的是,人工智能數據中心需要處理更多的數據,因此這些工作負載需要更高的利用率,這使得跟上需要散發的熱量變得更加困難。
因此,從高壓線到低壓線,再到 PCB、封裝,最后是單個芯片,Bergman 說,在此過程中的每一步都會斷電。“你如何縮短距離?我可以盡可能接近多少電壓?效率如何?我能散熱嗎?這些都是行業正在關注的事情。
芯片產業在這里可以發揮很大的作用?!坝捎诂F有基礎設施的原因,我們有太多的中間電壓水平,”弗勞恩霍夫 IIS 自適應系統工程部高效電子部門負責人 Andy Heinig 說?!爱斎?,我們可以在這里節省大量能源。我們還看到處理器和電源穩壓器需要協同工作。目前,電源調節器并不智能。它們只遵循來自處理器的電流。但處理器知道他們在下一個周期中必須做什么,他們可以通知電源轉換器巨大的跳躍即將到來或某些東西被關閉。因此,在某些方面,我們可以共同優化處理器和穩壓器,減少中間電壓電平的數量會有所幫助。
移動數據
另一個挑戰是構建系統,以便在更靠近源的位置處理數據。這減少了需要移動的數據量。但除此之外,數據必須傳輸的距離也需要縮短。這是 3D-IC 封裝背后的關鍵驅動力之一。組件可以戰略性地垂直放置以縮短這些距離,而不是在 SoC 上布線。這提高了性能,以及驅動信號所需的功率。
“目前我們客戶面臨的最大挑戰之一是設計中的線材長度,”Arteris 產品管理和營銷副總裁 Andy Nightingale 說?!岸嘈酒且豁梿为毜奶魬?,但在每個單片芯片上,在進入多芯片之前,縮短導線長度對于電源至關重要。我們關注的一個方面是擁堵。我們在設計分析中也有熱圖,用于查看擁塞,因為這是許多電線在交換機上相遇的關鍵點。我們也在平面圖內工作,我們將物理設計可視化,這樣我們就可以將交換機移出擁塞點,同時仍然在平面圖內工作,以減少一個區域的散熱和電力擁塞。
這也需要轉變思維方式,因為在人工智能數據中心中,功率仍然讓位于性能。但如果沒有更多的電力可用,或者電價飛漲,那么人工智能公司將別無選擇,只能認真對待電力。
“如今,人工智能設計的重點仍然是性能,這意味著雖然功耗真的非常重要,但它仍然是從這些芯片中獲得最佳速度和性能的次要問題,”Ansys(現為新思科技的一部分)產品營銷總監Marc Swinnen說?!翱偸谴嬖诠β?性能權衡,這是根本。所以如果你真的想降低功率,你就必須降低性能。遵循摩爾定律會有所幫助。這降低了功率。另一件事是,大部分功能都在 GPU 和不同元件之間的通信中,甚至是數據中心的背板。NVIDIA 推出了共同封裝的光學網絡,只是為了降低機架內和機架之間的通信功率。
解決這些問題需要整個芯片行業的變革?!八鼜男酒_始,如果芯片非常耗電,而你想構建一個法學碩士,那么你必須訓練這個東西,”西門子的布魯內特說?!澳阃ㄟ^添加多個函數和擴展來訓練它。但是,如果把事情加起來,從一個非常耗電的元件開始,那么整個系統就會非常耗電。您還有一個數字孿生,您還需要大量的能力來計算該數字孿生。但這不僅僅是 EDA 行業的問題。這是全世界的問題。
更高效的加工
好消息是,有一些明顯的唾手可得的成果。“僅僅因為缺乏知名度,就要征收 20% 的電稅,”Movellus 總裁兼首席執行官 Mo Faisal 說。“例如,假設您設計了一個 2 GHz 時功率為 500 瓦的芯片。當您完成系統級測試并準備好進行部署時,您會發現所有這些電力系統都是根據不同的目標構建的。所以現在,如果你想保持在 500 瓦以內,你必須將頻率降低 10% 到 20%。它基本上是一個節流閥。而對于 chiplets,情況只會變得更糟,因為現在你有同樣的東西,但你把它乘以你正在處理的小芯片的數量。每個小芯片可能具有不同的工藝角,或者它可能位于不同的工藝中。
這是圖片的一部分。“通過安裝從芯片到系統一直到數據中心的更多可見性,可以額外獲得 20% 到 30% 的收益,”Faisal 說?!岸疫@兩者都是復合的,所以它不是非此即彼的。原因是芯片設計者擔心風險?!昂?,我可不想讓芯片出現故障。因此,他們將通過冗余來超額計算。但在部署中,當您設計數據中心時,您并沒有為最大工作負載而設計它。您正在針對峰值工作負載進行設計。原因是工作負載和軟件的變化速度比芯片快得多。不可能用你在現場看到的所有工作負載組合來測試芯片,因為工作負載、模型、轉換器和代理都在變化得太快了。所以你必須把它留出邊距。與您在最大負載中看到的容量相比,數據中心容量超額預置了 30%。
了解半導體的使用方式對于這個方程式也至關重要。在最壞的極端情況下,僅添加冗余和保護帶即可增加通過額外電路驅動信號所需的功率,以及由于導線中的電阻/電容而需要消散的熱量。
摩爾定律在這里也起著作用。雖然每個新工藝節點的處理器性能改進都在減少,但功耗的改進預計將大幅增加 — 高達 30%,具體取決于工藝和代工廠。與任何新流程一樣,這些數字可能會因架構和工作負載的不同而有很大差異。
冷卻
經驗法則是數據中心支付兩次電費。第一次是為服務器和存儲的機架供電。第二次是冷卻它們,這樣它們就不會過熱,這正在成為一個更大的問題,因為動態電流密度隨著人工智能服務器的利用率而增加。訓練大型(甚至小型)語言模型以及支持生成式和代理式 AI 搜索需要更多的處理。這反過來又增加了各種計算元素的利用率,因此它們在更長的時間內以全孔運行。
“冷卻的功率開銷約為 30% 到 40%,在沒有冷卻器的情況下進行液體冷卻,您可以將其減少一半,”Saras Bergman 說?!暗牵绻闾砑永鋮s器,它就會立即回升。這里有一個優化游戲需要玩。
這個方程式中的樞軸點是水的可用性。封閉系統中的自來水需要冷卻。使用當地供水則不會。但根據環境與能源研究所的數據,一個大型數據中心每天可以消耗多達 500 萬加侖的水,這大約是一個擁有 10,000 到 50,000 人的城鎮的消耗量。
兩種選擇是單個芯片的直接冷卻和浸入式冷卻。直接冷卻可能涉及微流體通道,這是 IBM 在 1980 年代首次提出的一個想法,后來因為太難而放棄了。但隨著熱密度的增加,芯片制造商可能別無選擇,只能使用某種類型的微流體。盡管如此,實施這種方法會增加結構和制造方面的挑戰。這個想法很好理解,因為水冷已經使用了半個多世紀。但是,在更靠近晶體管的封裝或芯片中實現它仍然是一個挑戰。
“如果你正在研究冷卻技術,就會有傳熱效率,這往往是從熱阻的角度來看的,以及一般意義上的結到流體的溫度,”英特爾高級首席工程師兼公司熱核心能力小組負責人 Rajiv Mongia 解釋道?!暗绻阆霃臒崃W的角度來看待它,它不是結到流體的入口溫度。這是結到流體的出口溫度?;旧?,當您離開封裝或封裝區域時,流體溫度越高,從傳熱的角度來看,下游的所有東西就越容易進行管理。這會影響冷卻設備、冷水機組和所有這些東西的整體效率。
這是堆疊模具的一個關鍵考慮因素。“當我們使用 3D-IC 時,您可能需要在結構本身內獲得流體,例如芯片背面的硅微通道,”Mongia 說?!斑@是一個收益與復雜性的比率。你可以用這種放在背面的盤子來冷卻它。但是,一旦您在 3D 堆棧中進行了足夠的體積加熱(想象某種立方體),您就無法再通過硅的一側將熱量傳導出來。你必須以某種方式從硅內部吸收熱量。歸根結底,將需要一些奇特的機制,因為你在該體積的硅內產生如此多的功率,而不僅僅是在一個表面上。
相比之下,浸入式冷卻涉及將整個服務器放入惰性液體中。這里的挑戰與微流體相同。熱量需要從機架內部吸出,將封裝內部的熱負荷散發到外部冷卻槽比聽起來更復雜。它需要了解封裝中元件的放置位置、潛在的熱界面材料以及從數字邏輯到封裝外部的熱通道。
這兩種方法也可以一起使用來大幅降低熱量,從而實現均勻的晶體管密度和更大的電力需求。
資金和資源
芯片行業不會失去這些。為了至少像今天一樣向前發展并繼續增長,需要解決兩個相關問題 — 可持續性和成本。這些最終將決定 AI 數據中心的部署速度、它們可以處理的處理量,以及從傳輸角度和芯片/系統/封裝設計角度來看需要做出哪些改變。
“可持續發展一直成為等式的一部分,因為幾十年來,企業一直面臨著更好地利用我們的自然資源的壓力,”西門子數字工業軟件首席執行官邁克·埃洛 (Mike Ellow) 說。“這就是我們的前進方向,以半導體為支柱,將幫助許多行業。如果您看看數據中心的功耗,我們就會發現我們的發展方向是不可持續的。對我們來說,挑戰是如何將四倍、五倍或六倍的計算能力放入該數據中心已經存在的相同功率配置文件中。
商業基礎知識也參與了這幅圖景。“歸根結底,這是總擁有成本,”英特爾的 Mongia 說?!盁o論是你正在創建的大型語言模型還是你試圖生成的推理,都要付出資本成本和運營成本。熱能與資本成本和運營成本有關。那么平衡是什么呢?投資回報率是多少?升級到液體冷卻解決方案需要多少成本,因為從歷史上看,這些解決方案比空氣冷卻更昂貴。所有這些人工智能數據中心或人工智能解決方案主要是液冷的。為了讓我們構建它,您需要從您的軟件包中獲得更多收益,這意味著在生成語言模型時獲得更多的推理或更高的性能,從而隨著時間的推移降低運營成本。
結論
為了正確看待這一點,請考慮內華達州的胡佛水壩每年產生約 4 TWh;亞利桑那州帕洛維德核電站年發電量為32太瓦時,中國三峽大壩預計年發電量為90太瓦時。但在 2028 年至 2030 年間,考慮到目前的增長率,人工智能數據中心的電力需求將增加 350 太瓦時,幾乎是所有這些發電設施總和的三倍。[2]
任何單一的改變都不會縮小這種差距。半導體行業要想繼續以目前的速度增長,就需要從電網開始,從芯片開始發生變化。即便如此,目前尚不清楚這是否真的會縮小差距,或者是否只會讓 AI 數據中心變得更大。
評論