ChatGPT的背后:指數級增長的芯片與半導體需求
近期ChatGPT大火。除了模型本身帶來的紅利以外,還有模型需求增加導致的算力提升,因此有望帶來指數級增長的芯片與半導體需求。
原文:
ChatGPT熱潮席卷全球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的對話AI模型,一經面世便受到廣泛關注,其2023年1月月活躍用戶達到1億,是史上月活用戶增長最快的消費者應用。
ChatGPT主要以問答類為主,但與其他問答類AI產品不同,其具備訓練集中的所有知識,具有語言生成能力,可以實現擬人化交流,而不只是像天貓精靈、小愛同學等其他AI產品的一問一答模式。在問答模式的基礎上ChatGPT可以進行推理、編寫代碼、文本創作等等,這樣的特殊優勢和用戶體驗使得應用場景流量大幅增加。
▲芯片需求=量↑x價↑
1)量:AIGC帶來的全新場景+原場景流量大幅提高
① 技術原理角度:ChatGPT是基于GPT3.5架構開發的對話AI模型,歷經 GPT-1/2/3迭代,在GPT3.5模型后,開始引入代碼訓練和指令微調,加入RLHF技術(人類反饋強化學習),從而實現能力進化。GPT作為知名的NLP模型,基于Transformer技術,隨著模型不斷迭代,層數也越來越多,對算力的需求也就越來越大。
② 運行條件角度:ChatGPT完美運行的三個條件:訓練數據+模型算法+算力。其中訓練數據市場廣闊,技術壁壘較低,投入足夠的人力物力及財力后即可獲得;基礎模型及模型調優對算力的需求較低,但獲得ChatGPT功能需要在基礎模型上進行大規模預訓練,存儲知識的能力來源于1750億參數,需要大量算力。所以,算力是ChatGPT運行的關鍵所在。
2)價:對高端芯片的需求將拉動芯片均價
采購一片英偉達頂級GPU成本為8萬元,GPU服務器成本通常超過40萬元。對于ChatGPT而言,支撐其算力基礎設施至少需要上萬顆英偉達GPU A100,一次模型訓練成本超過1200萬美元。
從芯片市場角度出發,芯片需求的快速增加會進一步拉高芯片均價。目前OpenAI已推出20美元/月訂閱模式,初步構建了優質的訂閱商業模型,未來繼續擴容的能力將會大幅提升。
“背后英雄”系GPU或CPU+FPGA等算力支撐
1)GPU可支撐強大算力需求。具體來說,從AI模型構建的角度:第一階段是用超大算力和數據構建預訓練模型;第二階段是在預訓練模型上進行針對性訓練。而GPU由于具備并行計算能力,可兼容訓練和推理,所以目前被廣泛應用,ChatGPT訓練模型中就已導入至少1萬顆英偉達GPU(曾經風靡一時的AlphaGO也只需要8塊GPU),推理部分使用微軟的azure云服務,也需要GPU進行運作。所以,ChatGPT的火熱興起對GPU的需求可見一斑。
2)CPU+FPGA拭目以待。從深度學習的角度來看,雖然GPU是最適合深度學習應用的芯片,但CPU和FPGA也不可忽略。FPGA芯片作為可編程芯片,可以針對特定功能進行擴展,在AI模型構建第二階段具有一定的發揮空間。而FPGA想要實現深度學習功能,需要與CPU結合,共同應用于深度學習模型,同樣可以實現龐大的算力需求。
3)云計算依靠光模塊實現設備互聯。AI模型向以ChatGPT為首的大規模語言模型發展,驅動數據傳輸量和算力提升。伴隨數據傳輸量的增長,光模塊作為數據中心內設備互聯的載體,需求量隨之增長。此外,伴隨算力提升能耗增長,廠商尋求降低能耗方案,推動低能耗的光模塊發展。
結論:ChatGPT作為一種新興的超智能對話AI產品,無論是從技術原理角度還是運行條件角度,ChatGPT都需要強大算力作為支撐,從而帶動場景流量大幅增加,此外,ChatGPT對于高端芯片的需求增加也會拉動芯片均價,量價齊升導致芯片需求暴漲;面對指數級增長的算力和數據傳輸需求,可以進行提供的GPU或CPU+FPGA芯片廠商、光模塊廠商即將迎來藍海市場。
看好:看好國內GPU、CPU、FPGA、AI芯片及光模塊產業鏈玩家。
① GPU:海光信息、景嘉微
② CPU:龍芯中科、中國長城
③ FPGA:安路科技、復旦微電、紫光股份
④ AI芯片:寒武紀、瀾起科技
⑤ 光模塊:德科立、天孚通信、中際旭創
風險提示:1)半導體下游需求不及預期;2)研發進度不及預期。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。