行業首部DPU白皮書出爐!比肩CPU/GPU的數據時代核芯,巨頭紛紛入場
DPU,繼CPU和GPU之后的“第三顆主力芯片”。
編輯 | 智東西內參
近日,中科院計算所行業首次發布了報告《專用數據處理器 (DPU)白皮書》。DPU(Data Processing Unit)是以數據為中心構造的專用處理器,采用軟件定義技術路線支撐基礎設施層資源虛擬化,支持存儲、安全、服務質量管理等基礎設施層服務。
DPU正在開啟一個巨大的產業化趨勢,可以為下一代數據中心、5G邊緣計算、云計算提供核心組件。2020年NVIDIA公司發布的DPU產品戰略中將其定位為數據中心繼CPU和GPU之后的“第三顆主力芯片”,掀起了一波行業熱潮。DPU的出現是異構計算的一個階段性標志。
我們推薦中科院計算所的報告《專?數據處理器 (DPU)白皮書》, 重點分析DPU產生的背景、技術特征和發展趨勢
來源 中科院計算所
原標題:
《專?數據處理器 (DPU)白皮書》
作者: 鄢貴海 等
什么是DPU
與GPU的發展類似,DPU是應用驅動的體系結構設計的又一典型案例;但與GPU不同的是,DPU面向的應用更加底層。DPU要解決的核心問題是基礎設施的“降本增效”,即將“CPU處理效率低下、GPU處理不了”的負載卸載到專用DPU,提升整個計算系統的效率、降低整體系統的總體擁有成本(TCO)。DPU的出現也許是體系結構朝著專用化路 線發展的又一個里程碑。
DPU中的“D”有三種解釋:(1)Data Processing Unit,即數據處理器。這種解釋把“數據”放在核心位置,區別于信號處理器、基帶處理器等通信相關的處理器對應的“信號”,也區別于GPU對應的圖形圖像類數據,這里的“數據”主要指數字化以后的各種信息,特別是各種時序化、結構化的數據,比如大型的結構化表格,網絡流中的數據包,海量的文本等等。DPU就是處理這類數據的專用引擎。
(2)Datacenter Processing Unit,即數據中心處理器。這種解釋把數據中心作為DPU的應用場景,特別是隨著WSC(Warehouse-scale Computer)的興起,不同規模的數據中心成為了IT核心基礎設施。目前來看,DPU確實在數據中心中使用前景非常廣闊。但是計算中心的三大部分:計算、網絡、存儲,計算部分是CPU占主導,GPU輔助;網絡部分是路由器和交換機,存儲部分是高密度磁盤構成的的RAID系統和SSD為代表非易失性存儲系統。在計算和網絡中扮演數據處理的芯片都可以稱之為Datacenter Processing Unit,所以這種說法相對比較片面。
(3)Data-centric Processing Unit,即以數據為中心的處理器。Data-centric,即數據為中心,是處理器設計的一種理念,相對于“Control-centric”即控制為中心。經典的馮諾依曼體系結構就是典型的控制為中心的結構,在馮諾依曼經典計算模型中有控制器、計算器、存儲器、輸入和輸出,在指令系統中的表現是具有一系列非常復雜的條件跳轉和尋址指令。
而數據為中心的理念與數據流(Data Flow)計算一脈相承,是一種實現高效計算的方法。同時,現在試圖打破訪存墻(Memory Wall)的各種近存(Near-memory)計算、存內(In-memory)計算、存算一體等技術路線,也符合數據為中心的設計理念。
總體來說,DPU有四大應用方向,應用于網絡、存儲和安全場景:
(1)、DPU最直接的作用是作為CPU的卸載引擎,接管網絡虛擬化、硬件資源池化等基礎設施層服務,釋放CPU的算力到上層應用;
(2)、DPU可以成為新的數據網關,將安全隱私提升到一個新的高度。在網絡環境下,網絡接口是理想的隱私的邊界,但是加密、解密算法開銷都很大,例如國密標準的非對稱加密算法SM2、哈希算法SM3和對稱分組密碼算法SM4。
如果用CPU來處理,就只能做少部分數據量的加密。在未來,隨著區塊鏈承載的業務的逐漸成熟,運行共識算法POW,驗簽等也會消耗掉大量的CPU算力。而這些都可以通過將其固化在DPU中來實現,甚至DPU將成為一個可信根。
(3)、DPU也可以成為存儲的入口,將分布式的存儲和遠程訪問本地化。隨著SSD性價比逐漸可接受,部分存儲遷移到SSD器件上已經成為可能,傳統的面向機械硬盤的SATA協議并不適用于SSD存儲,所以,將SSD通過本地PCIe或高速網絡接入系統就成為必選的技術路線。
(4)、DPU還可以成為算法加速的沙盒,成為最靈活的加速器載體。DPU不完全是一顆固化的ASIC,在CXL、CCIX等標準組織所倡導CPU、GPU與DPU等數據一致性訪問協議的鋪墊下,將更進一步掃清DPU編程障礙,結合FPGA等可編程器件,可定制硬件將有更大的發揮空間,“軟件硬件化”將成為常態,異構計算的潛能將因各種DPU的普及而徹底發揮出來。
2、DPU與CPU、GPU的關系CPU是整個IT生態的定義者,無論是服務器端的x86還是移動端的ARM,都各自是構建了穩固的生態系統,不僅形成技術生態圈,還形成了閉合價值鏈。
GPU是執行規則計算的主力芯片,如圖形渲染。經過NVIDIA對通用GPU(GPGPU)和CUDA編程框架的推廣,GPU在數據并行的任務如圖形圖像、深度學習、矩陣運算等方面成為了主力算力引擎,并且成為了高性能計算最重要的輔助計算單元。2021年6月公布的Top500高性能計算機(超級計算機)的前10名中,有六臺(第2、3、5、6、8、9名)都部署有NVIDIA的GPU。
數據中心與超極計算機不同,后者主要面向科學計算,如大飛機研制,石油勘探、新****物研發、氣象預報、電磁環境計算等應用,性能是主要指標,對接入帶寬要求不高;但數據中心面向云計算商業化應用,對接入帶寬,可靠性、災備、彈性擴展等要求更高,與之相適應發展起來的虛擬機、容器云、并行編程框、內容分發網等等技術,都是為了更好的支撐上層商業應用如電商、支付、視頻流、網盤、辦公OA等。
但是這些IaaS和PaaS層的服務開銷極大,Amazon曾公布AWS的系統開銷在30%以上。如果需要實現更好的QoS,在網絡、存儲、安全等基礎設施服務上的開銷還會更高。
這些基礎層應用類型與CPU架構匹配程度不高導致計算效率低下。現有的CPU的架構有兩個大類:多核架構(數個或數十幾個核)和眾核架構(數百個核以上),每種架構支持唯一的規范通用指令集之一,如x86、ARM等。以指令集為界,軟件和硬件被劃分開來分別獨立發展,迅速的催生了軟件產業和微處理器產業的協同發展。
但是,隨著軟 件復雜度的上升,軟件的生產 率(Productivity)得到更多的重視,軟件工程學科也更加關注如何高效地構建大型軟件系統,而非如何用更少的硬件資源獲得盡可能高的執行性能。
業界有個被戲稱的“安迪比爾定律”,其內容是“What Andy gives, Bill takes away”,安迪(Andy)指英特爾前CEO安迪·格魯夫,比爾(Bill)指微軟前任CEO比爾·蓋茨,意為硬件提高的性能,很快被軟件消耗掉了。
正如CPU在處理圖像處理時不夠高效一樣,現在有大量的基礎層應用CPU處理起來也比較低效,例如網絡協議處理,交換路由計算,加密解密,數據壓縮等這類計算密集的任務,還有支持分布式處理的數據一致性協議如RAFT等。
這些數據或者通過從網絡IO接入系統,或者通過板級高速PCIe總線接入系統,再通過共享主存經由DMA機制將數據提供給CPU或GPU來處理。既要處理大量的上層應用,又要維持底層軟件的基礎設施,還要處理各種特殊的IO類協議,復雜的計算任務讓CPU不堪重負。
這些基礎層負載給“異構計算”提供了一個廣闊的發展空間。將這些基礎層負載從CPU上卸載下來,短期內可以“提質增效”,長遠來看還為新的業務增長提供技術保障。DPU將有望成為承接這些負載的代表性芯片,與CPU和GPU優勢互補,建立起一個更加高效的算力平臺。
可以預測,用于數據中心的DPU的量將達到和數據中心服務器等量的級別,每年千萬級新增,算上存量的替代,估算五年總體的需求量將突破兩億顆,超過獨立GPU卡的需求量。每臺服務器可能沒有GPU,但必須有DPU,好比每臺服務器都必須配網卡一樣。
3、異構計算的階段性標志DPU的出現是異構計算的又一個階段性標志。摩爾定律放緩使得通用CPU性能增長的邊際成本迅速上升,數據表明現在CPU的性能年化增長(面積歸一化之后)僅有3%左右,但計算需求卻是爆發性增長,這幾乎是所有專用計算芯片得以發展的重要背景因素。
摩爾定律的放緩與全球數據量的爆發這個正在迅速激化的矛盾通常被作為處理器專用化的大背景,正所謂硅的摩爾定律雖然已經明顯放緩,但“數據摩爾定律”已然到來。IDC的數據顯示,全球數據量在過去10年年均復合增長率接近50%,并進一步預測每四個月對于算力的需求就會翻一倍。
因此必須要找到新的可以比通用處理器帶來更快算力增長的計算芯片,DPU于是應運而生。這個大背景雖然有一定的合理性,但是還是過于模糊,并沒有回答DPU之所以新的原因是什么,是什么“量變”導致了“質變”?
從現在已經公布的各個廠商的DPU架構來看,雖然結構有所差異,但都不約而同強調網絡處理能力。從這個角度看,DPU是一個強IO型的芯片,這也是DPU與CPU最大的區別。CPU的IO性能主要體現在高速前端總線(在Intel的體系里稱之為FSB,Front Side Bus),CPU通過FSB連接北橋芯片組,然后連接到主存系統和其他高速外設(主要是PCIe設備)。目前更新的CPU雖然通過集成存儲控制器等手段弱化了北橋芯片的作用,但本質是不變的。
DPU的IO帶寬幾乎可以與網絡帶寬等同,例如,網絡支持25G,那么DPU就要支持25G。從這個意義上看,DPU繼承了網卡芯片的一些特征,但是不同于網卡芯片,DPU不僅僅是為了解析鏈路層的數據幀,而是要做直接的數據內容的處理,進行復雜的計算。所以,DPU是在支持強IO基礎上的具備強算力的芯片。簡言之,DPU是一個IO密集型的芯片;相較而言,DPU還是一個計算密集型芯片。
進一步地,通過比較網絡帶寬的增長趨勢和通用CPU性能增長趨勢,能發現一個有趣的現象:帶寬性能增速比(RBP,Ratio of Bandwidth andPerformance growth rate)失調。RBP定義為網絡帶寬的增速比上CPU性能增速,即RBP=BW GR/Perf. GR如下圖所示,以Mellanox的ConnectX系列網卡帶寬作為網絡IO的案例,以Intel的系列產品性能作為CPU的案例,定義一個新指標“帶寬性能增速比”來反應趨勢的變化。
2010年前,網絡的帶寬年化增長大約是30%,到2015年微增到35%,然后在近年達到45%。相對應的,CPU的性能增長從10年前的23%,下降到12%,并在近年直接降低到3%。在這三個時間段內,RBP指標從1附近,上升到3,并在近年超過了10!如果在網絡帶寬增速與CPU性能增速近乎持平,RGR~1,IO壓力尚未顯現出來,那么當目前RBP達到10倍的情形下,CPU幾乎已經無法直接應對網絡帶寬的增速。RBP指標在近幾年劇增也許是DPU終于等到機會“橫空出世”的重要原因之一。
4、DPU發展歷程隨著云平臺虛擬化技術的發展,智能網卡的發展基本可以分為三個階段:
隨著越來越多的功能加入到智能網卡中,其功率將很難限制在75W之內,這樣就需要獨立的供電系統。所以,未來的智能網卡形態可能有三種形態:
(1)獨立供電的智能網卡,需要考慮網卡狀態與計算服務之間低層信號識別,在計算系統啟動的過程中或者啟動之后,智能網卡是否已經是進入服務狀態,這些都需要探索和解決。
(2)沒有PCIe接口的DPU智能網卡,可以組成DPU資源池,專門負責網絡功能,例如負載均衡,訪問控制,防火墻設備等。管理軟件可以直接通過智能網卡管理接口定義對應的網絡功能,并作為虛擬化網絡功能集群提供對應網絡能力,無需PCIe接口。
(3)多PCIe接口,多網口的DPU芯片。例如Fungible F1芯片,支持16個雙模PCIe控制器,可以配置為Root Complex模式或Endpoint模式,以及8x100G網絡接口。通過PCIe Gen3 x8接口可以支撐8個Dual-Socket計算服務器,網絡側提供8x100G帶寬的網口。
DPU作為一種新型的專用處理器,隨著需求側的變化,必將在未來計算系統中成為一個重要組成部分,對于支撐下一代數據中心起到至關重要的作用。
5、產業化機遇數據中心作為IT基礎設施最重要的組成部分在過去10年成為了各大高端芯片廠商關注的焦點。各大廠商都將原有的產品和技術,用全新的DPU的理念重新封裝后,推向了市場
NVIDIA收購Mellanox后,憑借原有的ConnectX系列高速網卡技術,推出其BlueField系列DPU,成為DPU賽道的標桿。作為算法加速芯片頭部廠商的Xilinx在2018年還將“數據中心優先(Datacenter First)”作為其全新發展戰略。發布了Alveo系列加速卡產品,旨在大幅提升云端和本地數據中心服務器性能。
2019年4月,Xilinx宣布收購Solarflare通信公司,將領先的FPGA、MPSoC和ACAP解決方案與 Solarflare 的超低時延網絡接口卡( NIC )技術以及應用加速軟件相結合,從而實現全新的融合SmartNIC解決方案。Intel 2015年底收購了Xilinx的競爭對手——Altera,在通用處理器的基礎上,進一步完善硬件加速能力。
Intel 2021年6月新發布的IPU產品(可以被視為Intel版本的DPU),將FPGA與Xeon D系列處理器集成,成為了DPU賽道有力的競爭者。IPU是具有強化的加速器和以太網連接的高級網絡設備,它使用緊密耦合、專用的可編程內核加速和管理基礎架構功能。
IPU提供全面的基礎架構分載,并可作為運行基礎架構應用的主機的控制點,從而提供一層額外防護。幾乎同一時間,Marvall發布了OCTEON 10DPU產品,不僅具備強大的轉發能力,還具有突出的AI處理能力。
在同一時期, 一些傳統并不涉足芯片設計的互聯網廠商,如海外的Google、Amazon,國內的阿里巴巴等巨頭紛紛啟動了自研芯片的計劃,而且研發重點都是面向數據處理器的高性能專用處理器芯片,希望以此改善云端的服務器的成本結構,提高單位能耗的性能水平。數據研究預測DPU在云計算市場的應用需求最大,且市場規模隨著云計算數據中心的迭代而增長,到2025年單中國的市場容量都將達到40億美元的規模。
業界產品概要
NVIDIA推出的BlueField系列DPU,在支持網絡處理、安全和存儲功能的同時,實現網絡虛擬化、硬件資源池化等基礎設施層服務。BlueField DPU既是一個承擔高帶寬(100Gbs/200Gbs/400Gbs)的網絡處理器,同時也是一個獨立的嵌入式處理器,它管理著眾多加速器引擎,比如加密解密、正則表達式匹配以及存儲加速等等。BlueField DPU也可以通過ARM核運行嵌入式Linux系統,處理一定控制面的任務,具有一定的通用能力。
NVIDIA 2020年推出BlueField-2系列 DPU,并計劃在2022年推出性能更強的BlueField-3 DPU。
▲BlueField 系列DPU
BlueField-2 DPU具有ConnectX-6的網絡處理功能,可支持高速以太網(200Gb/s)或 InfiniBand兩種接口, 八個ARM核,高帶寬DRAM和PCIe交換機,通過高速Mesh網絡連接在一起。包含支持網絡、存儲、加密、流媒體等計算的專用加速器,同時具有面向安全、虛擬化、硬件隔離和遠程管理的功能。
BlueField-2X DPU相比于BlueField-2 DPU,增加了對AI功能的支持,融合NVIDIA Ampere 架構的GPU并行處理能力與BlueField-2 DPU的數據處理能力。BlueField-3 DPU是第三代NVIDIA DPU。與BlueField-2 DPU相比,設計支持400Gb/s以太網或NDR InfiniBand網絡連接,也可以卸載、加速和隔離軟件定義的網絡、存儲、安全和管理功能,從而提高數據中心的性能、效率和安全性。
2、Intel IPU(Mount Evans)IPU(Infrastructure Processing Unit)是一種具有強化加速和以太網連接的網絡設備,可使用緊密耦合的專用可編程內核來加速和管理基礎設施。IPU提供完整的基礎設施卸載,并通過充當運行基礎設施應用程序的主機的控制點來提供額外的安全層。
通過使用IPU,可以從服務器卸載與運行基礎設施任務相關的開銷。云服務供應商(cloud service provider,CSP)軟件在IPU本身上運行,而租戶的應用程序在服務器CPU上運行。這不僅釋放了服務器上的資源,同時優化了整體性能,而且為CSP提供了一個單獨且安全的控制點。
IPU將基于硬件的數據路徑(包括 FPGA)與處理器內核相結合,使得基礎設施以硬件的速度處理,能夠跟上不斷提高的網絡速度和軟件實現控制平面功能的靈活性。IPU具有以下三個優勢:基礎設施功能和租戶工作負載物理分離允許用戶完控制CPU;供應商可以將基礎設施任務完全卸載給IPU,有助于提高CPU資源利用率,最大化收益;實現完全無磁盤服務器架構的云數據中心。
隨著基礎設施和租戶業務的物理分離,通過加速器可以有效地卸載基礎設施功能,并將其轉移到真正的無磁盤架構。Intel認為IPU將成為未來數據中心架構的核心組件,在2021年的Intel Architecture Day上,Intel推出了基于FPGA和ASIC的兩種實現方式的產品。其中,Oak Springs Canyon和Arrow Creek是針對云和通信的基于FPGA的IPU產品,Mount Evans是基于ASIC的IPU產品。目前,相關產品的技術細節還未對外公布。
3、Marvell OCTEON2021年6月28日Marvell發布了基于5nm工藝的OCTEON 10系列DPU,搭載了算力強勁的ARM Neoverse N2核,并且配備了多種硬件加速模塊,包括加解密、包處理及人工智能推理加速器。同時為了提供用戶友好的可編程接口,提高應用開發效率,Marvell配套硬件設計了包括DPDK、Marvell ML toolchain等在內的軟件開發平臺。
▲Marvell OCTEON 10系列DPU
OCTEON 10子產品包括CN103,CN106,CN106S 和DPU 400,不同子產品間的主要區別在于集成的ARM Neoverse N2核數,核數越多,性能越強的同時功耗也相對越大(不高于60W)。目前OCTEON 10 系列DPU產品形式主要為芯片及其配套開發平臺(如圖5-8),開發平臺預計于2021年第四季度面世。四款子產品僅公布了其核心技術特征,具體產品細節及形式尚未披露。
4、Fungible DPU針對以數據為中心(data-centric)應用的處理,Fungible研發了F1 DPU處理器和TrueFabric互聯技術。TrueFabric是由Fungible首先提出的新型大規模數據中心網絡互聯標準,這種Fabric互聯協議基于標準的UDP/IP/Ethernet協議棧構建。
RoCEv2是一種當前數據中心網絡中主流的互聯網絡協議,該協議同樣基于UDP/IP/Ethernet搭建,對終端提供高性能的RDMA Read/Write服務,而TrueFabric對接入點提供高性能的Send/Receive服務。Fungible F1 DPU原生支持TrueFabric,因此F1 DPU可以用于大規模TrueFabric數據中心網絡,不同類型的服務器都可以將Fungible DPU作為網絡接入點。
5、中科馭數 K2 DPU核處理器(Kernel Processing Unit,KPU)是中科馭數原創的軟件定義計算架構,專為加速特定領域核心功能計算而設計的一種協處理器架構。KPU以功能核作為基本單元,直接對應用中計算密集型應用進行抽象核和高層綜合,實現以數據為中心的架構“定制”。KPU具有超強異構核集成和調度能力,一顆KPU根據需求可以集成數十至數百個功能核。在運行機制上,KPU采用“數據驅動并行計算”的方式,運行過程中通過數據流來激活不同的功能核進行相應計算。
通過軟件定義的方式用戶可以靈活的建立“功能核”與應用層運算之間的關系,從而實現“功能核”到運算需求的“一對一”服務,保證計算效率。且不同于FPGA在電路層的改造的性能犧牲,KPU的核心技術在功能核層,功能核來自于對于計算模式的抽象,并將其IP化。通過高層次綜合,既實現了領域內硬件的統一,降低了規模限制的硬件成本和設計周期,又能通過軟件編程實現不同功能的計算;特定需求只需要增刪功能核的種類和數量即可。在整體計算效率提升百倍的前提下,仍然具有非常高的可擴展性和靈活性。
目前中科馭數已經完成了四類KPU芯片架構設計,1)KPU-Swift針對網絡協議處理設計;2)KPU-Conflux針對時間序列/大數據分析設計;3)KPU-Trusy針對安全領域處理設計,4)KPU-FlexFlow針對智能計算設計。并在5個應用領域積累了80余類功能核。
中科馭數在2019年完成第一代KPU芯片K1流片,針對序列數據處理及數據庫/大數據分析而設計。集成了序列卷積tscov、序列濾波tsfir、序列距離tsdist、序列相似tsdtw等20多類功能核。相比于傳統軟件解決方案,基于馭數K1的加速方案在數據庫/大數據分析,以及時間序列處理等業務場景中可獲得超2個數量級的性能提升。
DPU未來展望
工業和信息化部發布的《新型數據中心發展三年行動計劃(2021-2023年)》中明確提出要加快提升算力算效水平,“推動CPU、GPU等異構算力提升,逐步提高自主研發算力的部署比例”,“加強專用服務器等核心技術研發”,“樹立基于5G和工業互聯網等重點應用場景的邊緣數據中心應用標桿”等等。
該行動計劃也部分反映了DPU等新型算力芯片難得的歷史發展機遇。雖然國內廠商在芯片產品化的環節還相比國外一線廠商還有差距,但是在DPU架構的理解上還是有獨到的見解的,而且我國目前在數據中心這個領域,無論是市場規模還是增速,特別是用戶數量,相較于國外都有巨大的優勢。國內廠商有望充分利用這一“應用勢能”,加快發展步伐,在DPU這個賽道與國外廠商逐鹿中原。
DPU的潛在市場非常巨大,預測到2025年僅中國市場就能達到每年40億美元的規模,估計全球將超過120億美元,但挑戰與機遇并存。IaaS在國內云服務市場占比約60%,支撐了目前最重要的PaaS的容器云技術。未來幾年,我國仍將維持IaaS為主的云計算結構,預計市場占比將逐上升到70%。
目前要解決DPU標準化應用,還存在一定挑戰。由于數據中心本身的復雜性,各大廠商一方面采用COTS組件來構建系統,追求低成本,一方面又設法分層服務化(IaaS,PaaS,SaaS),打造面向不用類型客戶的標準化產品,但除此之外的所有技術實現幾乎都是各家“八仙過海,各顯神通”,如AWS有Nitro,阿里云有MOC。有的廠商強化IO能力、有的關注路由轉發、有的重視存儲卸載、有的關注安全加密——不一而足。例如各大公有云廠商、電信運營商等都有比較完整、也比較封閉的底層架構和應用生態。上層負載不同,必然對底層架構有各異的需求,這也許是目前DPU標準化面臨的最大的挑戰。
DPU作為一類專用處理器,與通用CPU的發展路徑可能會有所不同。專用計算體系結構和通用計算體系結構的陣地是不同的,專用計算競爭的焦點是數據平面,而通用計算競爭的焦點是控制平面。專用計算好比是造賽車,目標就是“快”,重點是根據賽道的類型來決定賽車的結構;通用計算好比是造民用車,目標更加的多元化,不僅要兼顧不同路況下的可用性,還要考慮性價比、代際兼容性等等。
所以,以通用CPU的標準來看待DPU可能并不合適,甚至會制約了專用DPU的發展。一個有商業價值的技術必須建立在“技術閉環”的基礎上:錨定需求、研發、使用、反饋、再研發改進、再擴大使用范圍……,即所謂“先垂直深耕,再水平擴展”的發展戰略可能更適合DPU的發展。技術只有投入使用才能體現價值,有使用價值才有可能商業化,才能完成技術閉環到商業閉環的進化。
技術閉環的形成需要集中火力打穿到應用才能鋪就。碎片化并不是“專用”障礙,反而應該是專用技術路線充分利用的優勢。當然,傳統的“one-size-fit-all”的ASIC商業模式,通過上量來攤薄芯片研發的巨額NRE成本本身還是有效的,所以專用DPU最終也要謀求“水平擴展”來覆蓋更多的場景,還是要盡可能把各異的需求整合起來,并且適應不同廠商的數據中心架構,但這必將是一個長期而艱巨的任務。
DPU肯定不算是一個“低垂的果實”,各個DPU廠商可能不能寄期望于當前“需求各異、體系封閉”的局面自發地在短期內變得“整齊劃一,全面開放”,只能是在競爭合作的博弈過程中,逐漸滿足越來越多的行業需求。放棄幻想,步步為營,“結硬寨,打呆仗”,這需要長期行業“Knowhow”的整合和持續的產品迭代。
更需要上下游企業共同來構建良性、開放的生態環境,按照基礎性技術研發的規律來研發DPU,面向網絡、安全、存儲、虛擬化等基礎技術,劃分好邏輯層次,利用好“軟件定義”的思想,構造一個完整的DPU軟硬件體系。而不是把DPU當成普通的算法加速器,只謀求解決一些碎片化的需求。
從目前行業的關注度來看,DPU帶來的機遇已經基本形成共識,期待在這一趨勢的驅使下,行業內的各個廠商協同起來,將DPU這一創新的產品早日賦能各行各業,成為新的生產力。
在英偉達的帶領下,今年DPU的概念非常火爆,這也說明了在摩爾定律即將走向終結的大背景下,通過工藝提升來提高芯片性能、成本等的方式已經不復存在。新時代的信息革命需要劍走偏鋒,用新的計算架構來滿足龐大的運算和數據的需求。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。