支持廣泛神經網絡架構的VIP8000處理器
機器學習和神經網絡處理技術承載著嵌入式處理器下一個主要的市場機會。國際數據公司(IDC)預測,全球在人工智能和機器學習方面的支出將從2016年的80億美元增長到2020年的470億美元。AI爆發式增長的背后有三個主要的驅動力:算法的快速演進、強大的技術平臺以及大數據。AI日益無處不在,這就要求消費電子、汽車電子、工業4.0等終端產品具備實時神經網絡推理、可靈活升級至最新最優算法,以及從持續學習中收集有用信息的能力。
芯原是一家芯片設計平臺及服務(Silicon Platform as a Service,SiPaaS?)提供商,為包含移動互聯設備、數據中心、物聯網(IoT)、汽車、工業和醫療設備在內的廣泛終端市場提供全面的系統級芯片(SoC)和系統級封裝(SiP)解決方案。芯原的機器學習和人工智能技術已經全面布局智慧設備的未來發展。基于SiPaaS服務理念,芯原助力客戶在設計和研發階段領先一步,從而專注于差異化等核心競爭優勢。芯原一站式端到端的解決方案則能夠在短時間內打造出從定義到測試封裝完成的半導體產品。寬泛靈活的SiPaaS解決方案為客戶帶去高效經濟的半導體產品替代解決方案。
芯原還提供廣泛且多樣的處理器IP,如GPU、DSP、顯示控制IP、ISP、視頻CODEC,以及神經網絡處理器IP等。其中,VIP8000神經網絡處理器達到了業界最高的推理性能和能效水平,是目前市面上最為可擴展的神經網絡處理平臺。該神經網絡引擎運算速度范圍可從0.5到72萬億次運行/秒(TeraOPS) ,在16nm工藝制程下功率效率可達10萬億次運行/瓦。隨著最新的分級壓縮、適配的平鋪/緩存、裁剪、獲取跳過以及圖像融合技術的引用,VIP8000為與其相關的處理器架構進一步降低了內存帶寬需求。新一代神經網絡引擎IP的推出,使得芯原成為這類應用市場發展的重要推力。從永不斷電的電池驅動類IoT客戶端到AI服務器集群,性能領先業界的VIP8000處理器將持續擴大其應用空間。
VIP8000不僅優于所有傳統的DSP、GPU,以及CPU混合系統,還通過了業界驗證,于1年半以前便授權給用戶使用。2017年,10家主要的ASIC設計廠商在通過評估各類IP和SoC解決方案、并進行嚴格的性能篩選后,最終選擇了采用VIP產品。芯原已將此類IP成功授權給ADAS、自動駕駛、安全監控、家庭娛樂和服務器專用ASIC等廠商。
VIP8000支持寬泛的神經網絡架構,如TensorFlow、Caffe、AndroidNN、AmazonMachine Learning、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN和LSTM等,此外,還提供大量軟件和硬件解決方案以幫助開發者創建高性能神經網絡模型和基于機器學習的應用。由于與Vivante GPU架構相同,VIP8000繼承了其OpenCL可編程性,硬件直接存儲器存取和時序安排,以及多環境并行處理的長處。
對于終端設備來說,有些AI應用并不是孤立的應用,而是可以同時增強現有的許多不同應用。作為芯原Vivante IP產品系列的一部分,VIP8000處理器可以在兼顧芯片尺寸和功耗的情況下,輕松地與其他芯原處理器IP相集成。例如,基于共同的架構,VIP8000神經網絡引擎可以和任何Vivante GPU直接集成以面向AR/VR等應用;還可以與芯原的ZSP音頻DSP集成以面向智能音箱的應用;或是與ISP Nano集成實現低延遲機器視覺攝像頭的設計;又或是與Hantro視屏編碼相結合以實現更好的視頻內容壓縮。
AI已經無處不在。基于正在專利申請中的神經網絡壓縮技術,VIP8000系列產品可幫助設計者快速交付采用AI技術的嵌入式產品,我們已經和從嵌入式產品到服務器應用的各個領先廠商展開了深度合作。應用和算法都在快速演進,芯原的AI技術與公司其他廣泛的IP組合將為客戶帶去突破性的解決方案,以加速AI技術實現其產業價值。
評論