Ceva-NeuPro-Nano榮獲亞洲金選獎年度產品獎
● Ceva-NeuPro-Nano?獲得年度最佳IP/處理器產品獎,延續公司智能邊緣IP的領先地位
● Ceva-NeuPro-Nano NPU在小空間內提供超低功耗和高性能的優化平衡,可在消費、工業和通用AIoT產品中高效執行嵌入式AI工作負載。
幫助智能邊緣設備更可靠、更高效地連接、感知和推斷數據的全球領先半導體產品和軟件IP授權許可廠商Ceva公司近日宣布Ceva-NeuPro-Nano NPU在近期于中國臺北舉辦的著名亞洲金選獎(EE Awards Asia)中榮獲年度最佳IP/處理器產品獎。
獲獎的 Ceva-NeuPro-Nano NPU 可為半導體企業和OEM廠商提供所需的功率、性能和成本效率,以便將嵌入式人工智能模型集成到其用于消費、工業和通用 AIoT 產品的SoC 中。嵌入式人工智能模型是直接集成到硬件設備中,并在設備上運行的人工智能算法和系統,無需依賴云端處理。Ceva-NeuPro-Nano NPU解決了嵌入式人工智能方面的性能難題,有望實現無處不在并且經濟實用的人工智能,廣泛應用于消費和工業物聯網應用中的語音、視覺、預測性維護和健康傳感等各種用例。
Ceva首席戰略官Iri Trashanski表示:“贏得亞洲金選獎之年度最佳IP/處理器獎,證明了NeuPro-Nano NPU具有創新性和卓越性,它為功耗受限的設備帶來了經濟有效的人工智能處理技術。連接、感知和推斷是塑造更智能、更高效之未來的三大關鍵支柱,我們很自豪能夠憑借無與倫比的 IP 產品組合在這三種應用案例中一馬當先。”
Ceva-NeuPro-Nano 嵌入式人工智能 NPU 架構完全可編程,可高效執行神經網絡、特征提取、控制代碼和 DSP 代碼,并支持最先進的機器學習數據類型和運算符,包括原生變換器計算、稀疏性加速和快速量化。與現有的采用基于 AI 加速器架構的 CPU 或 DSP 組合的嵌入式 AI 工作負載處理器解決方案相比,這種經過優化的自給自足單核架構使 Ceva-NeuPro-Nano NPU 能夠提供更高的能效、更小的硅片占用空間以及優秀性能。此外,Ceva-NetSqueeze AI 壓縮技術可直接處理壓縮模型權重,而無需中間的解壓縮階段,使得Ceva-NeuPro-Nano NPU的內存占用減少了80%,解決了目前阻礙AIoT處理器廣泛應用的關鍵瓶頸問題。
這款NPU 隨附完整的人工智能 SDK Ceva-NeuPro Studio,這是統一的人工智能堆棧,是適用于整個Ceva-NeuPro NPU 系列的通用工具,支持開放式人工智能框架,包括微控制器 LiteRT(前身為微控制器 TensorFlow Lite)和 microTVM。
亞洲金選獎旨在表彰亞洲電子行業中備受推崇的最佳產品、企業和個人。來自全球的專業技術人士組成評審團,評選出入圍榜單后,再由中國臺灣和亞洲的《EE Times》和《EDN》專業媒體讀者群投票選出優勝者。
供貨
Ceva即日起開始提供Ceva-NeuPro-Nano NPU授權許可。
評論