引領人工智能發展:英特爾的獨家方法論
內容摘要
● 人工智能是增長最快的計算工作負載,其復雜性也在不斷增長,對計算、功率和帶寬的要求也越來越高。
● 我們處于一個轉折點:人工智能正在逐漸突破數據中心,隨著人工智能應用時代的到來,人工智能的未來更在數據中心之外。
● 英特爾以獨家方法論推動人工智能從云到端再到邊緣的發展。
● 英特爾的人工智能策略是通過降低用戶的進入門檻加速人工智能普及。基于英特爾?至強?處理器和英特爾強大的產品組合及開放的軟件生態系統,我們不僅能夠引領人工智能的發展,也可以深入影響更廣泛的行業趨勢,讓每個人都可以更便捷地使用人工智能。
Sandra Rivera英特爾公司執行副總裁兼數據中心與人工智能事業部總經理
人工智能(AI)的核心是使機器識別模式并據此做出準確預測的能力。而隨著AI模型持續變得更加精妙和復雜,對更多計算、內存、帶寬和功率的需求也與日俱增。
AI是增長最快的計算工作負載,也是英特爾認為將對世界產生變革性影響的四大超級技術力量之一。盡管它誕生于數據中心,但我相信AI的未來在數據中心之外。AI在客戶端和邊緣的應用時代已經來臨,為了讓AI從云端擴展到邊緣,社區需要一種更加開放和整體的解決方案來加速并簡化整個數據建模和部署管道。我們的策略是復制公司歷史上為其他重大技術轉型所采取的措施:向更多客戶開放,加速AI的普及化并推動更大規模的應用。
在全球范圍內,英特爾是為數不多的能夠更好地引領世界進入AI下一個時代的公司。基于我們強大的生態系統和開放式軟件,以及至關重要的CPU、GPU、ASIC等架構能夠滿足無數AI使用場景的特定需求,這將使我們能夠引領市場發展并為無處不在的開放式AI打下堅實基礎。
一系列具備AI特性的領先架構
提及AI,許多人立刻會聯想到深度學習訓練和顯卡性能。由于訓練往往是大規模并行的,因此顯卡得到了很多關注,但這只是AI的一部分。大部分AI實踐中的解決方案會包含經典機器學習算法和中低復雜度的深度學習模型的組合,而這些功能都已經被集成在至強等現代CPU內。
目前,AI數據流水線主要在至強處理器上運行。通過內置加速和優化軟件,我們能夠讓至強處理器運行得更快。基于此,我們一方面通過Sapphire Rapids,將AI的總體性能比上一代產品提高最多30倍;同時,我們還通過將更多AI工作負載引入至強處理器以減少對獨立加速器的需求,從而進一步提高至強處理器的產品競爭力。對于諸如至強等英特爾產品而言,AI功能和優化并不是一個新概念。因此,我們計劃擴展這種方法,將AI融入我們交付到數據中心、客戶端、邊緣、顯卡等諸多領域的每個產品中。
對于那些真正在GPU上表現最佳的深度學習訓練,我們希望客戶能夠自由選擇最適合其AI工作負載的計算。現階段的GPU是專有且封閉的,但我們有一款針對特定領域的Habana Gaudi AI處理器,和一款專為高性能計算打造的Ponte Vecchio顯卡,它們將基于開放的行業標準。我們對Gaudi目前取得的進展感到十分高興,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1實例,其性價比較基于顯卡的現有實例高40%,并在早期Gaudi使用測試中表現優異。
打造成熟的生態系統吸引更多客戶
特定的模型、算法和要求會因使用場景和行業而變化。例如,一家自動駕駛汽車公司需要解決感知(使用物體檢測、定位和分類)、高清地圖和路線規劃等問題,并采取需要適應動態環境的行動。此外,技術支持軟件的聊天機器人也需要了解特定公司和行業的技術術語,才能準確地回答相關問題。同理,對AI軟硬件需求也因客戶、細分市場、工作負載和設計點而異。設備端、嵌入式和客戶端AI系統需要在功耗和散熱受限條件下實現低延遲推理。人們也越來越需要云中開發的AI具有邊緣感知能力,以便云中開發的解決方案可以部署在邊緣,反之亦然。
所有這些因素都在推動從數據中心到網絡再到邊緣的全面創新,并影響諸如高帶寬和大容量內存、快速互連和智能軟件在內的系統級硬件架構。
端到端AI流水線中最大的增長點在于模型部署和AI推理階段。如今,超過70%的AI推理在至強處理器上運行,其中一個增長最快的AI推理使用場景是智能邊緣,而至強已在此領域深耕多年。
在過去的八個月中,我一直在與主要客戶保持密切溝通,以更深入了解他們的需求和工作負載。這些交流不僅讓我們深入了解到如云服務供應商之類的有較強影響力客戶的需求,也向我們展示了戰略合作伙伴如何幫助我們了解我們自身產品組合所應用的關鍵領域。現階段,有數以萬計的云實例在英特爾處理器上運行,而且它的增長速度比任何其他架構都快。與此同時,針對x86架構編寫的代碼有數千億行,整個行業也已經安裝了數億顆至強處理器。因此,英特爾具備得天獨厚的優勢,不僅可以通過行業標準橫向推動行業發展,亦能在需求更加專業的自動化和醫療等領域縱向推動行業發展。
面向AI開發者的開放軟件堆棧
硬件只是解決方案的一部分,因此我們在AI策略上始終秉持“軟件優先”的理念。其中,“軟件優先”包括安全的AI軟件組件,即讓用戶能夠利用至強處理器的獨特軟件和安全功能,如通過英特爾?軟件防護擴展(英特爾? SGX)進行機密計算,保護使用中的關鍵數據和軟件。英特爾?SGX是業界第一個也是部署最多的基于硬件的數據中心可信執行環境,在此基礎之上,我們的至強產品路線圖也涵蓋更多機密計算技術,這也將夯實我們的技術領先性。
我們花費數年時間為CPU優化最流行的開源框架和函數庫,而且我們擁有基于開放標準開發的最廣泛的特定領域加速器組合,使代碼更容易移植且避免被鎖定。此外,為增強技術領先性并持續推動創新,我們持續深耕技術,希望能夠打造開放式AI,以涵蓋從云和數據中心到客戶端、邊緣和更多領域。
盡管在AI框架中默認啟用英特爾優化對于推動大規模芯片應用至關重要,但我們仍然需要滿足各類AI開發者的需求,如從事軟件堆棧底部工作的框架開發者、在堆棧較高位置工作的低代碼或無代碼主題專家,以及部署、運行、訓練和維護AI模型(MLOps)的所有工程和運營人員。盡管他們的角色迥然不同,但AI工作流程的每個階段都有共同的目標,即以最低的成本和風險快速從概念擴展到現實世界,這也意味著他們需要選擇以及基于易于部署和維護的通用框架的開放解決方案。
基于此,我們已經開發了BigDL和OpenVino?。其中,BigDL支持在現有大數據基礎設施上進行大規模機器學習;而通過數百個提前訓練的模型,OpenVino?可以加速并簡化推理在許多不同硬件上的部署。通過一致的標準和API,為從事底層AI堆棧工作的開發者提供可組合或優化的構建塊,以及為低代碼開發者提供優化和產品化的工具和套件,英特爾助力AI開發者茁壯成長。我們持續深耕AI加速器和安全性,這將讓我們能夠使這些關鍵計算元素在所有客戶、細分市場和產品中廣泛存在。
英特爾推動AI Everywhere
現階段AI已經在深刻變革各行各業,未來它也有望改善地球上每個人的生活,但前提是它能夠被更容易地大規模部署。我們認為,降低AI的進入門檻需要正確的AI技術集合。經過實踐,我們驗證了一個成功的模式,以加速AI創新的下一個時代:通過開源工作幫助定義開發環境,我們將能夠開發和影響客戶的解決方案,從而影響整個行業。我們預測,到2026年,英特爾AI邏輯芯片的市場規模將超過400億美元。我們正以強大的實力抓住這個機會,我對未來充滿信心。
評論