新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > Google:神經網絡亟需最佳化硬件

        Google:神經網絡亟需最佳化硬件

        作者: 時間:2017-08-29 來源:eettaiwan 收藏

          資深研究員Jeff Dean強調,硬件系統可針對執行少量特定的作業實現優化,并形成大量機器學習模型,從而打造更強大的

        本文引用地址:http://www.104case.com/article/201708/363578.htm

          如果您目前尚未考慮到如何有效利用深度(deep neural network)來解決您的問題,那么您的腳步必須加快了。至少,根據資深研究員兼深度學習人工智能研究計劃(即 Brain)主持人Jeff Dean是這么認為的。

          在日前于美國加州舉行的Hot Chips大會專題演講中,Dean介紹如何大幅改寫運算設備,并在語音、視覺、搜尋、機器人與醫療保健等領域取得重大的進展。他強調,硬件系統可針對執行少量特定作業實現優化,并形成大量的機器學習(machine learning)模型,從而打造更強大的神經網絡。

          Dean說:“針對神經網絡具備的特性打造專用計算機極具意義。如果你能開發出一套真正善于進行特定作業(例如加速的低精度線性代數)的系統,那就是業界夢寐以求的。”

          針對美國國家工程院(National Academy of Engineering;NAE)于2008年提出的14項21世紀重大工程挑戰,Dean認為,透過神經網絡可望在解決這些所有問題時發揮重要作用。Dean在發表簡報時特別著重于其中的五項挑戰:恢復并改善城市建筑、推動健康資訊工程進展、更有效地用藥,以及人類大腦的反向工程等。不過,對于NAE重大挑戰清單中的最后一項——為科學探索打造工具,Dean卻保留了他的看法。

          Dean表示:“人們已經意識到我們需要更多的運算能力,才能解決這種種的問題。”

          TPU Pods解決更大的問題

          Google最近開始為其客戶和研究人員提供可經由云端服務的第二代TensorFlow處理器單元(TPU)機器學習ASIC。這是一款客制化的加速器板,配備4個第二代裝置,據稱可帶來180兆次浮點運算(TFLOPS)運算和64GB高帶寬內存(HBM)的性能。

          Dean表示,新的云端TPU芯片設計主要用于將彼此連接在一起,形成更大的配置——亦即被稱為‘TPU Pod’的機器學習超級計算機。一個TPU Pod配置中包含64個第二代TPU,可提供11.5 petaflops以及 4TB的HBM內存。他并補充說,Google還免費提供了1,000個云端TPU給致力于開放機器學習研究的頂尖研究人員。

          Dean說:“我們對于TPU Pod解決更大問題的可能性感到非常振奮。”

          2015年,Google發表TensorFlow軟件庫,為機器學習開放來源,目標就在于建立一個可用于表達與交換機器學習想法與系統的通用平臺。Dean并展示了一張圖表,顯示TensorFlow才剛過一年半,就已經比其他具有類似用途的庫更受歡迎。

          

          Google第二代TPU

          Dean表示,近五年來迅速出現的神經網絡,主要是受到過去20年來運算能力的重大進展而促成的。他并補充說自己在1990年時還為此撰寫了一篇有關神經網絡的論文。他認為,當時的神經網絡發展幾乎是可行的,但大約還需要更高60倍的運算能力。

          Dean說:“而今,事實證明,我們真正需要更高大約100萬倍的運算性能,而非60倍。”



        關鍵詞: Google 神經網絡

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 宜君县| 临猗县| 辉县市| 田阳县| 青冈县| 咸宁市| 怀安县| 会昌县| 三亚市| 正镶白旗| 芜湖市| 巫溪县| 新田县| 泌阳县| 东平县| 独山县| 桂东县| 福州市| 吴江市| 保定市| 清水河县| 栾川县| 西峡县| 阜城县| 贞丰县| 兴城市| 泸水县| 木兰县| 永善县| 黑河市| 龙胜| 铁岭市| 绥阳县| 盐山县| 青田县| 禹城市| 咸宁市| 孟津县| 衡东县| 古田县| 安庆市|