博客專欄

        EEPW首頁 > 博客 > 訓練速度提高最多5.4倍,谷歌提出RL訓練新范式ActorQ

        訓練速度提高最多5.4倍,谷歌提出RL訓練新范式ActorQ

        發布人:機器之心 時間:2022-10-17 來源:工程師 發布文章
        近日,谷歌的研究者提出了一種稱為「ActorQ」的新范式,使用量化將強化學習訓練速度提高 1.5-5.4 倍。與全精度訓練相比,碳足跡也減少了 1.9-3.8 倍。

        此前,由谷歌大腦團隊科學家 Aleksandra Faust 和研究員 Srivatsan Krishnan 發布的深度強化學習模型在解決導航、核物理、機器人和游戲等現實世界的順序決策問題方面取得巨大進步。它很有應用前景,但缺點之一是訓練時間過長。


        雖然可以使用分布式計算加快復雜困難任務的強化學習的訓練,但是需要數百甚至數千個計算節點,且要使用大量硬件資源,這使得強化學習訓練成本變得極其高昂,同時還要考慮對環境的影響。最近的研究表明,對現有硬件進行性能優化可以減少模型訓練的碳足跡(即溫室氣體排放總量)。


        借助系統優化,可以縮短強化學習訓練時間、提高硬件利用率、減少二氧化碳(CO2)排放。其中一種技術是量化,將全精度浮點(FP32)數轉換為低精度(int8)數,然后使用低精度數字進行計算。量化可以節省內存成本和帶寬,實現更快、更節能的計算。量化已成功應用于監督學習,以實現機器學習(ML)模型的邊緣部署并實現更快的訓練。同樣也可以將量化應用于強化學習訓練。


        近日,谷歌的研究者在《Transactions of Machine Learning Research》期刊上發表了《QuaRL:快速和環境可持續強化學習的量化》,介紹了一種稱為「ActorQ」的新范式。該范式使用了量化,在保持性能的同時,將強化學習訓練速度提高 1.5-5.4 倍。作者證明,與全精度訓練相比,碳足跡也減少了 1.9-3.8 倍。


        量化應用于強化學習訓練


        在傳統的強化學習訓練中,learner 策略會應用于 actor,actor 使用該策略探索環境并收集數據樣本,actor 收集的樣本隨后被 learner 用于不斷完善初始策略。定期地,針對 learner 的訓練策略被用來更新 actor 的策略。為了將量化應用于強化學習訓練,作者開創了 ActorQ 范式。ActorQ 執行上面描述的相同序列,其中關鍵區別是,從 learner 到 actor 的策略更新是量化的,actor 使用 int8 量化策略探索環境以收集樣本。


        以這種方式將量化應用于強化學習訓練有兩個關鍵好處。首先,它減少了策略的內存占用。對于相同的峰值帶寬,learner 和 actor 之間傳輸的數據較少,這降低了 actor 與 learner 之間的策略更新通信成本。其次,actor 對量化策略進行推理,以生成給定環境狀態的操作。與完全精確地執行推理相比,量化推理過程要快得多。


        圖片傳統 RL 訓練概述(左)和 ActorQ RL 訓練(右)。


        在 ActorQ 中,作者使用了 ACME 分布式強化學習框架。量化模塊執行統一量化,將 FP32 轉換為 int8。actor 使用優化的 int8 計算進行推理。雖然在設計量化模塊塊時使用的是均勻量化,但其它量化技術可以取代均勻量化并產生類似的結果。actor 收集的樣本供 learner 用于訓練神經網絡策略。學習的策略被量化模塊定期量化并廣播給 actor。


        以量化提升強化學習訓練效率


        作者在一系列環境中評估 ActorQ,包括 Deepmind Control Suite 和 OpenAI Gym。作者演示了 D4PG 和 DQN 的加速和性能改進。選擇 D4PG 是因為它是用于 Deepmind Control Suite 任務的 ACME 中最好的學習算法,而 DQN 是一種廣泛使用的標準強化學習算法。


        作者在實驗中觀察到訓練強化學習策略的速度顯著加快(1.5 倍至 5.41 倍之間)。更重要的是,即使 actor 進行了基于 int8 的量化推理,也可以保持性能。下圖顯示了用于 Deepmind Control Suite 和 OpenAI Gym 任務的 D4PG 和 DQN 智能體的這一點。


        圖片

        對 D4PG 智能體在各種 Deepmind Control Suite 任務中使用 FP32 策略(q=32)和量化 int8 策略(q=8)的強化學習訓練進行比較。量化實現了 1.5 倍到 3.06 倍的速度提升。


        圖片

        OpenAI Gym 環境中 DQN 智能體使用 FP32 策略(q=32)和 int8 量化策略(q=8)進行強化學習訓練的比較。量化實現了 2.2 倍到 5.41 倍的加速。


        量化減少碳排放


        使用 ActorQ 在強化學習中應用量化可以在不影響性能的情況下縮短訓練時間。更有效地使用硬件,并減少了碳足跡。作者通過在訓練時使用 FP32 的碳排放量與在訓練時采用 int8 的排放量之比來衡量碳足跡的改善。


        為了測量強化學習訓練實驗的碳排放量,作者使用了之前工作中提出的 experiment-impact-tracker (https://github.com/Breakend/experiment-impact-tracker)。ActorQ 系統配備碳監測器 API,以測量每個訓練實驗的碳排放量。


        與全精度運行時的碳排放量(FP32)相比,量化可將碳排放量從 1.9 倍降至 3.76 倍,具體取決于任務。由于強化學習系統可以在數千個分布式硬件核心和加速器上運行,絕對碳減排量(以千克二氧化碳計)可能會非常顯著。


        圖片

        比較使用 FP32 和 int8 的訓練之間的碳排放。X 軸標度標準化為 FP32 的碳排放量,用紅色條表示。ActorQ 減少了碳排放。


        結論和未來方向


        作者引入了 ActorQ,這是一種新的范式,將量化應用于強化學習訓練,并在保持性能的同時實現了 1.5-5.4 倍的加速改進。與未應用量化的全精度訓練相比,ActorQ 可以將強化學習訓練的碳足跡減少 1.9-3.8 倍。


        ActorQ 證明量化可以有效地應用于強化學習的許多方面,從獲得高質量和高效的量化策略到減少訓練時間和碳排放。隨著強化學習在解決現實問題方面繼續取得長足進步,我們有理由相信,使強化學習訓練實現可持續發展將是關鍵。當將強化學習擴展到數千個 CPU 和 GPU 時,即使 50% 的改進也會在成本、能源和碳排放方面顯著降低。作者的工作是將量化應用于強化學習訓練以實現高效和環境可持續訓練的第一步。


        作者在 ActorQ 中的量化設計基于簡單的均勻量化,但實際可以應用其他形式的量化、壓縮和稀疏性(如蒸餾、稀疏化等)。未來的工作將考慮應用更積極的量化和壓縮方法,這可能會為強化學習在訓練性能和精度的權衡上帶來更多的好處。


        原文鏈接:

        https://ai.googleblog.com/2022/09/quantization-for-fast-and.html


        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 普兰店市| 肃南| 东海县| 梁平县| 汤阴县| 治县。| 霸州市| 莱西市| 宁蒗| 新乡市| 从化市| 柳江县| 云阳县| 海口市| 贡觉县| 阿拉尔市| 乌海市| 科技| 白河县| 平凉市| 平武县| 茂名市| 宁津县| 马公市| 蕉岭县| 阳信县| 赤城县| 赤水市| 五大连池市| 腾冲县| 涟水县| 富源县| 太仓市| 永川市| 平陆县| 六安市| 自贡市| 乡宁县| 秦皇岛市| 抚州市| 北碚区|