博客專欄

        EEPW首頁 > 博客 > “賣鏟人”也坐不住了!英偉達視頻AI大模型出爐

        “賣鏟人”也坐不住了!英偉達視頻AI大模型出爐

        發布人:科創板日報 時間:2023-04-24 來源:工程師 發布文章

        近日,英偉達與慕尼黑大學等院校的研究人員聯合發布了一篇有關視頻潛在擴散模型(VideoLDM,Latent Diffusion Model)的論文,該模型能夠將文本轉換成視頻,實現高分辨率的長視頻合成。相關論文已經發表在預印本網站arXiv上。

        圖片

        研究人員給出“一個泰迪熊正在彈電吉他、高清、4K”等文本提示詞后,運用VideoLDM,成功生成了相關視頻(已轉為GIF格式):

        圖片

        目前,VideoLDM生成視頻的最高分辨率可達2048×1280、24幀。研究團隊僅公布了論文和一些成品視頻案例,暫未開放試用。

        據介紹,相對來說,該模型對于訓練和計算的要求較低。在文字大模型、文生圖大模型發展迅速的當下,受限于視頻訓練數據的計算成本高昂以及缺乏大規模公開可用的數據集等原因,視頻大模型的發展相對較慢。VideoLDM則成功解決了這個關鍵問題。

        從原理上來分析,VideoLDM基于圖像數據集預訓練,并在此基礎上加入時間維度以形成視頻框架,最后在編碼的視頻序列上進行微調,得到視頻生成器。

        為進一步提高分辨率,研究人員從時間維度將其與擴散模型upsamplers對齊,并與真實視頻對比驗證,從而將其轉換為時間一致的視頻超分辨率模型。圖片

        此外,研究人員還微調了Stable Diffusion,將其轉換為視頻生成器。他們通過對Stable Diffusion的空間層進行簡單微調,然后插入時間對齊層,從

        而實現了視頻的生成。

        落實到應用層面,研究人員給出了兩大具有潛力的應用領域:一是駕駛數據的高分辨率視頻合成,能夠模擬特定駕駛場景,在自動駕駛領域中具有巨大的應用潛力;二是創意內容的生成。

        在論文中,團隊給出了幾個駕駛場景視頻的生成案例:圖片

        目前,在自動駕駛領域,AI大模型被認為能夠賦能感知標注、決策推理等環節。

        華泰證券分析師黃樂平、陳旭東等于4月13日發布研報指出,AI大模型有望解決行業數據標注準確率及成本困境。該機構以DriveGPT為例進行分析,大模型能夠將交通場景圖像的標注費用從行業平均約5元/張降至約0.5元/張。

        與此同時,機構還認為大模型將賦能場景生成、軌跡預測、推理決策等環節,能夠根據駕駛場景序列數據,生成未來可能發生的多種駕駛環境并預測每種情況下車輛行駛軌跡。國泰君安亦指出AIGC將有助于自動駕駛的推進落地。


        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 滨州市| 绵竹市| 象山县| 西安市| 邻水| 新安县| 台南县| 桓台县| 黄平县| 葵青区| 黔南| 法库县| 舒兰市| 望江县| 伊春市| 临澧县| 上高县| 通河县| 海门市| 博湖县| 贵阳市| 上杭县| 河西区| 察隅县| 武宁县| 三明市| 望都县| 唐河县| 清水河县| 泸州市| 调兵山市| 东莞市| 务川| 绥中县| 阿坝县| 伊通| 微博| 霍州市| 侯马市| 鄂托克前旗| 平潭县|