博客專欄

        EEPW首頁 > 博客 > ICLR 2023 Spotlight | 2D圖像腦補3D人體,衣服隨便搭,還能改動作

        ICLR 2023 Spotlight | 2D圖像腦補3D人體,衣服隨便搭,還能改動作

        發(fā)布人:機器之心 時間:2023-02-20 來源:工程師 發(fā)布文章
        在 ICLR 2023 上,南洋理工大學(xué) - 商湯科技聯(lián)合研究中心 S-Lab 團隊提出了首個從二維圖像集合中學(xué)習(xí)高分辨率三維人體生成的方法 EVA3D。得益于 NeRF 提供的可微渲染,近期的三維生成模型已經(jīng)在靜止物體上達到了很驚艷的效果。但是在人體這種更加復(fù)雜且可形變的類別上,三維生成依舊有很大的挑戰(zhàn)。本文提出了一個高效的組合的人體 NeRF 表達,實現(xiàn)了高分辨率(512x256)的三維人體生成,并且沒有使用超分模型。EVA3D 在四個大型人體數(shù)據(jù)集上均大幅超越了已有方案,代碼已開源。


        圖片


        • 論文名稱:EVA3D: Compositional 3D Human Generation from 2D image Collections
        • 論文地址:https://arxiv.org/abs/2210.04888
        • 項目主頁:https://hongfz16.github.io/projects/EVA3D.html
        • 代碼開源:https://github.com/hongfz16/EVA3D
        • Colab Demo:https://colab.research.google.com/github/hongfz16/EVA3D/blob/main/notebook/EVA3D_Demo.ipynb
        • Hugging Face Demo:https://huggingface.co/spaces/hongfz16/EVA3D


        圖片



        背景
        利用 NeRF 提供的可微渲染算法,三維生成算法,例如 EG3D、StyleSDF,在靜態(tài)物體類別的生成上已經(jīng)有了非常好的效果。但是人體相較于人臉或者 CAD 模型等類別,在外觀和幾何上有更大的復(fù)雜度,并且人體是可形變的,因此從二維圖片中學(xué)習(xí)三維人體生成仍然是非常困難的任務(wù)。研究人員在這個任務(wù)上已經(jīng)有了一些嘗試,例如 ENARF-GAN、GNARF,但是受限于低效的人體表達,他們無法實現(xiàn)高分辨率的生成,因此生成質(zhì)量也非常低。
        為了解決這個問題,本文提出了高效的組合的三維人體 NeRF 表示,用以實現(xiàn)高分辨率的(512x256)三維人體 GAN 訓(xùn)練與生成。下面將介紹本文提出的人體 NeRF 表示,以及三維人體 GAN 訓(xùn)練框架。
        高效的人體 NeRF 表示
        本文提出的人體 NeRF 基于參數(shù)化人體模型 SMPL,它提供了方便的人體姿勢以及形狀的控制。進行 NeRF 建模時,如下圖所示,本文將人體分為 16 個部分。每一個部分對應(yīng)于一個小的 NeRF 網(wǎng)絡(luò)進行局部的建模。在渲染每一個局部的時候,本文只需要推理局部 NeRF。這種稀疏的渲染方式,在較低的計算資源下,也可以實現(xiàn)原生高分辨率的渲染。
        例如,渲染體型動作參數(shù)分別為的人體時,首先根據(jù)相機參數(shù)采樣光線;光線上的采樣點根據(jù)與 SMPL 模型的相對關(guān)系進行反向蒙皮操作(inverse linear blend skinning),將 posed 空間中的采樣點轉(zhuǎn)化到 canonical 空間中。接著計算 Canonical 空間的采樣點屬于某個或者某幾個局部 NeRF 的 bounding box 中,再進行 NeRF 模型的推理,得到每個采樣點對應(yīng)的顏色與密度;當(dāng)某個采樣點落到多個局部 NeRF 的重疊區(qū)域,則會對每個 NeRF 模型進行推理,將多個結(jié)果用 window function 進行插值;最后這些信息被用于光線的積分,得到最終的渲染圖。

        圖片


        三維人體 GAN 框架
        基于提出的高效的人體 NeRF 表達,本文實現(xiàn)了三維人體 GAN 訓(xùn)練框架。在每一次訓(xùn)練迭代中,本文首先從數(shù)據(jù)集中采樣一個 SMPL 的參數(shù)以及相機參數(shù),并隨機生成一個高斯噪聲 z。利用本文提出的人體 NeRF,本文可以將采樣出的參數(shù)渲染成一張二維人體圖片,作為假樣本。再利用數(shù)據(jù)集中的真實樣本,本文進行 GAN 的對抗訓(xùn)練。

        圖片


        極度不平衡的數(shù)據(jù)集
        二維人體數(shù)據(jù)集,例如 DeepFashion,通常是為二維視覺任務(wù)準備的,因此人體的姿態(tài)多樣性非常受限。為了量化不平衡的程度,本文統(tǒng)計了 DeepFashion 中模特臉部朝向的頻率。如下圖所示,橙色的線代表了 DeepFashion 中人臉朝向的分布,可見是極度不平衡的,對于學(xué)習(xí)三維人體表征造成了困難。為了緩解這一問題,我們提出了由人體姿態(tài)指導(dǎo)的采樣方式,將分布曲線拉平,如下圖中其他顏色的線所示。這可以讓訓(xùn)練過程中的模型見到更多樣以及更大角度的人體圖片,從而幫助三維人體幾何的學(xué)習(xí)。我們對采樣參數(shù)進行了實驗分析,從下面的表格中可見,加上人體姿態(tài)指導(dǎo)的采樣方式后,雖然圖像質(zhì)量(FID)會有些微下降,但是學(xué)出的三維幾何(Depth)顯著變好。

        圖片


        圖片


        高質(zhì)量的生成結(jié)果
        下圖展示了一些 EVA3D 的生成結(jié)果,EVA3D 可以隨機采樣人體樣貌,并可控制渲染相機參數(shù),人體姿勢以及體型。

        圖片


        本文在四個大規(guī)模人體數(shù)據(jù)集上進行了實驗,分別是 DeepFashion,SHHQ,UBCFashion,AIST。該研究對比了最先進的靜態(tài)三維物體生成算法 EG3D 與 StyleSDF。同時研究者也比較了專門針對三維人生成的算法 ENARF-GAN。在指標的選擇上,本文兼顧渲染質(zhì)量的評估(FID/KID)、人體控制的準確程度(PCK)以及幾何生成的質(zhì)量(Depth)。如下圖所示,本文在所有數(shù)據(jù)集,所有指標上均大幅超越之前的方案。

        圖片


        應(yīng)用潛力
        最后,本文也展示了 EVA3D 的一些應(yīng)用潛力。首先,該研究測試了在隱空間中進行差值。如下圖所示,本文能夠在兩個三維人之間進行平滑的變化,且中間結(jié)果均保持較高的質(zhì)量。此外,本文也進行了 GAN inversion 的實驗,研究者使用二維 GAN inversion 中常用的算法 Pivotal Tuning Inversion。如下面右圖所示,該方法可以較好的還原重建目標的外觀,但是幾何部分丟失了很多細節(jié)。可見,三維 GAN 的 inversion 仍然是一個很有挑戰(zhàn)性的任務(wù)。

        圖片


        結(jié)語
        本文提出了首個高清三維人體 NeRF 生成算法 EVA3D,并且僅需使用二維人體圖像數(shù)據(jù)即可訓(xùn)練。EVA3D 在多個大規(guī)模人體數(shù)據(jù)集上性能達到最佳,并且展現(xiàn)出了在下游任務(wù)上進行應(yīng)用的潛力。EVA3D 的訓(xùn)練與測試代碼均已經(jīng)開源,歡迎大家前去試用!


        *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



        關(guān)鍵詞: AI

        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉
        主站蜘蛛池模板: 铁力市| 萝北县| 义乌市| 雷山县| 台前县| 宁陕县| 朔州市| 田东县| 龙江县| 祁阳县| 丰宁| 海淀区| 安阳县| 佛学| 靖宇县| 阳城县| 鄯善县| 闻喜县| 白水县| 衡山县| 双鸭山市| 萝北县| 察隅县| 古丈县| 鸡西市| 西充县| 出国| 襄樊市| 和平区| 横峰县| 商洛市| 化德县| 丰城市| 通海县| 张北县| 新巴尔虎左旗| 金沙县| 铜川市| 屯门区| 东城区| 南投县|