李飛飛「具身智能」新成果!機器人接入大模型直接聽懂人話,0預訓練就能完成復雜指令(2)
以下分別是VoxPoser在真實和模擬環境中的表現(衡量指標為平均成功率):
可以看到,無論是哪種環境哪種情況(有無干擾、指令是否可見),它都顯著高于基于原語的基線任務。
最后,作者還驚喜地發現,VoxPoser產生了4個“涌現能力”:
(1)評估物理特性,比如給定兩個質量未知的方塊,讓機器人使用工具進行物理實驗,確定哪個塊更重;
(2)行為常識推理,比如在擺餐具的任務中,告訴機器人“我是左撇子”,它就能通過上下文理解其含義;
(3)細粒度校正,比如執行“給茶壺蓋上蓋子”這種精度要求較高的任務時,我們可以向機器人發出“你偏離了1厘米”等精確指令來校正它的操作;
(4)基于視覺的多步操作,比如叫機器人將抽屜精準地打開成一半,由于沒有對象模型導致的信息不足可能讓機器人無法執行這樣的任務,但VoxPoser可以根據視覺反饋提出多步操作策略,即首先完全打開抽屜同時記錄手柄位移,然后將其推回至中點就可以滿足要求了。
大約一年前,李飛飛在美國文理學會會刊上撰文,指出計算機視覺發展的三個方向:
具身智能(Embodied AI)
視覺推理(Visual Reasoning)
場景理解(Scene Understanding)
李飛飛認為,具身智能不單指人形機器人,任何能在空間中移動的有形智能機器都是人工智能的一種形式。
正如ImageNet旨在表示廣泛且多樣化的現實世界圖像一樣,具身智能研究也需要解決復雜多樣的人類任務,從疊衣服到探索新城市。
遵循指令執行這些任務需要視覺,但需要的不僅僅是視覺,也需要視覺推理理解場景中的三維關系。
最后機器還要做到理解場景中的人,包括人類意圖和社會關系。比如看到一個人打開冰箱能判斷出他餓了,或者看到一個小孩坐在大人腿上能判斷出他們是親子關系。
機器人結合大模型可能正是解決這些問題的一個途徑。
除李飛飛外,參與本次研究的還有清華姚班校友吳佳俊,博士畢業于MIT,現為斯坦福大學助理教授。
論文一作Wenlong Huang現為斯坦福博士生,在谷歌實習期間參與了PaLM-E研究。
論文地址:
https://voxposer.github.io/voxposer.pdf
項目主頁:
https://voxposer.github.io/
參考鏈接:
[1]https://twitter.com/wenlong_huang/status/1677375515811016704
[1]https://www.amacad.org/publication/searching-computer-vision-north-stars
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。