新聞中心

        EEPW首頁 > 智能計算 > 業界動態 > MIT新機器人“成精了” 能通過視覺和觸覺識別事物

        MIT新機器人“成精了” 能通過視覺和觸覺識別事物

        作者: 時間:2019-06-19 來源:騰訊科技 收藏
        編者按:通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預測與環境的交互。將這兩種感覺結合起來,可以增強機器人的能力,減少我們在操作和抓取對象時可能需要的數據。

        據外媒報道,對于人類來說,很容易通過觀察某個物體來判斷其外觀,或者通過觸摸它來判斷它給人的感受,但是這對機器來說是可能是個巨大的挑戰。現在,美國麻省理工學院()計算機科學和人工智能實驗室(CSL)開發的一種新機器人,正試圖獲得人類的能力。

        本文引用地址:http://www.104case.com/article/201906/401670.htm

        CSL團隊使用KUKA機器人手臂,并添加了一種名為GelSight的傳感器,該傳感器是由CSL下屬泰德·阿德爾森(Ted Adelson)團隊開發。GelSight收集的信息會被傳輸給人工智能(AI),以便后者能夠理解信息和信息之間的關系。

        為了教授AI如何通過觸摸來識別物體,CSAIL團隊錄制了12000個視頻,記錄了200個物體,如織物、工具以及被觸摸的家居物品。這些視頻被分解成靜態圖像,AI使用這個數據集來連接觸覺和數據。

        CSAIL博士生、關于該系統的新論文主要作者李云珠(音譯)表示:“通過觀察場景,我們的模型可以想象觸摸平面或鋒利邊緣的感覺。通過盲目的觸摸,我們的模型可以純粹通過觸覺來預測與環境的交互。將這兩種感覺結合起來,可以增強機器人的能力,減少我們在操作和抓取對象時可能需要的數據。”

        目前,機器人只能在受控環境中識別物體。下一步是建立更大的數據集,這樣機器人就可以在更不同的環境下工作。

        加州大學伯克利分校博士后安德魯·歐文斯(Andrew Owens)表示:“這種方法可能對機器人非常有用,因為它們需要回答這樣的問題:‘這個物體是硬的還是軟的?’或者‘如果我用手把這個杯子舉起來,我的抓力會有多好?’這些都是非常具有挑戰性的問題,因為信號是如此的不同,而的模型已經顯示出很強的能力。”



        關鍵詞: MIT 視覺 觸覺 AI

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 湟中县| 方城县| 黄龙县| 阳谷县| 凤台县| 左云县| 隆安县| 宁陵县| 永昌县| 洪泽县| 威信县| 华阴市| SHOW| 永泰县| 逊克县| 密山市| 巴楚县| 怀柔区| 天水市| 昌都县| 定安县| 嵩明县| 定南县| 嘉义县| 信宜市| 霍林郭勒市| 沙雅县| 余干县| 吴堡县| 丰城市| 新和县| 东海县| 红安县| 晋城| 永新县| 延川县| 玉屏| 博乐市| 克什克腾旗| 宝山区| 内黄县|