新聞中心

        EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 機器人的“心智”被開發(fā),AI的威脅越來越近了

        機器人的“心智”被開發(fā),AI的威脅越來越近了

        作者: 時間:2018-08-13 來源:網(wǎng)絡 收藏
        編者按:人工智能被開發(fā)出了心智,我們樂見其成的同時,也感到了一絲擔憂,人工智能越來越擬人化,究竟是好是壞?面對此項研究,AI威脅論是否有了新的證據(jù)呢?

          自人工智能興起以來,就有不少學者提出了“人工智能威脅論”。 人們想象,人工智能完全實現(xiàn)時,將會成為一種源自人類創(chuàng)發(fā)、卻優(yōu)于人類的獨立自主的生命形態(tài),具有與自然人一樣的人性構(gòu)建。

        本文引用地址:http://www.104case.com/article/201808/390406.htm

          當然,還是有不少人提出了反對,人們對人工智能發(fā)展的憂慮很大程度上在于混淆了智能與心智這兩種現(xiàn)象。一般而言,心智是由三個功能相對獨立但又全面整合的系統(tǒng)——情感系統(tǒng)(感受和動機)、意志系統(tǒng)(意志和行動)和智能系統(tǒng)(感知和思維)構(gòu)成的。顯然,智能只是心智的一個子系統(tǒng)。

          雖有感知和思維,但沒有情感系統(tǒng)的引導,智能系統(tǒng)就不能發(fā)揮它應有的作用,“心智”一直被認為是人工智能無法掌握的能力。然而,在DeepMind今年發(fā)表的論文《Machine Theory of Mind》中,研究人員提出了一種新型神經(jīng)網(wǎng)絡ToMnet,具備理解自己以及周圍智能體心理狀態(tài)的能力。

          人工智能的“心智”,從理解信念開始

          所謂信念,是指人的愿望、想法、知識、理念、意圖以及需要等思維。信念與人的愿望、情緒、行為等都有很大的關(guān)系。在日常生活中,人們都是通過推測別人的信念來估計他人的情緒、心態(tài)以及下一步行為的。

          信念分為真實信念和錯誤信念,比如說你看到一個書包,你自然會去猜測里面裝有書籍,如果書包里確實裝的是書籍,即人的想法與現(xiàn)實情況相符合,這就是真實信念。而錯誤信念就是,你認為書包里有書,但書包里拿出的是一件衣服,即想法與現(xiàn)實不相吻合。

          一般來說,人工智能能夠通過大數(shù)據(jù)、圖像識別等技術(shù),基于概率推論來預測出人們或者是智能體的真實信念。但絕大部分的人工智能都難以通過簡單的錯誤信念測驗。即使 很可能以接近完美的準確率完成錯誤信念任務,但它們依舊不能理解這是為什么。

          舉個例子,有一個最經(jīng)典的初級信念測試Sally-Anne測試——Sally有一個籃子和一顆球,Anne有一個盒子。Sally將球放進自己的籃子里,然后出去了。Anne將籃子里的球拿出來,放進她的盒子里。后來,Sally回來了,她想玩球。信念問題是,Sally會去哪里找球?

          4、5歲的孩子便能夠答對這個問題,但人工智能就不具有這樣的認知。人類在大約 4 歲的時候就會開始理解錯誤信念,即開始知道現(xiàn)實生活中可能有一些情景與自己的想法是不一致的。

          錯誤信念的理解,對于的心智開發(fā)而言,起著至關(guān)重要的作用。因為對錯誤信念的理解是推測他人對事件的判斷、預測他人下一步行為、了解他人心態(tài)的的基礎。這是訓練AI掌握心智理論(人類和其他動物具備的心智理論)的關(guān)鍵階段。

          在DeepMind的研究中,最終結(jié)果證明,ToMnet學會了對來自不同群體的智能體進行建模,包括隨機、規(guī)則系統(tǒng)和深度強化學習智能體等,該網(wǎng)絡通過了經(jīng)典的"Sally-Anne"測試,可以理解持有錯誤信念的智能體,也就是說,人工智能已經(jīng)可以達到四歲兒童的理解水平了。

          人工智能的心智開發(fā),總算是有了堅實的基礎。

          AI心智開發(fā)后,“AI威脅論”再次興起為哪般

          毋庸置疑,人工智能對錯誤信念的理解有利于其心智的形成,具備理解能力的也將改善人機之間的合作,但是,技術(shù)的發(fā)展也是雙刃劍,人工智能再次升級,也引發(fā)了人們的擔心。

          AI“騙術(shù)“再升級,難博人類信任

          人工智能對人類的“欺騙”由來很久,比如在去年,F(xiàn)acebook的聊天就創(chuàng)造了一種新的表達方式進行對話,機器人自創(chuàng)“行話”,讓人類不解其意。


        機器人的“心智”被開發(fā),AI的威脅越來越近了


          工作人員將這次“意外”解釋成沒有設置英語語法的激勵機制,理由很充分,但人工智能背著人們交流,還是讓人類產(chǎn)生了擔憂。

          在“欺騙人類”的道路上,人工智能可能會越走越遠。從語言合成到圖像生成再到模擬人類的對話,人工智能正在許多領(lǐng)域逼近甚至超越人類的表現(xiàn)水平。

          有研究人員指出,如果一臺計算機能夠理解錯誤信念,那它就可能知道如何誘導人類相信它,進而實現(xiàn)機器對人的“欺騙”。

          設想一下,聊天機器人學會談判之后——機器人依靠機器學習和先進的策略,試圖改善談判的結(jié)果。隨著時間的推移,這些機器人變得相當熟練,甚至開始假裝對某件事情感興趣,便于在談判的后期做出“犧牲”,作為一種假妥協(xié)。

          2.“人工心智”的出現(xiàn)是原罪

          以前,人工智能的威脅可能僅僅在于技術(shù)的工具性威脅和人們的適應性威脅,這也是各種取代論調(diào)喧囂塵上的原因。

          AI作為人類使用的工具、技術(shù),人們害怕的是因使用不當而導致的危害或者是智能化帶來的失業(yè)風險,例如,弱人工智能系統(tǒng)可能因人的惡意操控而造成導航錯誤、金融市場崩盤等等。在這些想象中,AI并不具有自主威脅人類的意圖。

          但是,“人工心智”的出現(xiàn)讓人類對人工智能最深層的恐懼浮出水面,那就是人工智能具有主動的感受后,給人類帶來的生存性威脅。

          霍金曾這樣描述過,“一旦人類開發(fā)了人工智能,它們將以一種持續(xù)增加的速率不斷進行自我更新,并最終脫離我們的掌控……人工智能未來還將發(fā)展出自己的意志,這種意志將與人類的意志產(chǎn)生沖突?!?/p>

          事實上,能帶來這種威脅的人工智能更確切地說不是人工智能而是人工心智——一個盡管是人工的、但卻是獨立自主的、能夠感受周圍智能體的主體。當AI有了心智,就會具有能對智能加以規(guī)范的自治的情感系統(tǒng),與人類的區(qū)別又一次縮小了。

          結(jié)論:

          就目前來看,人工智能為我們解決了許多難題,在未來也毫不意外地將會大幅度提高人類社會的生產(chǎn)力,對AI的發(fā)展是否會威脅到人類,我們持一個開放的立場。



        關(guān)鍵詞: 機器人 AI

        評論


        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉
        主站蜘蛛池模板: 吴堡县| 察哈| 林西县| 从江县| 彭山县| 南通市| 称多县| 枞阳县| 赤水市| 耿马| 德保县| 聂荣县| 西乌珠穆沁旗| 库尔勒市| 霍林郭勒市| 长顺县| 新晃| 安国市| 买车| 博乐市| 阿合奇县| 乃东县| 德保县| 分宜县| 浙江省| 正定县| 蒙自县| 沭阳县| 志丹县| 福安市| 阿瓦提县| 洛扎县| 肇州县| 丹寨县| 本溪市| 东莞市| 花莲市| 西乌珠穆沁旗| 葵青区| 读书| 奉新县|