美專家:機器人與人類是伙伴 中國落后美國5年
二、人與機器關系的思考
本文引用地址:http://www.104case.com/article/201601/286077.htm1、懸而未決的倫理困境
縱觀人類歷史,技術雖然已經取代了人類勞動力,火車頭和拖拉機仍然不會作出人類級別的決策,但在以后,隨著技術的進步,“會思考的機器”可以。它還可以了解到技術與人性共同進化的過程,這一過程同樣又會提出同樣的問題:誰將處于主導地位?在硅谷,慶祝機器的崛起已成為時尚,可以從奇點研究中心(Singularity Institute)這類公司的崛起和凱文·凱利 2010 年的《科技想要什么》(What Technology Wants)這類書籍中清晰地看出這一點。早在 1994 年的《失控》(Out of Control)中,凱利就已堅定地站在了機器一邊。他在書中描述了人工智能先驅馬文·明斯基和道格拉斯·恩格爾巴特兩人間的一次會談。
20 世紀 50 年代,當這兩個家伙在麻省理工學院見面后,人們認為他們之間進行了如下對話。
明斯基:我們要讓機器變得智能,我們要讓它們擁有意識。恩格爾巴特:你要為機器做這些事?那你又打算為人類做些什么呢?
通常,那些致力于讓計算機變得更友好、更人性化、更以人為本的工程師們會講這個故事,但是,我直接站在了明斯基一邊——站在了機器一邊。人們會存活下來,我們會訓練我們的機器來服務我們。但是,我們又將為機器做些什么呢?
凱利指出,明斯基和恩格爾巴特分別持有不同的立場,這一點毋庸置疑。但是,認為“人類會存活下來”的觀點顯然輕視了它們的影響。他基本上是在復述明斯基對人工智能到來的意義的回答:“如果我們夠幸運,或許它們會把我們當寵物養。”
明斯基的觀點反映了 AI 和 IA 之間的鴻溝。到目前為止,人工智能圈子在絕大多數時候都選擇忽視他們認為只是強大工具的系統帶來的影響,規避了對道德問題的討論。當我詢問自動化對人類影響的話題時,一位正在打造新一代機器人的工程師告訴我:“你不能這樣想。你只需決定你將盡己所能,為全人類改善世界。”
在已經過去的 50 年中,麥卡錫和恩格爾巴特的理論仍然各自為政,他們最為核心的沖突仍然懸而未決。一種方法要用日益強大的計算機硬件和軟件組合取代人類;另一種方法則要使用相同的工具,在腦力、經濟、社會等方面??發展人類的能力。盡管鮮有人注意這些方法之間的鴻溝,這場新技術浪潮的爆炸 (一個正在影響現代生活方方面面的技術浪潮)將極力壓縮這種分化,并防止反彈的發生。
機器是會取代人類工人還是增強他們的能力?在某種層面上,這兩種結果都會實現,但需要再次注意的是,這個問題本身就存在問題,它只會讓我們得到偏頗的答案。軟件和硬件機器人都已足夠靈活,它們最終都會變成我們在程序中為它們設計的模樣。在我們當前的經濟體系中,機器人(包括機器和智能系統) 被如何設計、怎樣使用,都完全是由成本和收益確定的,而且成本正在以不斷加快的速度下降。在我們的社會中,經濟學理論指出,如果一項工作能夠由機器(硬件或軟件)完成,并且成本更低,那么在大多數情況下,人們會選擇讓機器來完成這項工作。只不過是時間早晚的問題。
該在這場爭論中站怎樣的立場實在很難抉擇,因為沒有顯而易見的正確答案。盡管無人駕駛汽車將取代數以百萬計的崗位,但它們也將拯救更多的生命。今天,在大多數情況下,人們會以收益和效率為根據決定實現哪些技術, 但也明顯需要新的道德演繹。然而,決定成敗的不只有細節。就像核武器和核動力一樣,人工智能、基因工程和機器人學將在未來 10 年內產生人們意料之中和意料之外的廣泛的社會影響。
2、手推車難題,是否選擇“更小的惡魔”
所謂的“手推車難題”通常是這樣的:一輛失控的手推車正一路向下狂奔,如果它繼續前進的話,將有 5 個人會被殺死。你可以讓這輛手推車轉向另一個不同的方向,從而拯救這 5 個人的生命,在那個方向上只有 1 個人,而這個人將被手推車撞死。掉轉手推車,以犧牲 1 個人的代價來避免 5 個人的死亡,道德會允許嗎? 1967 年,英國哲學家菲利帕·富特(Philippa Foot)在一篇論述流產倫理問題的論文中首先提出了這個難題,最終引發了針對選擇“更小的惡魔”這一概念的無止境的哲學辯論。最近,它又演變成“機器人汽車是否應該為了躲避跑到路中央的 5 個孩子而選擇開到人行道上撞死 1 個成年人”的議題。
通常,人們可以設計讓軟件選擇那個“較小的惡魔”,但問題的框架似乎在其他層面上存在錯誤。因為 90% 的交通事故是由駕駛員錯誤導致的,似乎自動駕駛汽車能夠令傷亡總數出現顯著下降,所以,盡管仍然有少數事故純粹是技術失敗導致的,但更好的產品應該服務人類。從某種程度上說,汽車產業已經贊同了這一邏輯,例如,緊急氣囊拯救的生命遠比問題氣囊包導致的傷亡要多。
對這一問題狹隘的關注也忽視了自動駕駛汽車在未來可能的運行方式。很有可能到那個時候,路上的工人、警察、緊急車輛、汽車、行人和騎行者都會以電子化形式告知其他人自己的存在,甚至沒有完全自動化的功能都能顯著提高安全性。一項名為“V2X”的技術正在全球范圍內接受測試,它能夠讓附近汽車的位置進行共享。在未來,甚至正在上小學的孩子們也會拿上傳感器, 向汽車警告自己的存在,降低事故發生的可能性。
令人困惑的是,哲學家們通常不會從更宏觀的角度探究手推車難題,而只是將其當作獨立事件的一個縮影。誠然,如果技術失敗,這將成為一出獨立的悲劇。改善運輸整體安全性的系統似乎十分必要,盡管它們并不完美。將人類排除出駕駛所帶來的哲學問題遠比它對經濟學、社會學甚至文化產生的影響更有趣。2013 年,美國有 3.4 萬人死于交通事故,236 萬人受傷。2012 年,全美有 380 萬人以駕駛維生。對比一下這些數字。如果無人駕駛汽車在未來 20 年內出現,它們很有可能取代很多人的工作。
3、人與機器,是伙伴不是敵人
微軟公司的園區不規則地分布著環環相扣的人行道、建筑物、運動場、食堂和有冷杉點綴的停車場。這兒看起來與硅谷的 GooglePlex 園區有些不同, 沒有色彩鮮艷的自行車。但相同點是年輕的技術工人可以輕松地進入社區大學, 甚至高中生也可以在園區里漫步。
當你靠近 99 樓(微軟研究實驗室的所在地)大廳的電梯時,電梯大門會感應到你的存在,然后自動開啟。這有些像《星際迷航》里的場景,柯克船長也從來沒有按過一個按鈕。這臺智能電梯是微軟高級研究員、雷蒙德研究中心主管埃里克·霍維茨的杰作。在眾多使用統計技術改善人工智能應用性能的第一代計算機科學家中,霍維茨算得上是知名度較高的人工智能研究人員。
霍維茨和許多人一樣,也是因為對理解人類思維如何工作產生了濃厚興趣,開始了自己的學習。20 世紀 80 年代,他從斯坦福大學獲得醫學學位,馬上又開始了神經生物學的碩士研究。
一天夜里,他獨自一人待在實驗室,把探針插入老鼠大腦中的一個神經元中。霍維茨興奮不已。屋子里很黑,有一臺示波器和一個音頻揚聲器。當聽到神經元發出的聲音時,他對自己說:“我終于進來了,我進到了一個脊椎動物的思想里。”與此同時,他也意識到,自己并不明白這次沖擊在這個小動物的思維過程中到底意味著什么。霍維茨看了一眼自己的實驗臺,注意到一臺最近拿來的蘋果 IIe 型計算機的蓋布滑落到了一邊。他的心一沉,意識到自己正在運用一種完全錯誤的方法。他正在做的事情無異于隨機將一只探針塞進計算機里,試圖理解計算機軟件。
霍維茨離開了醫學領域,轉而開始研究認知心理學和計算機科學。他選擇了卡內基·梅隆大學的認知科學家、人工智能先驅赫伯特·西蒙作為自己的遠程導師,也開始接觸加州大學洛杉磯分校計算機科學教授朱迪亞·珀爾 (Judea Pearl)。珀爾開創了人工智能研究的新方法,這種方法與早期的邏輯和基于規則的方法具有明顯區別,專注于建立嵌套式的概率網絡來識別模式。從概念上來講,這與 20 世紀 60 年代遭到明斯基和珀爾特批評的神經網絡的思路相距不遠。
因此,20 世紀 80 年代,霍維茨在斯坦福大學遠離了計算機科學研究的主流。許多主流人工智能研究者認為,他對概率論的興趣是過時的,回到了過去的“控制論”方法。
1993 年,霍維茨來到微軟研究院,他的任務是打造一個團隊,研發可以改善公司商業產品的人工智能技術。微軟的 Office 助手(即“Clippy”)1997 年問世,主要是為了幫助用戶掌握不易使用的軟件,它在很大程度上就是霍維茨團隊在微軟研究院的研究成果。得更加容易,如今市面上已經出現了幾種這一類型的增強產品。例如,早在 2005 年,兩位象棋愛好者使用一個下棋程序贏了一位象棋大師,以及其他下棋程序。
霍維茨仍在研究如何通過人類智能讓機器學習和計算機決策結合起來, 以此深化人機交互。舉例來說,他的研究人員與引導全民科學的工具 Galaxy Zoo的設計者們密切合作,利用人類網絡沖浪者的力量對銀河系圖片進行分類。
眾籌勞動力正在科學研究中變成十分重要的資源:專業科學家可以指導業余愛好者,而業余愛好者要做的,只是玩一些利用人類認知的精密游戲,來幫助科學家解決像繪制蛋白質結構一樣棘手的問題。
在很多情況下,人類專家團隊已經超過了某些最強大的超級計算機的能力。在評估完人類和機器的組合后,通過給每一個組分配一個特定的研究任務, 科學家能夠創造一支強大的混合科研團隊。
計算機擁有驚人的圖像識別能力,它們可以創建數百個視覺表格,分析目前望遠鏡能夠觀測到的所有星系。這種做法并不昂貴,但也沒能產生最好的結果。在這個程序的新版本 Galaxy Zoo 2 中,擁有機器學習模型的計算機能夠解釋星系圖片,以便為人類分類員提供準確的樣本,使之可以比之前更容易地為星系進行登記。
在另一個改進中,這個系統增加了識別不同參與者的特定技能的功能, 并能夠恰當地予以平衡。Galaxy Zoo 2能夠自動對遇到的問題進行分類,并且知道哪些人可以更有效地解決這個問題。
在 2013 年的一場 TED 演講中,霍維茨向觀眾展示了一名微軟實習生第一次遇到迎賓機器人時的反應。霍維茨展示了一小段視頻,里面記錄了從系統的視角來看這次互動的過程,尤其是記錄了這名女性實習生的臉部。這位年輕的女性靠近系統,系統告訴她,霍維茨正在辦公室里與某人交談,并且提出可以為她安排會面時間,她猶豫了一下,??絕了計算機的提議。
“哇,這太驚人了。”這位年輕的女性低聲說。然后,為了結束這次對話, 她急匆匆地說了一句:“很高興認識你!”霍維茨總結道,這是一個好的跡象。他認為,這種類型的互動展現了人類和機器人成為伙伴的世界。
也許,與機器人交互的那種自由、放松之感,正是因為在連的另一邊并不是一個令人難以捉摸的人類。也許,這根本與人際關系無關,更多的在于是取得控制成為主人還是成為奴隸。
4、選擇,一切與機器無關
在人工智能和機器人技術之間,未來既可能是烏托邦,也可能是地獄,還有可能是介于兩者之間的某種世界。如果生活和自由的標準有機會得到提高,但是否值得以犧牲自由和隱私為代價呢?是否存在能夠設計出這種系統的正途或是歧路?我堅信,答案就在這些設計師身上。
一組設計師設計出強大的機器人,讓人們可以完成此前無法想象的任務,比如用于空間探索的編程機器人;而另一組人則研究用機器取代人類,比如設計出人工智能軟件,讓機器人可以為醫生和律師的工作“代班”。有必要讓這兩個陣營找到互相交流的途徑。我們如何設計這些日益智能的機器、如何與它們互動, 將決定未來社會和經濟的本質。這將不斷影響現代世界的方方面面,從我們是否生活在一個階層更加分明(或更加模糊)的世界, 到身為人類究竟意味著什么。
對于當今人工智能技術狀況的討論已經突然轉向科幻小說或宗教領域。不過,機器自治的現實不僅屬于哲學范疇,也不是純粹的假設性問題了。我們已經進入了新時期,機器能夠執行很多需要智慧與體力的人類工作:它們可以勝任工廠的工作、駕駛無人駕駛汽車,將人類排除在外汽車、診斷疾病,也能以人類律師的眼光閱讀文件,它們當然也能控制武器,以極高的精準度展開屠殺。
無論是機器設備,還是讓它們運轉的軟件,實際上都是由人類設計的。馬歇爾·麥克盧漢(Marshall McLuhan)對這一過程的描述最為清晰:“我們塑造了工具,而之后,這些工具又塑造了我們。”
現實情況是,人類將繼續決定機器的能力。那些創造了日益強大、自動化的機器人和人工智能軟件的工程師們,將決定這些發明將要增強人類、控制人類還是完全去除人類的存在。
同樣可以確定的是,人類與機器的關系在每一種文化中都呈現了各自的特征。長久以來,日本人都對機器人情有獨鐘,而在美國,人們在崇敬機器的同時,又多了幾分懷疑和惶恐。
這些都不是什么新問題。在計算時代的黎明期,應用數學家、控制論創始人諾伯特·維納(Norbert Wiener)就曾明確指出,智能機器時代的到來,帶來了一些清晰的選擇。不過到目前為止,大多數可選方案仍然僅限于推理與猜測。如今,隨著機器變得自動、敏捷、能夠四處移動,工程師、科學家、程序員以及老百姓所作出的每一個決定,都會即刻發生作用。今天,機器人學和人工智能軟件都在不斷喚起人們對個人計算時代早期的回憶。正如業余愛好者們締造了個人計算機產業,人工智能設計師和機器人學家對技術進步、新產品和它們身后的科技公司都抱有極大的熱情。與此同時, 多數軟件設計師和機器人工程師在被問到自己的發明會帶來什么潛在影響時都會感到不快,只能頻繁地以幽默來轉移話題,化解尷尬,但是,問題仍然是必要的。機器人發展中可沒有“盲眼鐘表匠”(blind watchmaker)。無論是增強還是自動化,都是由一個個人類設計師作出的設計決定。
評論