美國法律扼殺機器人前途 產業發展喜憂參半
ICRAC希望管制傳統武器聯合國大會此次討論自主武器將為禁止自主機器人武器邁出第一步,對激光致盲武器的禁令就是這么走過來的。
本文引用地址:http://www.104case.com/article/201603/288243.htm“機器人有權決定是否殺死人類,這是人們必須面對的道德抉擇。”
人們對自主機器人武器的誤解達到了不可思議的地步,其中的原因是對人工智能抱有太大期望,實際上人工智能的水平還遠沒有達到人們的預期,或者,用Sharkey教授的話說“因為科幻小說而導致的人們對人工智能的文化曲解。”機器人研究者指出AI目前的應用領域都是一些極為平常的領域,并非用于制造能夠思考的機器人。
“20年內可感知機器人會誕生,而在每個年代都有人揚言智能機器人就要誕生了,但是真正的機器人工作者們卻從來不這么說,他們繼續著他們的研究。人工智能在不斷發展,它的身影遍布我們身邊只是我們從沒意識到——手機和汽車,這都是科學家們研究的內容。”
有人指出在遙遠的未來人工智能可能發展成熟,電腦可以遵守戰爭基本法,即便這樣,最基本的道德問題依然沒有消失。Sharkey說:“誰改負責的問題依然沒有得到解決,人們還是要抉擇是否應該讓機器人有權殺死人類。”
機器人法則
對機器人是否擁有權利殺人的討論可能略顯神秘,爭論本身也還是很模糊,尤其是——殺人機器人還不存在。
目前我們的工作是為特殊用途制定特殊的機器人規則,例如國防部的自主武器系統規劃。另一個不那么雄偉的例子:美國一些州最近準備通過允許自主駕駛汽車上路的法案。我們正為不同的機器人應用領域制定不同的機器人規則,卻很少去研究機器人殺人問題。
然而,有許多人提出創建一系列新的規則和道德框架來掌握人工智能和機器人。這其中最出名的也是是阿西莫夫的機器人三大定律,這套規則在1942年首次被提出,至少在科幻世界中已經為機器人的行為準則制訂了道德框架。
無論是機器人還是人工智能都沒有發展到足以理解或遵守這三條定律,亦或者是其他復雜的規則。吸塵機器人就不需要理解如此復雜的道德規則。
“人類想出了阿西莫夫定律,但是定律本身就表明了簡單的道德規則無法運作。如果你通讀三大定律你會發現每條定律都說不通,阿西莫夫定律是不切實際的。”英國巴斯大學的Joanna Bryson教授說。
Bryson教授強調機器人和人工智能只能被視為最先進的工具——極端復雜的工具,但是僅此而已。她指出人工只能應該被當做人類智能的擴展,就像書寫成書是人類記憶的擴展一樣。“人工智能只是人類千百年來改造世界的無數工具之一,”她說“不同的是改造的速度比以前更快了。”
無論機器人的自主能力和智能達到何種水平,對Bryson來說,機器人和人工智能都只屬于工具范疇,因此需要規則的并非機器人而是人類。“人們需要在自身建立道德框架,機器人用不著擁有自己的道德框架。人類要做出選擇,把機器人放在人的道德框架之內,才不會殘殺地球上的其他生命。”
英國工程和物理科學研究理事會(EPSRC)是少數幾個致力于制定一套實用 的機器人規則的組織,但是很快EPSRC就意識到目前機器人并不需要這么一套規則。
評論