人工智能是否會終結人類?聽聽7位業界大牛的聲音
5月6日消息,據《時代》雜志網站報道,從谷歌(微博)AlphaGo擊敗李世石,到語義網絡掌握4歲兒童的語言能力,這一切都表明,人工智能正在到來。
本文引用地址:http://www.104case.com/article/201605/290779.htm關于人工智能未來的發展,以下是當代最睿智的程序員、哲學家和創業者的說法。
薩姆·阿爾特曼(Sam Altman),知名孵化器Y Combinator總裁
阿爾特曼的公司OpenAI正在開發開源的人工智能技術,這樣的技術面向所有人,而非一小群人。他認為,未來的人工智能設計將實現自我管理,從而只帶來有益的用途。阿爾特曼認為,OpenAI人工智能系統的智力將在未來幾十年中勝過人類。但由于這項技術被開放給所有人,因此風險將被消除。
尼克·博斯特羅姆(Nick Bostrom),牛津大學人類未來研究所所長
博斯特羅姆對人工智能的未來看法悲觀。他在2014年的著作《超級智能:道路、危險與戰略》中警告稱,人工智能將很快表現出黑暗的一面。隨之而來的世界將“充滿經濟奇跡和技術繁榮,但沒有人能從中受益”。這就像是“沒有孩子的迪士尼樂園”。
比爾·蓋茨(Bill Gates),微軟聯合創始人
蓋茨認為,短期內,智能程度較低的人工智能將成為積極的勞動力替代工具。他認為,如果進行適當的管理,那么人工智能革命將會是有益的。不過,他也擔心未來幾十年出現超級智能。這樣的超級智能將“強大到足以令人擔憂”。他坦言,他無法理解為何有人不擔心這件事。
史蒂芬·霍金(Stephen Hawking),理論物理學家
霍金認為,人工智能可能既不可思議,又帶來嚴重災難。與其他多名科學家一樣,他將人工智能稱作“人類歷史上的最大事件”,有助于消除戰爭、疾病和貧困。然而由于指數式的發展,人工智能或許會在金融市場興風作浪,在發明領域超過人類研究員,甚至開發出人類無法理解的武器。霍金同時警告稱,超級智能的出現可能是“人類歷史上的最終事件”,除非我們能提前了解如何規避風險。
米奇奧·卡庫(Michio Kaku),理論物理學家、未來學家
卡庫的看法相對務實。他將人工智能稱作“世紀末的問題”。他指出,到那時,如果人類沒有更好的辦法去限制惡意人工智能,那么在人工智能機器人的大腦中安裝緊急關閉芯片將會非常重要。
雷伊·庫茲韋爾(Ray Kurzweil),未來學家、谷歌工程總監
庫茲韋爾認為,人類水平的人工智能將于2029年成為現實。這項技術將有助于治療疾病,保護環境,因此勢在必行的做法是承認其前景,同時控制好風險。
伊隆·馬斯克(Elon Musk),特斯拉及SpaceX CEO
馬斯克將人工智能稱作“我們現存的最大威脅”,而發展人工智能等同于“召喚惡魔”。他對此非常認真,并表示與作為創業者的直覺相反,他“越來越認為,這一領域需要引入監管,而這樣的監管可以在全國層面或國際層面,以確保我們不會做蠢事”。
評論