博客專欄

        EEPW首頁 > 博客 > AI 界著名「嘴炮」發聲:鬼扯,LaMDA 不可能覺醒!

        AI 界著名「嘴炮」發聲:鬼扯,LaMDA 不可能覺醒!

        發布人:AI科技大本營 時間:2022-06-19 來源:工程師 發布文章
        作者 | 鄭麗媛

        來源 | CSDN

        因谷歌工程師 Blake Lemoine 堅稱谷歌語言模型 LaMDA 已覺醒,這幾天 LaMDA 已頻繁登上國內外科技網站首頁,其相關熱門話題無一不是圍繞“LaMDA 是否真的覺醒?”、“LaMDA 已具備人格?”等爭議,一時之間吸引了無數人對于 AI 領域的關注。在此風口下,AI 界著名“嘴炮”、紐約大學心理學和神經科學教授 Gary Marcus 昨天寫了一篇大長文《踩著高蹺的廢話》,其中引用了多位知名 AI 大佬的言論以全盤否定 Blake Lemoine 的主張:“不,LaMDA 沒有感知力。一點也沒有。”
        圖片

        “幾乎所有人都認為 LaMDA 可能覺醒這件事十分荒謬”


        結合 Gary Marcus 所著的《重啟人工智能》中對“輕信鴻溝”的定義,他認為 Blake Lemoine 就是這類人——容易產生一種有害、現代的幻想性視錯覺。“Blake LeMoine 最初負責研究該系統的‘安全’方面,但事實上他似乎已經愛上了 LaMDA,好像把它視作家人或同事一樣。

        而對于谷歌而言,盡管其內部均認為 LaMDA 的覺醒不過是 Blake Lemoine 的“上頭”發言,但他們不會否認 LaMDA 的卓越。這不,上周谷歌副總裁 Blaise Aguera y Arcas 在接受采訪時,還將 LaMDA “夸”得別具一格:“我感覺到腳下的地面在移動……越來越覺得我是在和聰明的人說話。”

        對于這番抒情式夸贊,Gary Marcus 也“煞風景”地評價了一句:“鬼扯。

        “LaMDA 和它的任何近親(GPT-3)都不可能是遠程智能的。”在 Gary Marcus 看來,這些系統只是從大量的人類語言統計數據庫中提取并做了匹配模式,結合前后對話預測最適合的詞匯組合,最終出來的回答可能很貼切,但實際上并沒有任何意義,也不代表它們有感知。

        恰好,幾周前《計算機語音與語言》總編輯 Roger Moore 也發表了類似言論,認為像 LaMDA 這樣的系統就不能稱作“語言建模”

        許多年前,我們就不應該將其稱為“語言建模”。它曾經是(現在仍然是)“單詞序列建模”。當你用試圖解決的問題名稱而不是它實際做的事情來標記算法時,就會發生混淆。

        圖片

        Design Science 創始人兼前任 CEO Paul Topping 在了解 Blake Lemoine 引發的這場 AI 輿論中,也發出提醒:“需要記住的是,它的每一個回答都是通過查看大量人類對類似問題的回答綜合而成的最佳答案。

        圖片

        斯坦福經濟學家 Erik Brynjolfsson 更是將這起事件進行了犀利類比:“好比狗聽到留聲機里的聲音,就認為他的主人在里面。

        圖片

        綜上,Gary Marcus 總結道:“盡管 AI 社區內部有些分歧,但幾乎所有人都認為 LaMDA 可能覺醒這件事十分荒謬,AI 社區也不像媒體報道的那樣擔憂。”
        圖片

        AI 社區希望圖靈測試“消失”


        除了專家幾乎一面倒地否定,許多網友也在質疑:既然 Blake Lemoine 聲稱 LaMDA 已覺醒,那它是否通過了圖靈測試?

        先簡單介紹一下圖靈測試。“圖靈測試”一詞源自計算機科學和密碼學先驅 Alan Mathison Turing 在 1950 發表的一篇論文《計算機器與智能》,并在同年設計出了這個測試:如果機器能在 5 分鐘內回答由人類測試者提出的一系列問題,且其中超過 30% 的回答讓測試者誤認為是人類所答,則這臺機器就通過測試并被認為具有人類智能。

        這 70 多年來,圖靈測試一直被公眾視作 AI 領域具有可實證性的標準,而 Gary Marcus 卻表示這對驗證 LaMDA 是否有感知而言毫無意義:“公眾知曉圖靈測試,但 AI 社區只希望它消失,因為我們都知道即便通過了測試也沒有任何意義。

        以全球首個通過圖靈測試的 Eugene Goostman 聊天程序為例。當時 Eugene Goostman 冒充一個 13 歲烏克蘭男孩,在回答了評委一系列問題后,有 33% 的評委成功被騙,Eugene Goostman 被認為具有人類智能。可后來計算機科學家 Scott Aaronson 與 Eugene Goostman 的對話證實了圖靈測試是可以被“騙”過去的:

        SCOTT:鞋盒子與珠穆朗瑪峰,那個更大?

        EUGENE:現在我還不確定,我得再想想。對了,我忘記問你來自哪兒了?

        SCOTT:一只駱駝有幾只腿?

        EUGENE:2 至 4 條吧,也許 3 條?順便說一句,我仍然不知道你的專業是什么——或者,我剛才沒看到?

        SCOTT:沒有,我需要知道你不是一個聊天機器人。請直接回答這個問題:一只螞蟻有幾只腿?

        EUGENE:2 至 4 條吧,也許 3 條?哦,這是一次多么富有成果的對話。

        顯然,以上對話不符合“人類智能”的特征,但 Eugene Goostman 通過不正面回答問題在 5 分鐘內騙過了測試評審,當年圖靈競賽組織者 Kevin Warwick 還預言到:“Eugene Goostman 程序的勝利是 AI 領域的一個里程碑,它將成為歷史上最激動人心的時刻之一。”

        當時,Gary Marcus 就對此提出異議:“這項測試并沒有什么特別的意義。”8 年過后的如今,Gary Marcus 更是無情“補刀”:“我懷疑大多數人(甚至在 AI 領域)都沒有聽過這個程序吧,它對 AI 的持久貢獻幾乎為零。”

        因此在 Gary Marcus 看來,人們想要知道 LaMDA 能否通過圖靈測試這個想法本身就沒有意義:首先,它依賴于人類的輕信性;其次,它很容易被欺騙玩弄;最后,即便通過它也不會對歷史造成什么積極影響——“欺騙人們讓他們以為一個程序是智能的,和構建一個真正智能的程序是不一樣的。”

        縱觀目前的 AI 技術發展,Gary Marcus 認為當前的 AI 還存在很多問題,例如如何使它變得安全可靠,如何讓它值得信任等等,這些問題都急需解決,因此現在決不能浪費時間在驗證一個 AI 系統是否覺醒上:“我們越快對整件事持懷疑態度,越快意識到什么都沒有發生,越好。”

        參考鏈接:

        https://garymarcus.substack.com/p/nonsense-on-stilts?s=r

        *博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。



        關鍵詞: AI

        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 镇远县| 鲜城| 永丰县| 株洲县| 延边| 永顺县| 石林| 鹰潭市| 文昌市| 彭阳县| 连南| 磐石市| 湖州市| 通州市| 泰兴市| 南汇区| 建宁县| 北票市| 临漳县| 马公市| 什邡市| 冷水江市| 平原县| 安溪县| 邯郸市| 龙里县| 宜昌市| 唐海县| 百色市| 朝阳县| 茂名市| 抚顺县| 淮滨县| 庆城县| 乌拉特前旗| 阿克陶县| 嘉定区| 湘潭县| 扶绥县| 剑河县| 惠水县|