谷歌研究員被群嘲:LaMDA有人格是胡說八道!谷歌也回應:想多了,就是會聊而已
跟統計機器談感情,你就輸了。
——
文|杜晨 編輯|VickyXiao 題圖來源:News Text Area、谷歌
什么?AI 具備人格了??谷歌前不久搞出來了一個超大規模語言模型 LaMDA。公司里有個研究員 Blake Lemoine 跟它聊了很久,對其能力感到十分驚訝,于是下了個結論:LaMDA 可能已經具備人格了。(原話用的詞是 sentient,在不同的語境下可以被翻譯為感情、智慧、知覺等。)很快,這位仁兄就被“帶薪休假了”。
但他不是一個人:就連公司 VP Blaise Agüera y Arcas 都在發表文章,表示 AI 在獲得意識方面實現了巨大進步,“已經進入了一個嶄新時代。”

| AI具備人格?眾大佬嗤之以鼻斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把這件事比喻為“面對留聲機的狗”,他發推表示:“基礎模型 (foundation models,也即自我監督的大規模深度神經網絡模型) 非常擅長做的一件事,就是根據提示,將文本采用統計學上合理的方式串起來。但是如果你說他們是有知覺的,就好比狗聽到留聲機里的聲音,以為它的主人在里面一樣。”



1)大家天天炒的 AI 并不是真的 AI,而是統計學系統,是機器人 (robot);2)我們不應該賦予機器人權利;3)我們甚至壓根就不應該討論是否要賦予機器人權利……比利時 Donders Institute 計算認知科學教授 Olivia Guest 也加入了“戰局“,稱整個事情的邏輯是錯亂的。“‘我看到的東西像人,因為我按照人的樣子開發的它,所以它是一個人’——簡直是倒騎驢的邏輯。”




事情在社交網絡上發酵之后,谷歌很快作出了回應:LaMDA 和公司近幾年的大型 AI 項目一樣,都經過了多次嚴格的 AI 道德方面的審核,對其內容、質量、系統安全性等進行了多方面的考量。今年早些時候,谷歌也專門發表了一篇論文,公開了 LaMDA 開發過程當中的合規細節。“在 AI 群體內,對于具備感知的 AI/通用 AI 的長期可能性,確實有一些研究。然而在今天把對話模型來擬人化,這樣做是沒有意義的,因為這些模型是沒有知覺的。”“這些系統能夠基于數以百萬計的句子來模仿交流的方式,并且在任何有趣的話題上都能夠扯出有意思的內容。如果你問它們做一支冰激淋恐龍是怎樣的體驗,它們可以生成大量關于融化咆哮之類的文字。”
(These systems imitate the types of exchanges found in millions of sentences, and can riff on any fantastical topic — if you ask what it’s like to be an ice cream dinosaur, they can generate text about melting and roaring and so on.)
類似的故事我們見過太多了,特別是前幾年一個非常經典的電影《她》(Her) 里面,主角對于虛擬助手的身份界限越來越不清晰,把“她”當成了人。然而根據電影的描繪,這種錯覺其實來自于當代人社交失敗、情感破裂、孤獨感等一系列自我和社會性的問題,跟聊天機器人到底是不是人這一技術性的問題,壓根沒有半毛錢關系。
電影《她》劇照 圖片來源:華納兄弟影業
當然,有這些問題并不是我們的錯,想要把機器人當成人,也不是那個研究員的錯。將各種情緒(比如思念)托付在物件上,是人類自古以來就具有的一種創造性的情感能力。將大規模語言模型當成人,對其傾注情感,雖然被各位 AI 大佬批評為一種心理誤差,不也正是人之所以為人的體現嗎?不過,至少在今天,談啥都別跟機器人談感情……參考資料:[1] Nonsense on Stilts by Gary Marcus https://garymarcus.substack.com/p/nonsense-on-stilts*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。