新聞中心

        EEPW首頁 > 智能計(jì)算 > 業(yè)界動態(tài) > 構(gòu)建智能機(jī)器有助于我們了解大腦的工作原理

        構(gòu)建智能機(jī)器有助于我們了解大腦的工作原理

        —— 設(shè)計(jì)像人類一樣思考的機(jī)器可以深入了解智能本身
        作者: 時(shí)間:2025-05-19 來源: 收藏

        他對人工智能的夢想從來都不僅僅是制作一個擊敗特級大師的國際象棋引擎或一個試圖破壞婚姻的聊天機(jī)器人。它一直是我們自己的智慧的一面鏡子,這樣我們就可以更好地了解自己。研究人員不僅尋求人工智能,還尋求通用人工智能 (AGI),即具有類似人類適應(yīng)性和創(chuàng)造力的系統(tǒng)。

        本文引用地址:http://www.104case.com/article/202505/470589.htm

        大型語言模型獲得的問題解決能力比大多數(shù)研究人員預(yù)期的要強(qiáng)。但他們?nèi)匀粫赣薮赖腻e誤,缺乏開放式學(xué)習(xí)的能力:一旦他們接受了書籍、博客和其他材料的培訓(xùn),他們的知識儲備就會被凍結(jié)。他們沒有通過人工智能公司 SingularityNET 的 Ben Goertzel 所說的“機(jī)器人大學(xué)生測試”:你不能讓他們讀完大學(xué)(甚至不能讀托兒所)。

        這些系統(tǒng)明確解決了 AGI 的一個部分是語言。他們擁有專家所說的正式能力:他們可以解析你給他們的任何句子,即使是零散的或俚語的,并用可能被稱為維基百科標(biāo)準(zhǔn)英語的東西回答。但他們在思維的其他維度上失敗了——一切有助于我們處理日常生活的東西。“我們不應(yīng)該指望他們能夠思考,”麻省理工學(xué)院的神經(jīng)科學(xué)家南希·坎維舍 (Nancy Kanwisher) 說。“他們是語言處理器。”他們巧妙地縱文字,但除了通過他們吸收的文本之外,無法進(jìn)入現(xiàn)實(shí)。

        在某種程度上,大型語言模型只模仿大腦的語言能力,而沒有感知、記憶、導(dǎo)航、社會判斷等能力。如果像 Kanwisher 所說的那樣,我們的大腦是具有多種功能的瑞士軍刀,那么大型語言模型就是一個非常棒的開瓶器。她和其他神經(jīng)科學(xué)家爭論這些功能是局限于特定位置還是分布在我們的灰質(zhì)中,但大多數(shù)人都同意至少有一些專業(yè)化。AI 開發(fā)人員正在將這種模塊化整合到他們的系統(tǒng)中,希望使它們更智能。

        沒有人確定大腦區(qū)域如何協(xié)同工作以創(chuàng)造一個連貫的自我,更不用說機(jī)器如何模仿它了。一種假設(shè)是意識是共同點(diǎn)。

        OpenAI 是生成式預(yù)訓(xùn)練轉(zhuǎn)換器 (GPT) 的創(chuàng)建者,它允許付費(fèi)用戶選擇附加工具(最初稱為“插件”)來處理數(shù)學(xué)、Internet 搜索和其他類型的查詢。每個工具都調(diào)用了一些與其專業(yè)相關(guān)的外部知識庫。此外,對于用戶來說,核心語言系統(tǒng)本身在某種意義上可能是模塊化的。OpenAI 對規(guī)范保密,但許多 AI 研究人員推測,GPT 由多達(dá) 16 個獨(dú)立的神經(jīng)網(wǎng)絡(luò)或“專家”組成,這些網(wǎng)絡(luò)將他們對查詢的答案匯集在一起——盡管他們?nèi)绾畏止ど胁磺宄?023 年 12 月,法國人工智能公司 Mistral 和不久之后的中國公司 DeepSeek 發(fā)布了這種“專家混合”架構(gòu)的開源版本,引起了轟動。這種簡單的模塊化形式的主要優(yōu)點(diǎn)是其計(jì)算效率:訓(xùn)練和運(yùn)行 16 個較小的網(wǎng)絡(luò)比單個大型網(wǎng)絡(luò)更容易。“讓我們兩全其美,”愛丁堡大學(xué) AI 研究員 Edoardo Ponti 說。“讓我們得到一個具有大量參數(shù)的系統(tǒng),同時(shí)保持更小模型的效率。”

        但模塊化需要權(quán)衡取舍。沒有人確定大腦區(qū)域如何協(xié)同工作以創(chuàng)造一個連貫的自我,更不用說機(jī)器如何模仿它了。佐治亞理工學(xué)院(Georgia Institute of Technology)的神經(jīng)科學(xué)家安娜·伊萬諾娃(Anna Ivanova)想知道:“信息是如何從語言系統(tǒng)進(jìn)入邏輯推理系統(tǒng)或社會推理系統(tǒng)的?“這仍然是一個懸而未決的問題。”

        一個具有挑釁性的假設(shè)是意識是共同點(diǎn)。根據(jù)這個被稱為全局工作空間理論 (GWT) 的思想,意識之于大腦就像員工會議之于公司:一個模塊可以共享信息和尋求幫助的地方。GWT 遠(yuǎn)非唯一的意識理論,但它引起了 AI 研究人員的特別興趣,因?yàn)樗孪胍庾R是高級智能不可或缺的一部分。要完成簡單或經(jīng)過演練的任務(wù),大腦可以在自動駕駛儀上運(yùn)行,但新穎或復(fù)雜的任務(wù)(超出單個模塊范圍的任務(wù))需要我們了解自己在做什么。

        Goertzel 和其他人已將工作區(qū)整合到他們的 AI 系統(tǒng)中。“我認(rèn)為全球工作空間模型的核心思想將以許多不同的形式出現(xiàn),”他說。在設(shè)計(jì)這個模型的電子表示時(shí),研究人員并不尋求制造有意識的機(jī)器;相反,他們只是在復(fù)制特定意識理論的硬件,以試圖實(shí)現(xiàn)類似人類的智能。

        他們會不會無意中創(chuàng)造了一個有感情和動機(jī)的有知覺的生物?這是可以想象的,盡管即使是 GWT 的發(fā)明者、加利福尼亞州拉霍亞神經(jīng)科學(xué)研究所的伯納德·巴爾斯 (Bernard Baars) 也認(rèn)為這是不可能的。“有意識計(jì)算是一個沒有絲毫證據(jù)的假設(shè),”他說。但是,如果開發(fā)人員真的成功構(gòu)建了 AGI,他們就可以提供對智能本身的結(jié)構(gòu)和過程的重要見解。


        長期以來,GWT 一直是神經(jīng)科學(xué)和 AI 研究如何相互影響的案例研究。這個想法可以追溯到“Pandemonium”,這是計(jì)算機(jī)科學(xué)家奧利弗·塞爾弗里奇 (Oliver Selfridge) 在 1950 年代提出的一種圖像識別系統(tǒng)。他將系統(tǒng)的模塊描繪成在彌爾頓式的地獄愿景中尖叫著尋求關(guān)注的惡魔。與他同時(shí)代的艾倫·紐維爾(Allen Newell)更喜歡數(shù)學(xué)家圍坐在黑板旁一起解決問題的更穩(wěn)重的比喻。這些想法被認(rèn)知心理學(xué)家采納了。在 1980 年代,Baars 提出了 GWT 作為人類意識的理論。“在整個職業(yè)生涯中,我從 AI 中學(xué)到了很多東西,主要是因?yàn)樗俏覀兾ㄒ豢尚械睦碚撈脚_,”他說。

        Baars 啟發(fā)了孟菲斯大學(xué)的計(jì)算機(jī)科學(xué)家 Stanley Franklin 嘗試構(gòu)建一臺有意識的計(jì)算機(jī)。無論富蘭克林的機(jī)器是否真的有意識——巴爾斯和富蘭克林自己都持懷疑態(tài)度——它至少再現(xiàn)了人類心理學(xué)的各種怪癖。例如,當(dāng)它的注意力從一件事轉(zhuǎn)移到另一件事時(shí),它會錯過信息,因此它和人一樣不擅長多任務(wù)處理。從 1990 年代開始,巴黎法蘭西學(xué)院的神經(jīng)科學(xué)家 Stanislas Dehaene 和 Jean-Pierre Changeux 研究了哪種類型的神經(jīng)元布線可以實(shí)現(xiàn)該工作空間。

        在這個方案中,大腦模塊大多獨(dú)立運(yùn)行,但每隔十分之一秒左右,它們就會召開一次員工會議。這是一場結(jié)構(gòu)化的吶喊比賽。每個模塊都有一些信息可以提供,它對這些信息越有信心——例如,刺激措施越符合預(yù)期——它喊得就越響亮。一旦一個模塊獲勝,其他模塊就會安靜片刻,獲勝者將其信息放入一組公共變量中:工作區(qū)。其他模塊可能會也可能不會發(fā)現(xiàn)這些信息有用;每個人都必須自己判斷。“你會得到這個有趣的子代理之間的合作和競爭過程,每個子代理都有一小部分解決方案,”Baars 說。

        工作區(qū)不僅允許模塊相互通信,而且還提供了一個論壇,即使信息不再呈現(xiàn)在感官上,它們也可以在這里集體思考信息。“你可以有一些現(xiàn)實(shí)的元素——也許是轉(zhuǎn)瞬即逝的感覺,它已經(jīng)消失了,但在你的工作空間中,它會繼續(xù)回蕩,”Dehaene 說。這種深思熟慮的能力對于解決涉及多個步驟或隨著時(shí)間的推移而延伸的問題至關(guān)重要。Dehaene 進(jìn)行了心理學(xué)實(shí)驗(yàn),在他的實(shí)驗(yàn)室里向人們提出了這些問題,他發(fā)現(xiàn)他們必須有意識地思考這些問題。

        對人工智能的追求告訴我們,我們認(rèn)為簡單的任務(wù)對計(jì)算要求很高,而我們認(rèn)為困難的事情,例如國際象棋,實(shí)際上是簡單的。

        如果這個系統(tǒng)聽起來是無政府主義的,那就是重點(diǎn)。它消除了在模塊之間委派任務(wù)的 Boss,因?yàn)槲珊茈y正確。在數(shù)學(xué)中,授權(quán)(或在不同的參與者之間分配責(zé)任以實(shí)現(xiàn)最佳性能)屬于所謂的 NP 困難問題,解決這些問題可能非常耗時(shí)。在許多方法中,例如被認(rèn)為由 OpenAI 使用的專家混合架構(gòu),“門控”網(wǎng)絡(luò)會分發(fā)任務(wù),但它必須與各個模塊一起進(jìn)行訓(xùn)練,并且訓(xùn)練過程可能會崩潰。首先,它遭受了 Ponti 所說的“先有雞還是先有蛋的問題”:因?yàn)槟K依賴于路由,而路由又依賴于模塊,所以訓(xùn)練可能會兜圈子。即使訓(xùn)練成功,路由機(jī)制也是一個黑匣子,其工作原理是不透明的。

        2021 年,卡內(nèi)基梅隆大學(xué) (Carnegie Mellon University) 的數(shù)學(xué)家兼名譽(yù)教授 Manuel Blum 和 Lenore Blum 制定了全球工作空間中爭奪注意力之戰(zhàn)的細(xì)節(jié)。它們包括一個機(jī)制,用于確保模塊不會夸大他們對所帶來信息的信心,從而防止一些吹牛接管。已婚的 Blum 夫婦還建議模塊可以開發(fā)直接互連,以完全繞過工作區(qū)。例如,這些側(cè)面鏈接可以解釋當(dāng)我們學(xué)習(xí)騎自行車或演奏樂器時(shí)會發(fā)生什么。一旦模塊共同確定哪些模塊需要做什么,它們就會將任務(wù)脫機(jī)。“它將通過短期記憶的處理轉(zhuǎn)變?yōu)闊o意識的處理,”Lenore Blum 說。

        有意識的關(guān)注是一種稀缺資源。工作區(qū)中沒有太多的信息空間,因此獲勝的模塊在傳達(dá)給其他模塊的內(nèi)容時(shí)必須非常有選擇性。這聽起來像是一個設(shè)計(jì)缺陷。“為什么大腦對你可以同時(shí)思考的事情數(shù)量有如此限制?”但他認(rèn)為這種約束是一件好事:它強(qiáng)制執(zhí)行認(rèn)知紀(jì)律。由于無法追蹤世界的所有復(fù)雜性,我們的大腦必須識別其背后的簡單規(guī)則。“這個瓶頸迫使我們想出一個關(guān)于世界是如何運(yùn)作的,”他說。

        對 Bengio 來說,這是 GWT 為 AI 上的重要一課:今天的人工神經(jīng)網(wǎng)絡(luò)對自身來說太強(qiáng)大了。他們有數(shù)十億或數(shù)萬億個參數(shù),足以吸收互聯(lián)網(wǎng)的大量內(nèi)容,但往往會陷入雜草叢中,無法從他們所接觸到的東西中提取更大的教訓(xùn)。如果他們大量的知識儲備必須通過一個狹窄的漏斗,就像我們的意識思維是如何運(yùn)作的,他們可能會做得更好。


        Bengio 在 AI 系統(tǒng)開始考慮 GWT 之前就開始努力將意識瓶頸納入 AI 系統(tǒng)。在 2010 年代初期,Bengio 和他的同事對我們的大腦如何選擇性地專注于一條信息并暫時(shí)屏蔽其他所有信息印象深刻,他們在神經(jīng)網(wǎng)絡(luò)中構(gòu)建了一個類似的過濾器。例如,當(dāng) GPT 等語言模型遇到代詞時(shí),它需要找到先行詞。它通過突出顯示附近的名詞并使其他詞性變灰來實(shí)現(xiàn)此目的。實(shí)際上,它 “關(guān)注” 理解文本所需的關(guān)鍵詞。代詞也可能與形容詞、動詞等相關(guān)聯(lián)。網(wǎng)絡(luò)的不同部分可以同時(shí)關(guān)注不同的單詞關(guān)系。

        但 Bengio 發(fā)現(xiàn)這種注意力機(jī)制帶來了一個微妙的問題。假設(shè)網(wǎng)絡(luò)完全忽略了一些單詞,它將通過為對應(yīng)于這些單詞的計(jì)算變量分配零值來實(shí)現(xiàn)。如此突然的變化將對訓(xùn)練網(wǎng)絡(luò)的標(biāo)準(zhǔn)程序造成影響。該過程稱為反向傳播,涉及將網(wǎng)絡(luò)的輸出追溯到產(chǎn)生它的計(jì)算,這樣如果輸出錯誤,您可以找出原因。但是你不能通過突然的變化來追溯。

        因此,Bengio 和其他人設(shè)計(jì)了一種“軟關(guān)注機(jī)制”,使網(wǎng)絡(luò)具有選擇性,但并不過分。它為各種選項(xiàng)分配數(shù)字權(quán)重,例如代詞可能與哪些單詞相關(guān)。盡管有些單詞的權(quán)重比其他單詞高,但所有單詞都仍在發(fā)揮作用;網(wǎng)絡(luò)從不做出艱難的選擇。“你得到其中的 80%,其中 20%,而且因?yàn)檫@些注意力權(quán)重是連續(xù)的,所以你實(shí)際上可以做 [微積分] 并應(yīng)用反向傳播,”Bengio 說。這種軟注意力機(jī)制是 “transformer” 架構(gòu)的關(guān)鍵創(chuàng)新,即 GPT 中的 “T”。

        近年來,Bengio 重新審視了這種方法,以創(chuàng)造更嚴(yán)格的瓶頸,他認(rèn)為如果網(wǎng)絡(luò)要實(shí)現(xiàn)接近真正理解的東西,這一點(diǎn)很重要。真正的全局工作空間必須做出艱難的選擇 — 它沒有空間來跟蹤所有選項(xiàng)。2021 年,Bengio 和他的同事設(shè)計(jì)了一個 “生成流 ”網(wǎng)絡(luò),該網(wǎng)絡(luò)會定期選擇一個可用選項(xiàng),其概率由注意力權(quán)重決定。他不僅僅依賴反向傳播,而是訓(xùn)練網(wǎng)絡(luò)在正向或反向工作。這樣,即使發(fā)生突然的變化,它也可以返回以修復(fù)任何錯誤。在各種實(shí)驗(yàn)中,Bengio 已經(jīng)表明,該系統(tǒng)開發(fā)了更高級別的輸入數(shù)據(jù)表示,與我們自己的大腦獲取的數(shù)據(jù)平行。


        實(shí)施全局工作空間的另一個挑戰(zhàn)是高度專業(yè)化。就像不同大學(xué)系的教授一樣,大腦的各種模塊創(chuàng)造了相互無法理解的行話。視覺區(qū)域提出了抽象,讓它能夠處理來自眼睛的輸入。聽覺模塊開發(fā)適合內(nèi)耳振動的表現(xiàn)。那么他們是如何溝通的呢?他們必須找到某種通用語或亞里士多德所說的常識——該術(shù)語的原意。這種需求在科技公司一直在引入的“多模式”網(wǎng)絡(luò)中尤為緊迫,這些網(wǎng)絡(luò)將文本與圖像和其他形式的數(shù)據(jù)相結(jié)合。

        在 Dehaene 和 Changeux 的 GWT 版本中,這些模塊由神經(jīng)元連接,這些神經(jīng)元調(diào)整它們的突觸,將傳入的數(shù)據(jù)翻譯成本地白話。“他們將 [輸入] 轉(zhuǎn)換為自己的代碼,”Dehaene 說。但細(xì)節(jié)并不模糊。事實(shí)上,他希望試圖解決人工神經(jīng)網(wǎng)絡(luò)類似問題的 AI 研究人員能夠提供一些線索。“工作空間更像是一個想法;這幾乎不是一個理論。我們正在努力使其成為一個理論,但它仍然很模糊——工程師們有這種非凡的才能,可以把它變成一個工作系統(tǒng),“他說。

        2021 年,總部位于東京的人工智能公司 Araya 的神經(jīng)科學(xué)家兼創(chuàng)始人金井涼太和另一位跨界進(jìn)入人工智能的神經(jīng)科學(xué)家、法國圖盧茲大學(xué)的 Rufin VanRullen 提出了一種人工神經(jīng)網(wǎng)絡(luò)執(zhí)行翻譯的方法。他們從 Google 翻譯等語言翻譯系統(tǒng)中獲得靈感。這些系統(tǒng)是迄今為止人工智能最令人印象深刻的成就之一。他們可以在不被告知的情況下完成自己的工作,例如,英語中的“l(fā)ove”與法語中的“amour”的含義相同。相反,他們孤立地學(xué)習(xí)每種語言,然后通過他們的掌握推斷出哪個詞在法語中扮演著與英語中“愛”相同的角色。

        假設(shè)您用英語和法語訓(xùn)練兩個神經(jīng)網(wǎng)絡(luò)。每個語言都收集了各自語言的結(jié)構(gòu),發(fā)展出一種稱為潛在空間的內(nèi)部表示。從本質(zhì)上講,它是一個詞云:一張地圖,展示了該語言中單詞的所有關(guān)聯(lián),通過將相似的單詞彼此靠近,將不相關(guān)的單詞相距較遠(yuǎn)的位置來構(gòu)建。云的形狀很獨(dú)特。事實(shí)上,這兩種語言的形狀是相同的,因?yàn)楸M管它們的所有差異,但它們最終指的是同一個世界。您需要做的就是旋轉(zhuǎn)英語和法語詞云,直到它們對齊。你會發(fā)現(xiàn) “愛” 與 “amour” 是一致的。“沒有字典,通過查看每種語言的潛在空間中嵌入的所有單詞的星座,你只需要找到正確的旋轉(zhuǎn)來對齊所有點(diǎn),”Kanai 說。

        因?yàn)樵摮绦蚩梢詰?yīng)用于整個段落以及單個單詞,所以它可以處理微妙的含義陰影和在其他語言中沒有直接對應(yīng)物的單詞。此方法的一個版本可以在不相關(guān)的語言(如英語和中文)之間進(jìn)行翻譯。它甚至可能對動物交流有效。

        VanRullen 和 Kanai 認(rèn)為,該程序不僅可以在語言之間翻譯,還可以在不同的含義和描述模式之間翻譯。“你可以通過獨(dú)立訓(xùn)練圖像處理系統(tǒng)和語言處理系統(tǒng)來創(chuàng)建這樣一個系統(tǒng),然后實(shí)際上你可以通過對齊它們的潛在空間將它們組合在一起,”Kanai 說。與語言一樣,翻譯是可能的,因?yàn)橄到y(tǒng)基本上指的是同一個世界。這種洞察力正是 Dehaene 所希望的:AI 研究如何提供對大腦運(yùn)作的洞察力的一個例子。“神經(jīng)科學(xué)家從未考慮過這種對齊潛在空間的可能性,”Kanai 說。

        為了了解這些原則是如何付諸實(shí)踐的,Kanai 與現(xiàn)在在高級意識研究所工作的 Arthur Juliani 和 Araya 的 Shuntaro Sasai 合作,研究了 Google DeepMind 在 2021 年發(fā)布的 Perceiver 模型。它旨在將文本、圖像、音頻和其他數(shù)據(jù)融合到一個公共的潛在空間中;2022 年,谷歌將其整合到一個自動為 YouTube Shorts 編寫描述的系統(tǒng)中。Araya 團(tuán)隊(duì)運(yùn)行了一系列實(shí)驗(yàn)來探索 Perceiver 的工作原理,發(fā)現(xiàn)雖然它不是故意設(shè)計(jì)為全局工作區(qū),但它具有一個特征:獨(dú)立模塊、在模塊中進(jìn)行選擇的過程和工作內(nèi)存 - 工作區(qū)本身。

        類似工作空間的想法的一個特別有趣的實(shí)現(xiàn)是 AI People,這是一款由布拉格的 AI 公司 GoodAI 創(chuàng)建的類似模擬人生的游戲。我在 2023 年夏天看到的版本設(shè)置在一個監(jiān)獄院子里,里面擠滿了罪犯、腐敗的警衛(wèi)和認(rèn)真的精神科醫(yī)生,但去年發(fā)布的 alpha 版本包括更多和平的場景。游戲使用 GPT 作為角色的大腦。它不僅控制他們的對話,還控制他們的行為和情緒,使他們有一定的心理深度;系統(tǒng)會跟蹤角色是生氣、悲傷還是焦慮,并相應(yīng)地選擇其行為。開發(fā)人員添加了其他模塊(包括短期記憶形式的全局工作區(qū)),為角色提供一致的心理,并讓他們在游戲環(huán)境中采取行動。“我們的目標(biāo)是使用大型語言模型作為引擎,因?yàn)樗浅:茫缓髧@它構(gòu)建長期記憶和某種認(rèn)知架構(gòu),”GoodAI 創(chuàng)始人 Marek Rosa 說。


        AI 的一項(xiàng)潛在突破性進(jìn)展來自 Meta 的研究員 Yann LeCun。雖然他沒有直接引用全球工作空間作為靈感,但他在挑戰(zhàn)當(dāng)前生成模型的霸權(quán)——GPT 中的“G”時(shí),走了自己的路,實(shí)現(xiàn)了許多相同的想法。“我正在倡導(dǎo)反對一些不幸的是目前在 AI/機(jī)器學(xué)習(xí)社區(qū)中非常流行的東西,”LeCun 說。“我告訴人們:放棄生成模型。”

        生成神經(jīng)網(wǎng)絡(luò)之所以如此命名,是因?yàn)樗鼈兏鶕?jù)所接觸的內(nèi)容生成新的文本和圖像。要做到這一點(diǎn),他們必須對細(xì)節(jié)一絲不茍:他們必須知道如何拼寫句子中的每個單詞,以及如何將每個像素放在圖像中。但是,如果說情報(bào)有什么不同的話,那就是對細(xì)節(jié)的選擇性忽視。因此,LeCun 主張研究人員回到現(xiàn)在不合時(shí)宜的“判別性”神經(jīng)網(wǎng)絡(luò)技術(shù),例如用于圖像識別的神經(jīng)網(wǎng)絡(luò),之所以這樣稱呼,是因?yàn)樗鼈兛梢愿兄斎胫g的差異——例如,狗與貓的圖片。這樣的網(wǎng)絡(luò)不會構(gòu)建自己的圖像,而只是處理現(xiàn)有圖像以分配標(biāo)簽。

        LeCun 開發(fā)了一種特殊的訓(xùn)練方案,使判別網(wǎng)絡(luò)提取文本、圖像和其他數(shù)據(jù)的基本特征。它可能無法自動完成一個句子,但它創(chuàng)造了抽象的表示,LeCun 希望這些表示類似于我們自己腦海中的那些。例如,如果你提供一輛汽車在路上行駛的視頻,表示應(yīng)該捕捉它的品牌、型號、顏色、位置和速度,同時(shí)省略瀝青路面的顛簸、水坑上的波紋、路邊草葉上的閃光——除非我們特別注意它,否則我們的大腦會忽略它。“所有這些不相關(guān)的細(xì)節(jié)都被消除了,”他說。

        這些簡化的表示本身沒有用,但它們實(shí)現(xiàn)了一系列對 AGI 至關(guān)重要的認(rèn)知功能。LeCun 將判別網(wǎng)絡(luò)嵌入到一個更大的系統(tǒng)中,使其成為一個類腦架構(gòu)的一個模塊,該架構(gòu)包括 GWT 的關(guān)鍵功能,例如短期記憶和用于協(xié)調(diào)模塊和確定工作流程的“配置器”。例如,系統(tǒng)可以進(jìn)行規(guī)劃。“我深受心理學(xué)基礎(chǔ)知識的啟發(fā),”LeCun 說。就像人腦可以運(yùn)行思想實(shí)驗(yàn),想象某人在不同情況下的感受一樣,配置器將多次運(yùn)行判別網(wǎng)絡(luò),列出一系列假設(shè)作以找到能夠?qū)崿F(xiàn)預(yù)期結(jié)果的作。

        LeCun 說,他通常更喜歡避免對意識得出結(jié)論,但他提出了一種他所謂的“民間理論”,即意識是配置器的工作,這在他的模型中扮演的角色大致類似于 Baars 理論中工作區(qū)的作用。

        如果研究人員成功地在 AI 系統(tǒng)中構(gòu)建了一個真正的全球工作空間,這會讓他們有意識嗎?Dehaene 認(rèn)為它會,至少如果與自我監(jiān)控的能力相結(jié)合。但巴爾斯對此持懷疑態(tài)度,部分原因是他仍然不完全相信自己的理論。“我一直在懷疑 GWT 是否真的那么好,”他說。在他看來,意識是一種生物功能,是我們作為生物所特有的。幾年前我采訪富蘭克林時(shí)也表達(dá)了類似的懷疑。(他于 2023 年去世。他認(rèn)為,全球工作空間是進(jìn)化對身體需求的回應(yīng)。通過意識,大腦從經(jīng)驗(yàn)中學(xué)習(xí)并快速解決復(fù)雜的生存問題。他認(rèn)為,這些能力與 AI 通常應(yīng)用于的問題類型無關(guān)。“你必須有一個具有真實(shí)思想的自主代理,并有一個控制結(jié)構(gòu),”他告訴我。“那個代理必須有某種生活——這并不意味著它不能是一個機(jī)器人,但它必須有某種發(fā)展。它不會全面地進(jìn)入世界。

        英國薩塞克斯大學(xué)的神經(jīng)科學(xué)家阿尼爾·塞斯 (Anil Seth) 同意這些觀點(diǎn)。“意識不是聰明的問題,”他說。“這同樣是活著的問題。無論它們多么聰明,通用的 AI 如果不是活著的,就不太可能有意識。

        賽斯并不贊同 GWT,而是贊同一種被稱為預(yù)測過程的意識理論,通過這種理論,有意識的存在試圖預(yù)測會發(fā)生什么,以便做好準(zhǔn)備。“理解有意識的自我始于理解身體控制的預(yù)測模型,”他說。Seth 還研究了集成信息理論,該理論將意識與其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)無關(guān),而不是與大腦的功能相關(guān)聯(lián)。根據(jù)這一理論,意識不是智力的組成部分,但可能是由于生物效率的原因而出現(xiàn)的。

        目前,AI 是一個思想豐富的領(lǐng)域,工程師已經(jīng)有大量潛在客戶需要跟進(jìn),而無需從神經(jīng)科學(xué)中導(dǎo)入更多潛在客戶。“他們正在殺死它,”哥倫比亞大學(xué)的神經(jīng)科學(xué)家 Nikolaus Kriegeskorte 指出。但大腦仍然是廣義智能的存在證明,并且目前是 AI 研究人員擁有的最佳模型。“人腦有一些工程學(xué)尚未征服的技巧,”Kriegeskorte 說。

        過去幾十年來對 AGI 的追求讓我們對自己的智能有了很大的了解。我們現(xiàn)在意識到,我們認(rèn)為簡單的任務(wù)(例如視覺識別)對計(jì)算要求很高,而我們認(rèn)為困難的任務(wù)(例如數(shù)學(xué)和國際象棋)實(shí)際上是簡單的。我們還意識到,大腦幾乎不需要先天知識;他們通過經(jīng)驗(yàn)學(xué)習(xí)幾乎所有他們需要知道的東西。現(xiàn)在,通過模塊化的重要性,我們證實(shí)了古老的智慧,即沒有一種叫做智能的東西。它是一個能力工具箱——從處理抽象到駕馭社會復(fù)雜性,再到適應(yīng)視覺和聲音。正如 Goertzel 所指出的,通過混合和匹配這些不同的技能,我們的大腦可以在我們以前從未遇到過的領(lǐng)域中取得勝利。我們創(chuàng)造新穎的音樂流派,解決前幾代人甚至無法制定的科學(xué)難題。我們踏入未知領(lǐng)域——有一天,我們的人造表親可能會與我們一起邁出那一步。




        關(guān)鍵詞: 智能機(jī)器

        評論


        技術(shù)專區(qū)

        關(guān)閉
        主站蜘蛛池模板: 牙克石市| 明溪县| 无棣县| 开远市| 景东| 邯郸市| 鲁甸县| 谷城县| 武宣县| 兴隆县| 红安县| 苗栗市| 秦安县| 交城县| 博白县| 永春县| 茌平县| 绍兴县| 来安县| 平邑县| 新邵县| 通化县| 合水县| 平昌县| 普洱| 安塞县| 纳雍县| 栖霞市| 安国市| 边坝县| 兴城市| 曲水县| 弋阳县| 通道| 修文县| 淮安市| 仪陇县| 满洲里市| 沙坪坝区| 二连浩特市| 建水县|