構(gòu)建智能機(jī)器有助于我們了解大腦的工作原理
他對(duì)人工智能的夢(mèng)想從來都不僅僅是制作一個(gè)擊敗特級(jí)大師的國際象棋引擎或一個(gè)試圖破壞婚姻的聊天機(jī)器人。它一直是我們自己的智慧的一面鏡子,這樣我們就可以更好地了解自己。研究人員不僅尋求人工智能,還尋求通用人工智能 (AGI),即具有類似人類適應(yīng)性和創(chuàng)造力的系統(tǒng)。
本文引用地址:http://www.bjwjmy.cn/article/202505/470589.htm大型語言模型獲得的問題解決能力比大多數(shù)研究人員預(yù)期的要強(qiáng)。但他們?nèi)匀粫?huì)犯愚蠢的錯(cuò)誤,缺乏開放式學(xué)習(xí)的能力:一旦他們接受了書籍、博客和其他材料的培訓(xùn),他們的知識(shí)儲(chǔ)備就會(huì)被凍結(jié)。他們沒有通過人工智能公司 SingularityNET 的 Ben Goertzel 所說的“機(jī)器人大學(xué)生測(cè)試”:你不能讓他們讀完大學(xué)(甚至不能讀托兒所)。
這些系統(tǒng)明確解決了 AGI 的一個(gè)部分是語言。他們擁有專家所說的正式能力:他們可以解析你給他們的任何句子,即使是零散的或俚語的,并用可能被稱為維基百科標(biāo)準(zhǔn)英語的東西回答。但他們?cè)谒季S的其他維度上失敗了——一切有助于我們處理日常生活的東西?!拔覀儾粦?yīng)該指望他們能夠思考,”麻省理工學(xué)院的神經(jīng)科學(xué)家南?!た簿S舍 (Nancy Kanwisher) 說?!八麄兪钦Z言處理器?!彼麄兦擅畹乜v文字,但除了通過他們吸收的文本之外,無法進(jìn)入現(xiàn)實(shí)。
在某種程度上,大型語言模型只模仿大腦的語言能力,而沒有感知、記憶、導(dǎo)航、社會(huì)判斷等能力。如果像 Kanwisher 所說的那樣,我們的大腦是具有多種功能的瑞士軍刀,那么大型語言模型就是一個(gè)非常棒的開瓶器。她和其他神經(jīng)科學(xué)家爭(zhēng)論這些功能是局限于特定位置還是分布在我們的灰質(zhì)中,但大多數(shù)人都同意至少有一些專業(yè)化。AI 開發(fā)人員正在將這種模塊化整合到他們的系統(tǒng)中,希望使它們更智能。
沒有人確定大腦區(qū)域如何協(xié)同工作以創(chuàng)造一個(gè)連貫的自我,更不用說機(jī)器如何模仿它了。一種假設(shè)是意識(shí)是共同點(diǎn)。
OpenAI 是生成式預(yù)訓(xùn)練轉(zhuǎn)換器 (GPT) 的創(chuàng)建者,它允許付費(fèi)用戶選擇附加工具(最初稱為“插件”)來處理數(shù)學(xué)、Internet 搜索和其他類型的查詢。每個(gè)工具都調(diào)用了一些與其專業(yè)相關(guān)的外部知識(shí)庫。此外,對(duì)于用戶來說,核心語言系統(tǒng)本身在某種意義上可能是模塊化的。OpenAI 對(duì)規(guī)范保密,但許多 AI 研究人員推測(cè),GPT 由多達(dá) 16 個(gè)獨(dú)立的神經(jīng)網(wǎng)絡(luò)或“專家”組成,這些網(wǎng)絡(luò)將他們對(duì)查詢的答案匯集在一起——盡管他們?nèi)绾畏止ど胁磺宄?023 年 12 月,法國人工智能公司 Mistral 和不久之后的中國公司 DeepSeek 發(fā)布了這種“專家混合”架構(gòu)的開源版本,引起了轟動(dòng)。這種簡單的模塊化形式的主要優(yōu)點(diǎn)是其計(jì)算效率:訓(xùn)練和運(yùn)行 16 個(gè)較小的網(wǎng)絡(luò)比單個(gè)大型網(wǎng)絡(luò)更容易。“讓我們兩全其美,”愛丁堡大學(xué) AI 研究員 Edoardo Ponti 說?!白屛覀兊玫揭粋€(gè)具有大量參數(shù)的系統(tǒng),同時(shí)保持更小模型的效率?!?/p>
但模塊化需要權(quán)衡取舍。沒有人確定大腦區(qū)域如何協(xié)同工作以創(chuàng)造一個(gè)連貫的自我,更不用說機(jī)器如何模仿它了。佐治亞理工學(xué)院(Georgia Institute of Technology)的神經(jīng)科學(xué)家安娜·伊萬諾娃(Anna Ivanova)想知道:“信息是如何從語言系統(tǒng)進(jìn)入邏輯推理系統(tǒng)或社會(huì)推理系統(tǒng)的?“這仍然是一個(gè)懸而未決的問題。”
一個(gè)具有挑釁性的假設(shè)是意識(shí)是共同點(diǎn)。根據(jù)這個(gè)被稱為全局工作空間理論 (GWT) 的思想,意識(shí)之于大腦就像員工會(huì)議之于公司:一個(gè)模塊可以共享信息和尋求幫助的地方。GWT 遠(yuǎn)非唯一的意識(shí)理論,但它引起了 AI 研究人員的特別興趣,因?yàn)樗孪胍庾R(shí)是高級(jí)智能不可或缺的一部分。要完成簡單或經(jīng)過演練的任務(wù),大腦可以在自動(dòng)駕駛儀上運(yùn)行,但新穎或復(fù)雜的任務(wù)(超出單個(gè)模塊范圍的任務(wù))需要我們了解自己在做什么。
Goertzel 和其他人已將工作區(qū)整合到他們的 AI 系統(tǒng)中?!拔艺J(rèn)為全球工作空間模型的核心思想將以許多不同的形式出現(xiàn),”他說。在設(shè)計(jì)這個(gè)模型的電子表示時(shí),研究人員并不尋求制造有意識(shí)的機(jī)器;相反,他們只是在復(fù)制特定意識(shí)理論的硬件,以試圖實(shí)現(xiàn)類似人類的智能。
他們會(huì)不會(huì)無意中創(chuàng)造了一個(gè)有感情和動(dòng)機(jī)的有知覺的生物?這是可以想象的,盡管即使是 GWT 的發(fā)明者、加利福尼亞州拉霍亞神經(jīng)科學(xué)研究所的伯納德·巴爾斯 (Bernard Baars) 也認(rèn)為這是不可能的。“有意識(shí)計(jì)算是一個(gè)沒有絲毫證據(jù)的假設(shè),”他說。但是,如果開發(fā)人員真的成功構(gòu)建了 AGI,他們就可以提供對(duì)智能本身的結(jié)構(gòu)和過程的重要見解。
長期以來,GWT 一直是神經(jīng)科學(xué)和 AI 研究如何相互影響的案例研究。這個(gè)想法可以追溯到“Pandemonium”,這是計(jì)算機(jī)科學(xué)家奧利弗·塞爾弗里奇 (Oliver Selfridge) 在 1950 年代提出的一種圖像識(shí)別系統(tǒng)。他將系統(tǒng)的模塊描繪成在彌爾頓式的地獄愿景中尖叫著尋求關(guān)注的惡魔。與他同時(shí)代的艾倫·紐維爾(Allen Newell)更喜歡數(shù)學(xué)家圍坐在黑板旁一起解決問題的更穩(wěn)重的比喻。這些想法被認(rèn)知心理學(xué)家采納了。在 1980 年代,Baars 提出了 GWT 作為人類意識(shí)的理論?!霸谡麄€(gè)職業(yè)生涯中,我從 AI 中學(xué)到了很多東西,主要是因?yàn)樗俏覀兾ㄒ豢尚械睦碚撈脚_(tái),”他說。
Baars 啟發(fā)了孟菲斯大學(xué)的計(jì)算機(jī)科學(xué)家 Stanley Franklin 嘗試構(gòu)建一臺(tái)有意識(shí)的計(jì)算機(jī)。無論富蘭克林的機(jī)器是否真的有意識(shí)——巴爾斯和富蘭克林自己都持懷疑態(tài)度——它至少再現(xiàn)了人類心理學(xué)的各種怪癖。例如,當(dāng)它的注意力從一件事轉(zhuǎn)移到另一件事時(shí),它會(huì)錯(cuò)過信息,因此它和人一樣不擅長多任務(wù)處理。從 1990 年代開始,巴黎法蘭西學(xué)院的神經(jīng)科學(xué)家 Stanislas Dehaene 和 Jean-Pierre Changeux 研究了哪種類型的神經(jīng)元布線可以實(shí)現(xiàn)該工作空間。
在這個(gè)方案中,大腦模塊大多獨(dú)立運(yùn)行,但每隔十分之一秒左右,它們就會(huì)召開一次員工會(huì)議。這是一場(chǎng)結(jié)構(gòu)化的吶喊比賽。每個(gè)模塊都有一些信息可以提供,它對(duì)這些信息越有信心——例如,刺激措施越符合預(yù)期——它喊得就越響亮。一旦一個(gè)模塊獲勝,其他模塊就會(huì)安靜片刻,獲勝者將其信息放入一組公共變量中:工作區(qū)。其他模塊可能會(huì)也可能不會(huì)發(fā)現(xiàn)這些信息有用;每個(gè)人都必須自己判斷?!澳銜?huì)得到這個(gè)有趣的子代理之間的合作和競(jìng)爭(zhēng)過程,每個(gè)子代理都有一小部分解決方案,”Baars 說。
工作區(qū)不僅允許模塊相互通信,而且還提供了一個(gè)論壇,即使信息不再呈現(xiàn)在感官上,它們也可以在這里集體思考信息?!澳憧梢杂幸恍┈F(xiàn)實(shí)的元素——也許是轉(zhuǎn)瞬即逝的感覺,它已經(jīng)消失了,但在你的工作空間中,它會(huì)繼續(xù)回蕩,”Dehaene 說。這種深思熟慮的能力對(duì)于解決涉及多個(gè)步驟或隨著時(shí)間的推移而延伸的問題至關(guān)重要。Dehaene 進(jìn)行了心理學(xué)實(shí)驗(yàn),在他的實(shí)驗(yàn)室里向人們提出了這些問題,他發(fā)現(xiàn)他們必須有意識(shí)地思考這些問題。
對(duì)人工智能的追求告訴我們,我們認(rèn)為簡單的任務(wù)對(duì)計(jì)算要求很高,而我們認(rèn)為困難的事情,例如國際象棋,實(shí)際上是簡單的。
如果這個(gè)系統(tǒng)聽起來是無政府主義的,那就是重點(diǎn)。它消除了在模塊之間委派任務(wù)的 Boss,因?yàn)槲珊茈y正確。在數(shù)學(xué)中,授權(quán)(或在不同的參與者之間分配責(zé)任以實(shí)現(xiàn)最佳性能)屬于所謂的 NP 困難問題,解決這些問題可能非常耗時(shí)。在許多方法中,例如被認(rèn)為由 OpenAI 使用的專家混合架構(gòu),“門控”網(wǎng)絡(luò)會(huì)分發(fā)任務(wù),但它必須與各個(gè)模塊一起進(jìn)行訓(xùn)練,并且訓(xùn)練過程可能會(huì)崩潰。首先,它遭受了 Ponti 所說的“先有雞還是先有蛋的問題”:因?yàn)槟K依賴于路由,而路由又依賴于模塊,所以訓(xùn)練可能會(huì)兜圈子。即使訓(xùn)練成功,路由機(jī)制也是一個(gè)黑匣子,其工作原理是不透明的。
2021 年,卡內(nèi)基梅隆大學(xué) (Carnegie Mellon University) 的數(shù)學(xué)家兼名譽(yù)教授 Manuel Blum 和 Lenore Blum 制定了全球工作空間中爭(zhēng)奪注意力之戰(zhàn)的細(xì)節(jié)。它們包括一個(gè)機(jī)制,用于確保模塊不會(huì)夸大他們對(duì)所帶來信息的信心,從而防止一些吹牛接管。已婚的 Blum 夫婦還建議模塊可以開發(fā)直接互連,以完全繞過工作區(qū)。例如,這些側(cè)面鏈接可以解釋當(dāng)我們學(xué)習(xí)騎自行車或演奏樂器時(shí)會(huì)發(fā)生什么。一旦模塊共同確定哪些模塊需要做什么,它們就會(huì)將任務(wù)脫機(jī)。“它將通過短期記憶的處理轉(zhuǎn)變?yōu)闊o意識(shí)的處理,”Lenore Blum 說。
有意識(shí)的關(guān)注是一種稀缺資源。工作區(qū)中沒有太多的信息空間,因此獲勝的模塊在傳達(dá)給其他模塊的內(nèi)容時(shí)必須非常有選擇性。這聽起來像是一個(gè)設(shè)計(jì)缺陷?!盀槭裁创竽X對(duì)你可以同時(shí)思考的事情數(shù)量有如此限制?”但他認(rèn)為這種約束是一件好事:它強(qiáng)制執(zhí)行認(rèn)知紀(jì)律。由于無法追蹤世界的所有復(fù)雜性,我們的大腦必須識(shí)別其背后的簡單規(guī)則。“這個(gè)瓶頸迫使我們想出一個(gè)關(guān)于世界是如何運(yùn)作的,”他說。
對(duì) Bengio 來說,這是 GWT 為 AI 上的重要一課:今天的人工神經(jīng)網(wǎng)絡(luò)對(duì)自身來說太強(qiáng)大了。他們有數(shù)十億或數(shù)萬億個(gè)參數(shù),足以吸收互聯(lián)網(wǎng)的大量內(nèi)容,但往往會(huì)陷入雜草叢中,無法從他們所接觸到的東西中提取更大的教訓(xùn)。如果他們大量的知識(shí)儲(chǔ)備必須通過一個(gè)狹窄的漏斗,就像我們的意識(shí)思維是如何運(yùn)作的,他們可能會(huì)做得更好。
Bengio 在 AI 系統(tǒng)開始考慮 GWT 之前就開始努力將意識(shí)瓶頸納入 AI 系統(tǒng)。在 2010 年代初期,Bengio 和他的同事對(duì)我們的大腦如何選擇性地專注于一條信息并暫時(shí)屏蔽其他所有信息印象深刻,他們?cè)谏窠?jīng)網(wǎng)絡(luò)中構(gòu)建了一個(gè)類似的過濾器。例如,當(dāng) GPT 等語言模型遇到代詞時(shí),它需要找到先行詞。它通過突出顯示附近的名詞并使其他詞性變灰來實(shí)現(xiàn)此目的。實(shí)際上,它 “關(guān)注” 理解文本所需的關(guān)鍵詞。代詞也可能與形容詞、動(dòng)詞等相關(guān)聯(lián)。網(wǎng)絡(luò)的不同部分可以同時(shí)關(guān)注不同的單詞關(guān)系。
但 Bengio 發(fā)現(xiàn)這種注意力機(jī)制帶來了一個(gè)微妙的問題。假設(shè)網(wǎng)絡(luò)完全忽略了一些單詞,它將通過為對(duì)應(yīng)于這些單詞的計(jì)算變量分配零值來實(shí)現(xiàn)。如此突然的變化將對(duì)訓(xùn)練網(wǎng)絡(luò)的標(biāo)準(zhǔn)程序造成影響。該過程稱為反向傳播,涉及將網(wǎng)絡(luò)的輸出追溯到產(chǎn)生它的計(jì)算,這樣如果輸出錯(cuò)誤,您可以找出原因。但是你不能通過突然的變化來追溯。
因此,Bengio 和其他人設(shè)計(jì)了一種“軟關(guān)注機(jī)制”,使網(wǎng)絡(luò)具有選擇性,但并不過分。它為各種選項(xiàng)分配數(shù)字權(quán)重,例如代詞可能與哪些單詞相關(guān)。盡管有些單詞的權(quán)重比其他單詞高,但所有單詞都仍在發(fā)揮作用;網(wǎng)絡(luò)從不做出艱難的選擇?!澳愕玫狡渲械?80%,其中 20%,而且因?yàn)檫@些注意力權(quán)重是連續(xù)的,所以你實(shí)際上可以做 [微積分] 并應(yīng)用反向傳播,”Bengio 說。這種軟注意力機(jī)制是 “transformer” 架構(gòu)的關(guān)鍵創(chuàng)新,即 GPT 中的 “T”。
近年來,Bengio 重新審視了這種方法,以創(chuàng)造更嚴(yán)格的瓶頸,他認(rèn)為如果網(wǎng)絡(luò)要實(shí)現(xiàn)接近真正理解的東西,這一點(diǎn)很重要。真正的全局工作空間必須做出艱難的選擇 — 它沒有空間來跟蹤所有選項(xiàng)。2021 年,Bengio 和他的同事設(shè)計(jì)了一個(gè) “生成流 ”網(wǎng)絡(luò),該網(wǎng)絡(luò)會(huì)定期選擇一個(gè)可用選項(xiàng),其概率由注意力權(quán)重決定。他不僅僅依賴反向傳播,而是訓(xùn)練網(wǎng)絡(luò)在正向或反向工作。這樣,即使發(fā)生突然的變化,它也可以返回以修復(fù)任何錯(cuò)誤。在各種實(shí)驗(yàn)中,Bengio 已經(jīng)表明,該系統(tǒng)開發(fā)了更高級(jí)別的輸入數(shù)據(jù)表示,與我們自己的大腦獲取的數(shù)據(jù)平行。
實(shí)施全局工作空間的另一個(gè)挑戰(zhàn)是高度專業(yè)化。就像不同大學(xué)系的教授一樣,大腦的各種模塊創(chuàng)造了相互無法理解的行話。視覺區(qū)域提出了抽象,讓它能夠處理來自眼睛的輸入。聽覺模塊開發(fā)適合內(nèi)耳振動(dòng)的表現(xiàn)。那么他們是如何溝通的呢?他們必須找到某種通用語或亞里士多德所說的常識(shí)——該術(shù)語的原意。這種需求在科技公司一直在引入的“多模式”網(wǎng)絡(luò)中尤為緊迫,這些網(wǎng)絡(luò)將文本與圖像和其他形式的數(shù)據(jù)相結(jié)合。
在 Dehaene 和 Changeux 的 GWT 版本中,這些模塊由神經(jīng)元連接,這些神經(jīng)元調(diào)整它們的突觸,將傳入的數(shù)據(jù)翻譯成本地白話。“他們將 [輸入] 轉(zhuǎn)換為自己的代碼,”Dehaene 說。但細(xì)節(jié)并不模糊。事實(shí)上,他希望試圖解決人工神經(jīng)網(wǎng)絡(luò)類似問題的 AI 研究人員能夠提供一些線索。“工作空間更像是一個(gè)想法;這幾乎不是一個(gè)理論。我們正在努力使其成為一個(gè)理論,但它仍然很模糊——工程師們有這種非凡的才能,可以把它變成一個(gè)工作系統(tǒng),“他說。
2021 年,總部位于東京的人工智能公司 Araya 的神經(jīng)科學(xué)家兼創(chuàng)始人金井涼太和另一位跨界進(jìn)入人工智能的神經(jīng)科學(xué)家、法國圖盧茲大學(xué)的 Rufin VanRullen 提出了一種人工神經(jīng)網(wǎng)絡(luò)執(zhí)行翻譯的方法。他們從 Google 翻譯等語言翻譯系統(tǒng)中獲得靈感。這些系統(tǒng)是迄今為止人工智能最令人印象深刻的成就之一。他們可以在不被告知的情況下完成自己的工作,例如,英語中的“l(fā)ove”與法語中的“amour”的含義相同。相反,他們孤立地學(xué)習(xí)每種語言,然后通過他們的掌握推斷出哪個(gè)詞在法語中扮演著與英語中“愛”相同的角色。
假設(shè)您用英語和法語訓(xùn)練兩個(gè)神經(jīng)網(wǎng)絡(luò)。每個(gè)語言都收集了各自語言的結(jié)構(gòu),發(fā)展出一種稱為潛在空間的內(nèi)部表示。從本質(zhì)上講,它是一個(gè)詞云:一張地圖,展示了該語言中單詞的所有關(guān)聯(lián),通過將相似的單詞彼此靠近,將不相關(guān)的單詞相距較遠(yuǎn)的位置來構(gòu)建。云的形狀很獨(dú)特。事實(shí)上,這兩種語言的形狀是相同的,因?yàn)楸M管它們的所有差異,但它們最終指的是同一個(gè)世界。您需要做的就是旋轉(zhuǎn)英語和法語詞云,直到它們對(duì)齊。你會(huì)發(fā)現(xiàn) “愛” 與 “amour” 是一致的。“沒有字典,通過查看每種語言的潛在空間中嵌入的所有單詞的星座,你只需要找到正確的旋轉(zhuǎn)來對(duì)齊所有點(diǎn),”Kanai 說。
因?yàn)樵摮绦蚩梢詰?yīng)用于整個(gè)段落以及單個(gè)單詞,所以它可以處理微妙的含義陰影和在其他語言中沒有直接對(duì)應(yīng)物的單詞。此方法的一個(gè)版本可以在不相關(guān)的語言(如英語和中文)之間進(jìn)行翻譯。它甚至可能對(duì)動(dòng)物交流有效。
VanRullen 和 Kanai 認(rèn)為,該程序不僅可以在語言之間翻譯,還可以在不同的含義和描述模式之間翻譯?!澳憧梢酝ㄟ^獨(dú)立訓(xùn)練圖像處理系統(tǒng)和語言處理系統(tǒng)來創(chuàng)建這樣一個(gè)系統(tǒng),然后實(shí)際上你可以通過對(duì)齊它們的潛在空間將它們組合在一起,”Kanai 說。與語言一樣,翻譯是可能的,因?yàn)橄到y(tǒng)基本上指的是同一個(gè)世界。這種洞察力正是 Dehaene 所希望的:AI 研究如何提供對(duì)大腦運(yùn)作的洞察力的一個(gè)例子?!吧窠?jīng)科學(xué)家從未考慮過這種對(duì)齊潛在空間的可能性,”Kanai 說。
為了了解這些原則是如何付諸實(shí)踐的,Kanai 與現(xiàn)在在高級(jí)意識(shí)研究所工作的 Arthur Juliani 和 Araya 的 Shuntaro Sasai 合作,研究了 Google DeepMind 在 2021 年發(fā)布的 Perceiver 模型。它旨在將文本、圖像、音頻和其他數(shù)據(jù)融合到一個(gè)公共的潛在空間中;2022 年,谷歌將其整合到一個(gè)自動(dòng)為 YouTube Shorts 編寫描述的系統(tǒng)中。Araya 團(tuán)隊(duì)運(yùn)行了一系列實(shí)驗(yàn)來探索 Perceiver 的工作原理,發(fā)現(xiàn)雖然它不是故意設(shè)計(jì)為全局工作區(qū),但它具有一個(gè)特征:獨(dú)立模塊、在模塊中進(jìn)行選擇的過程和工作內(nèi)存 - 工作區(qū)本身。
類似工作空間的想法的一個(gè)特別有趣的實(shí)現(xiàn)是 AI People,這是一款由布拉格的 AI 公司 GoodAI 創(chuàng)建的類似模擬人生的游戲。我在 2023 年夏天看到的版本設(shè)置在一個(gè)監(jiān)獄院子里,里面擠滿了罪犯、腐敗的警衛(wèi)和認(rèn)真的精神科醫(yī)生,但去年發(fā)布的 alpha 版本包括更多和平的場(chǎng)景。游戲使用 GPT 作為角色的大腦。它不僅控制他們的對(duì)話,還控制他們的行為和情緒,使他們有一定的心理深度;系統(tǒng)會(huì)跟蹤角色是生氣、悲傷還是焦慮,并相應(yīng)地選擇其行為。開發(fā)人員添加了其他模塊(包括短期記憶形式的全局工作區(qū)),為角色提供一致的心理,并讓他們?cè)谟螒颦h(huán)境中采取行動(dòng)?!拔覀兊哪繕?biāo)是使用大型語言模型作為引擎,因?yàn)樗浅:茫缓髧@它構(gòu)建長期記憶和某種認(rèn)知架構(gòu),”GoodAI 創(chuàng)始人 Marek Rosa 說。
AI 的一項(xiàng)潛在突破性進(jìn)展來自 Meta 的研究員 Yann LeCun。雖然他沒有直接引用全球工作空間作為靈感,但他在挑戰(zhàn)當(dāng)前生成模型的霸權(quán)——GPT 中的“G”時(shí),走了自己的路,實(shí)現(xiàn)了許多相同的想法?!拔艺诔珜?dǎo)反對(duì)一些不幸的是目前在 AI/機(jī)器學(xué)習(xí)社區(qū)中非常流行的東西,”LeCun 說?!拔腋嬖V人們:放棄生成模型?!?/p>
生成神經(jīng)網(wǎng)絡(luò)之所以如此命名,是因?yàn)樗鼈兏鶕?jù)所接觸的內(nèi)容生成新的文本和圖像。要做到這一點(diǎn),他們必須對(duì)細(xì)節(jié)一絲不茍:他們必須知道如何拼寫句子中的每個(gè)單詞,以及如何將每個(gè)像素放在圖像中。但是,如果說情報(bào)有什么不同的話,那就是對(duì)細(xì)節(jié)的選擇性忽視。因此,LeCun 主張研究人員回到現(xiàn)在不合時(shí)宜的“判別性”神經(jīng)網(wǎng)絡(luò)技術(shù),例如用于圖像識(shí)別的神經(jīng)網(wǎng)絡(luò),之所以這樣稱呼,是因?yàn)樗鼈兛梢愿兄斎胫g的差異——例如,狗與貓的圖片。這樣的網(wǎng)絡(luò)不會(huì)構(gòu)建自己的圖像,而只是處理現(xiàn)有圖像以分配標(biāo)簽。
LeCun 開發(fā)了一種特殊的訓(xùn)練方案,使判別網(wǎng)絡(luò)提取文本、圖像和其他數(shù)據(jù)的基本特征。它可能無法自動(dòng)完成一個(gè)句子,但它創(chuàng)造了抽象的表示,LeCun 希望這些表示類似于我們自己腦海中的那些。例如,如果你提供一輛汽車在路上行駛的視頻,表示應(yīng)該捕捉它的品牌、型號(hào)、顏色、位置和速度,同時(shí)省略瀝青路面的顛簸、水坑上的波紋、路邊草葉上的閃光——除非我們特別注意它,否則我們的大腦會(huì)忽略它。“所有這些不相關(guān)的細(xì)節(jié)都被消除了,”他說。
這些簡化的表示本身沒有用,但它們實(shí)現(xiàn)了一系列對(duì) AGI 至關(guān)重要的認(rèn)知功能。LeCun 將判別網(wǎng)絡(luò)嵌入到一個(gè)更大的系統(tǒng)中,使其成為一個(gè)類腦架構(gòu)的一個(gè)模塊,該架構(gòu)包括 GWT 的關(guān)鍵功能,例如短期記憶和用于協(xié)調(diào)模塊和確定工作流程的“配置器”。例如,系統(tǒng)可以進(jìn)行規(guī)劃。“我深受心理學(xué)基礎(chǔ)知識(shí)的啟發(fā),”LeCun 說。就像人腦可以運(yùn)行思想實(shí)驗(yàn),想象某人在不同情況下的感受一樣,配置器將多次運(yùn)行判別網(wǎng)絡(luò),列出一系列假設(shè)作以找到能夠?qū)崿F(xiàn)預(yù)期結(jié)果的作。
LeCun 說,他通常更喜歡避免對(duì)意識(shí)得出結(jié)論,但他提出了一種他所謂的“民間理論”,即意識(shí)是配置器的工作,這在他的模型中扮演的角色大致類似于 Baars 理論中工作區(qū)的作用。
如果研究人員成功地在 AI 系統(tǒng)中構(gòu)建了一個(gè)真正的全球工作空間,這會(huì)讓他們有意識(shí)嗎?Dehaene 認(rèn)為它會(huì),至少如果與自我監(jiān)控的能力相結(jié)合。但巴爾斯對(duì)此持懷疑態(tài)度,部分原因是他仍然不完全相信自己的理論。“我一直在懷疑 GWT 是否真的那么好,”他說。在他看來,意識(shí)是一種生物功能,是我們作為生物所特有的。幾年前我采訪富蘭克林時(shí)也表達(dá)了類似的懷疑。(他于 2023 年去世。他認(rèn)為,全球工作空間是進(jìn)化對(duì)身體需求的回應(yīng)。通過意識(shí),大腦從經(jīng)驗(yàn)中學(xué)習(xí)并快速解決復(fù)雜的生存問題。他認(rèn)為,這些能力與 AI 通常應(yīng)用于的問題類型無關(guān)。“你必須有一個(gè)具有真實(shí)思想的自主代理,并有一個(gè)控制結(jié)構(gòu),”他告訴我?!澳莻€(gè)代理必須有某種生活——這并不意味著它不能是一個(gè)機(jī)器人,但它必須有某種發(fā)展。它不會(huì)全面地進(jìn)入世界。
英國薩塞克斯大學(xué)的神經(jīng)科學(xué)家阿尼爾·塞斯 (Anil Seth) 同意這些觀點(diǎn)?!耙庾R(shí)不是聰明的問題,”他說?!斑@同樣是活著的問題。無論它們多么聰明,通用的 AI 如果不是活著的,就不太可能有意識(shí)。
賽斯并不贊同 GWT,而是贊同一種被稱為預(yù)測(cè)過程的意識(shí)理論,通過這種理論,有意識(shí)的存在試圖預(yù)測(cè)會(huì)發(fā)生什么,以便做好準(zhǔn)備?!袄斫庥幸庾R(shí)的自我始于理解身體控制的預(yù)測(cè)模型,”他說。Seth 還研究了集成信息理論,該理論將意識(shí)與其復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)無關(guān),而不是與大腦的功能相關(guān)聯(lián)。根據(jù)這一理論,意識(shí)不是智力的組成部分,但可能是由于生物效率的原因而出現(xiàn)的。
目前,AI 是一個(gè)思想豐富的領(lǐng)域,工程師已經(jīng)有大量潛在客戶需要跟進(jìn),而無需從神經(jīng)科學(xué)中導(dǎo)入更多潛在客戶?!八麄冋跉⑺浪?,”哥倫比亞大學(xué)的神經(jīng)科學(xué)家 Nikolaus Kriegeskorte 指出。但大腦仍然是廣義智能的存在證明,并且目前是 AI 研究人員擁有的最佳模型。“人腦有一些工程學(xué)尚未征服的技巧,”Kriegeskorte 說。
過去幾十年來對(duì) AGI 的追求讓我們對(duì)自己的智能有了很大的了解。我們現(xiàn)在意識(shí)到,我們認(rèn)為簡單的任務(wù)(例如視覺識(shí)別)對(duì)計(jì)算要求很高,而我們認(rèn)為困難的任務(wù)(例如數(shù)學(xué)和國際象棋)實(shí)際上是簡單的。我們還意識(shí)到,大腦幾乎不需要先天知識(shí);他們通過經(jīng)驗(yàn)學(xué)習(xí)幾乎所有他們需要知道的東西?,F(xiàn)在,通過模塊化的重要性,我們證實(shí)了古老的智慧,即沒有一種叫做智能的東西。它是一個(gè)能力工具箱——從處理抽象到駕馭社會(huì)復(fù)雜性,再到適應(yīng)視覺和聲音。正如 Goertzel 所指出的,通過混合和匹配這些不同的技能,我們的大腦可以在我們以前從未遇到過的領(lǐng)域中取得勝利。我們創(chuàng)造新穎的音樂流派,解決前幾代人甚至無法制定的科學(xué)難題。我們踏入未知領(lǐng)域——有一天,我們的人造表親可能會(huì)與我們一起邁出那一步。
評(píng)論