GPT-5不能停!吳恩達(dá)LeCun直播回懟馬斯克:汽車(chē)都還沒(méi)發(fā)明,要什么安全帶
大模型研究不能停!
吳恩達(dá)和LeCun為了這事兒,甚至親自搞了場(chǎng)直播。畢竟再不出手,事態(tài)眼看著越來(lái)越嚴(yán)重了:
馬斯克等人叫停GPT-5研發(fā)的事態(tài)再次升級(jí),已從千人聯(lián)名發(fā)展到超過(guò)13500人簽署。
兩人還直言,暫停AI研究就是反理性:
AI研究暫停6個(gè)月,才是真正巨大的傷害。
應(yīng)該受監(jiān)管的是AI產(chǎn)品,而不是背后的研究。
此前暫停比GPT-4強(qiáng)大的AI試驗(yàn)的呼吁,已得到深度學(xué)習(xí)三巨頭中的Yoshua Bengio簽名支持,Hinton未簽名但表示“要比6個(gè)月更長(zhǎng)才行”。
此次吳恩達(dá)與LeCun兩人, 除了直播闡述各自的觀點(diǎn)外,還回應(yīng)了網(wǎng)友關(guān)心的更多問(wèn)題。
觀看了直播和視頻回放的網(wǎng)友們則表示,視頻出境比推特發(fā)言提供了更多的上下文背景和微妙的語(yǔ)氣差異。
LeCun認(rèn)為,現(xiàn)在人們對(duì)AI的擔(dān)憂(yōu)和恐懼應(yīng)分為兩類(lèi):
一、與未來(lái)有關(guān)的,AI不受控制、逃離實(shí)驗(yàn)室、甚至統(tǒng)治人類(lèi)的猜測(cè)。
二、與現(xiàn)實(shí)有關(guān)的,AI在公平、偏見(jiàn)上的缺陷和對(duì)社會(huì)經(jīng)濟(jì)的沖擊。
對(duì)第一類(lèi),他認(rèn)為未來(lái)AI不太可能還是ChatGPT式的語(yǔ)言模型,無(wú)法對(duì)不存在的事物做安全規(guī)范。
汽車(chē)還沒(méi)發(fā)明出來(lái),該怎么去設(shè)計(jì)安全帶呢?
對(duì)第二類(lèi)擔(dān)憂(yōu),吳恩達(dá)和LeCun都表示監(jiān)管有必要,但不能以犧牲研究和創(chuàng)新為代價(jià)。
吳恩達(dá)表示,AI在教育、醫(yī)療等方面創(chuàng)造巨大價(jià)值,幫助了很多人。
暫停AI研究才會(huì)對(duì)這些人造成傷害,并減緩價(jià)值的創(chuàng)造。
LeCun認(rèn)為,“AI逃跑”或者“AI統(tǒng)治人類(lèi)”這種末日論還讓人們對(duì)AI產(chǎn)生了不切實(shí)際的期待。
ChatGPT給人帶來(lái)這種想法是因?yàn)樗Z(yǔ)言流利,但語(yǔ)言并不是智能的全部。
語(yǔ)言模型對(duì)現(xiàn)實(shí)世界的理解非常表面,盡管GPT-4是多模態(tài)的,但仍然沒(méi)有任何對(duì)現(xiàn)實(shí)的“經(jīng)驗(yàn)”,這就是為什么它還是會(huì)一本正經(jīng)地胡說(shuō)八道。
而且這個(gè)問(wèn)題,4年前LeCun已經(jīng)在《科學(xué)美國(guó)人》上與冷泉港實(shí)驗(yàn)室神經(jīng)科學(xué)家Anthony Zador一起撰文回應(yīng)過(guò)了,標(biāo)題就叫《不必害怕終結(jié)者》。
在直播節(jié)目中LeCun再次重申了文章的主要觀點(diǎn)。
統(tǒng)治的動(dòng)機(jī)只出現(xiàn)在社會(huì)化物種中,如人類(lèi)和其他動(dòng)物,需要在競(jìng)爭(zhēng)中生存、進(jìn)化。
而我們完全可以把AI設(shè)計(jì)成非社會(huì)化物種,設(shè)計(jì)成非支配性的(non-dominant)、順從的(submissive)、或者遵守特定規(guī)則以符合人類(lèi)整體的利益。
吳恩達(dá)則用生物科學(xué)史上的里程碑事件“阿希洛馬會(huì)議”來(lái)比較。
1975年,DNA重組技術(shù)剛剛興起,其安全性和有效性受到質(zhì)疑。世界各國(guó)生物學(xué)家、律師和政府代表等召開(kāi)會(huì)議,經(jīng)過(guò)公開(kāi)辯論,最終對(duì)暫緩或禁止一些試驗(yàn)、提出科研行動(dòng)指南等達(dá)成共識(shí)。
吳恩達(dá)認(rèn)為,當(dāng)年的情況與今天AI領(lǐng)域發(fā)生的事并不一樣,DNA病毒逃出實(shí)驗(yàn)室是一個(gè)現(xiàn)實(shí)的擔(dān)憂(yōu),而他沒(méi)有看到今天的AI有任何逃出實(shí)驗(yàn)室的風(fēng)險(xiǎn),至少要幾十年甚至幾百年才有可能。
在回答觀眾提問(wèn)“什么情況下你會(huì)同意暫停AI研究?”時(shí),LeCun也表示應(yīng)該區(qū)分“潛在危害、真實(shí)危害”與“想像中的危害”,當(dāng)真實(shí)危害出現(xiàn)時(shí)應(yīng)該采取手段規(guī)范產(chǎn)品。
第一輛汽車(chē)并不安全,當(dāng)時(shí)沒(méi)有安全帶、沒(méi)有好的剎車(chē)、也沒(méi)有紅綠燈,過(guò)去的科技都是逐漸變安全的,AI也沒(méi)什么特殊性。
而對(duì)于“如何看待Yoshua Bengio簽署了聯(lián)名?”這個(gè)問(wèn)題,LeCun表示他和Bengio一直是朋友,他認(rèn)為Bengio擔(dān)心的點(diǎn)在于“公司為了盈利掌握科技本質(zhì)上就是壞的”,但他自己不這么看待,兩人觀點(diǎn)一致之處在于AI研究應(yīng)該公開(kāi)進(jìn)行。
Bengio最近也在個(gè)人網(wǎng)站詳細(xì)解釋了他為什么會(huì)簽署。
隨著ChatGPT到來(lái),商業(yè)競(jìng)爭(zhēng)激烈了十多倍,風(fēng)險(xiǎn)在于各公司會(huì)急于開(kāi)發(fā)巨大的AI系統(tǒng),把過(guò)去十幾年間開(kāi)放的透明的習(xí)慣拋在腦后。
直播結(jié)束后,吳恩達(dá)與LeCun兩人還在與網(wǎng)友做進(jìn)一步交流。
對(duì)于“你為什么不相信AI會(huì)逃出實(shí)驗(yàn)室”,LeCun表示讓AI在一個(gè)特定硬件平臺(tái)上保持運(yùn)行都很難了。
對(duì)于“AI達(dá)到奇點(diǎn)發(fā)生突變、不受控制”的回應(yīng)則是,在現(xiàn)實(shí)世界中每個(gè)進(jìn)程都會(huì)有摩擦力,指數(shù)增長(zhǎng)會(huì)迅速變成Sigmoid函數(shù)。
還有網(wǎng)友開(kāi)玩笑說(shuō),語(yǔ)言模型經(jīng)常被形容為“隨機(jī)吐出詞匯的鸚鵡”,但真實(shí)的鸚鵡危險(xiǎn)多了,有喙、爪子和傷害人的意圖。
LeCun補(bǔ)充道,澳大利亞鳳頭鸚鵡更兇狠,我呼吁對(duì)鳳頭鸚鵡實(shí)施6個(gè)月的管制。
對(duì)于影響力越來(lái)越大的AI暫停6個(gè)月提案,也有越來(lái)越多的人表達(dá)自己的觀點(diǎn)。
比爾蓋茨對(duì)路透社表示“我不認(rèn)為讓一個(gè)特定的組織暫停就會(huì)解決這些問(wèn)題。在一個(gè)全球性的行業(yè)中,暫停很難執(zhí)行”。
據(jù)福布斯報(bào)道,谷歌前CEO埃里克施密特認(rèn)為“監(jiān)管部門(mén)大多數(shù)人對(duì)科技的理解還不足以正確規(guī)范其發(fā)展。另外如果在美國(guó)暫停6個(gè)月,只會(huì)讓別的國(guó)家受益?!?/p>
與此同時(shí),AI研究界另一股聲音的影響力也逐漸加大。
由非贏利組織LAION-AI(Stable Diffusion訓(xùn)練數(shù)據(jù)提供者)發(fā)起的請(qǐng)?jiān)笗?shū)也有超過(guò)1400人簽署。
這個(gè)項(xiàng)目呼吁建設(shè)公眾資助的國(guó)際化超級(jí)AI基礎(chǔ)設(shè)施,配備10萬(wàn)最先進(jìn)的AI加速芯片,確保創(chuàng)新和安全。
就相當(dāng)于粒子物理學(xué)界的CERN(歐洲核子研究組織)。
支持者包括LSTM之父Jürgen Schmidhuber,HuggingFace聯(lián)合創(chuàng)始人Thomas Wolf等知名研究者。
*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。