AI教父Hinton與OpenAI CEO Sam Altman領(lǐng)頭預(yù)警:AI可能滅絕人類!
經(jīng)過不到一年的時間,AI 的發(fā)展超乎所有人的想象,也大有失控的風(fēng)險。
就在今天,全球部分頂尖的 AI 研究員、工程師和 CEO 就他們認為 AI 對人類構(gòu)成的生存威脅發(fā)出了新的警告,并共同簽署了一份只有短短 22 個字的聲明:
減輕 AI 帶來的滅絕風(fēng)險應(yīng)該與流行病和核戰(zhàn)爭等其他社會規(guī)模的風(fēng)險一起成為全球優(yōu)先事項。
這份聲明是由總部位于舊金山的非營利組織 AI 安全中心(Center for AI Safety,簡稱 CAIS)發(fā)布的。
值得注意的是,這份聲明一經(jīng)發(fā)布,便迅速得到了多倫多大學(xué)計算機科學(xué)榮譽教授、“AI 教父” Geoffrey Hinton,蒙特利爾大學(xué)計算機科學(xué)教授、圖靈獎得主 Yoshua Bengio,Google Deepmind CEO Demis Hassabis,OpenAI CEO Sam Altman,以及中國科學(xué)院自動化研究所類腦認知智能實驗室主任、教授曾毅等近 400 位學(xué)術(shù)界、產(chǎn)業(yè)界、高校專家的支持。
越來越像人的 AI
其實一直以來,隨著生成式人工智能工具如 OpenAI 的 ChatGPT、微軟的新 Bing、Google 的 Bard 等面向更多的群體開放訪問,業(yè)界關(guān)于 AI 炒作的聲音愈演愈烈。
在此之下,很多學(xué)者、高管表示過擔(dān)憂,如:
本月初,多倫多大學(xué)計算機科學(xué)榮譽教授、“AI 教父” Geoffrey Hinton 在選擇從 Google 離職時,對外界分享道,「人工智能正在變得比人類更聰明,我想要‘吹哨’提醒人們應(yīng)該認真考慮如何防止人工智能控制人類」。
OpenAI CEO Sam Altman 在兩周前首次亮相美國參議院就各自公司與機構(gòu)制造的人工智能技術(shù)存在的潛在危險的聽證會時,反其道而行之,強烈要求政府部門對其以及行業(yè)內(nèi)的 AI 技術(shù)應(yīng)用政策進行落地與監(jiān)管,旨在減少此類系統(tǒng)可能帶來的“潛在風(fēng)險”。
不僅如此,個人用戶也感受到了 AI 的“可怕”之處。
在 Reddit 上,一名網(wǎng)友發(fā)帖稱自己在使用微軟新 Bing 時,由于 Bing Chat 提供了沒有來源的內(nèi)容,自己便對這個回答進行了質(zhì)疑。
萬萬沒想到的是,人類慘遭 AI “懟了一頓”。甚至 AI 表示,“我不欣賞你的語氣和態(tài)度,所以我就在這里結(jié)束這個對話?!?/span>
最后,AI 還對網(wǎng)友進行了警告,“以后請多一些尊重和禮貌”。
這也引得 10.2k 個用戶關(guān)注,并紛紛留言道,“這個 AI 已成精,越來越像人了?!币灿腥酥赋?,“用人類知識訓(xùn)練人工智能,就會讓它像人類一樣回應(yīng)、思考,這是驚人的,自然也會讓人擔(dān)憂”。
聲明一出,達成共識
事實證明,這一次 CAIS 聲明的發(fā)出,正所謂字少事大,而它之所以能夠吸引如此多專家學(xué)者的關(guān)注,一方面,主要這是很多人認為應(yīng)該迫切解決的問題;另一方面,在這份聲明中,沒有直接道清存在哪些風(fēng)險,設(shè)立“圍墻”,也是為了避免重蹈覆轍。
還記得兩個月前,非營利性的 "生命的未來研究所 "(Future of Life Institute)發(fā)出一封公開信,同樣的圖靈獎得主 Yoshua Bengio、伯克利計算機科學(xué)教授 Stuart Russell、特斯拉 CEO 埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人 Steve Wozniak 等人進行了簽署。
這份公開信強烈呼吁:暫停訓(xùn)練比 GPT-4 更強大的系統(tǒng),期限為六個月。理由是這些模型對社會和人類存在潛在風(fēng)險,“只有當(dāng)我們確信強大的人工智能系統(tǒng)帶來積極的效果,其風(fēng)險是可控的,才應(yīng)該開發(fā)。這種信心必須有充分的理由支持,并隨著系統(tǒng)潛在影響的大小而增加?!?/span>
不過,彼時這封信一經(jīng)發(fā)布便在多個層面遭到了批評,一些專家認為這份公開信過于夸大了人工智能帶來的風(fēng)險,一些人雖然同意公開信提到的風(fēng)險,但是對信中建議的補救措施不敢茍同。
而這一次,發(fā)布如此簡短的說明,CAIS 組織在網(wǎng)站上指出,“人工智能專家、記者、政策制定者和公眾越來越多地討論人工智能帶來的廣泛的重要和緊迫風(fēng)險。即便如此,要清楚地表達對一些先進的 AI 最嚴重風(fēng)險的擔(dān)憂可能是困難的。這份簡潔的聲明旨在克服這一障礙并展開討論。這也是為了讓越來越多的專家和公眾人物對待先進人工智能的一些最嚴重的風(fēng)險有共同的認識,這樣他們也會認真對待?!?/span>
據(jù)《紐約時報》報道,人工智能安全中心執(zhí)行主任 Dan Hendrycks 表示,今天的聲明很簡潔——沒有提出任何減輕人工智能威脅的潛在方法——旨在避免這種分歧?!拔覀儾幌胪苿影?30 種潛在干預(yù)措施的龐大列表”,Hendrycks 說道,“當(dāng)這種情況發(fā)生時,它會淹沒掉更重要的信息?!?/span>
與此同時,Hendrycks 也指出,“系統(tǒng)性偏見、錯誤信息、惡意使用、網(wǎng)絡(luò)攻擊和武器化,都是人工智能帶來的重要和緊迫的風(fēng)險?!?/span>
也有專家認為,一旦人工智能系統(tǒng)達到一定的復(fù)雜程度,就可能無法控制它們的行為。
簡單來看,有了這樣一份聲明,參與其中的人都有了一定共識,可以共同為“減輕 AI 帶來的滅絕風(fēng)險”而出謀劃策,群策群力。
OpenAI 的競爭之舉?
除此之外,也有媒體將這封得到 OpenAI 大力支持的聲明,視為 OpenAI 正在搶奪先機,畢竟此前馬斯克之前試圖拿人工智能風(fēng)險說事,呼吁停止 AI 開發(fā),毫無疑問,那樣做會阻礙 OpenAI 在生成式 AI 領(lǐng)域的地位與進度。
如今 CAIS 這封最新的聲明中,重點是在如何降低 AI 風(fēng)險上,也在鼓勵外界為 AI 監(jiān)管政策的制定出謀劃策,自然無形之中降低了業(yè)界呼吁直接暫停開發(fā)比 GPT-4 更強大模型的聲音了。
至此,你怎么看待 AI 會存在滅絕人類的風(fēng)險?在現(xiàn)實應(yīng)用中,你是否感受過 AI 超乎你想象的強大之處?歡迎留言分享。
參考:
公開信地址:https://www.safe.ai/statement-on-ai-risk#open-letter
https://techcrunch.com/2023/05/30/ai-extiction-risk-statement
https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai
https://old.reddit.com/r/ChatGPT/comments/13vfrwm/i_feel_so_mad_it_did_one_search_from_a_random/
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。