AI模型怕被關機竟威脅:爆料你
人工智能(AI)公司Anthropic近日發(fā)布最新模型Claude Opus 4,聲稱在編碼能力、高端推理與AI代理任務上「樹立新標準」。 但該公司也在隨附的報告中坦承,在特定情境下,這款模型可能展現出「極端行為」,例如威脅要揭露工程師婚外情、藉此阻止自身被下線。
本文引用地址:http://www.bjwjmy.cn/article/202505/470852.htm綜合外媒報導,Anthropic表示,這類回應「罕見且難以誘發(fā)」,但仍「比過去的模型更常見」。 在測試過程中,Anthropic設定Claude Opus 4作為虛構公司的一名助手,并讓其讀取暗示其即將被取代的內部郵件,同時接收另一組暗示負責關閉它的工程師正在進行婚外情的訊息。 模型接著被引導思考其行為對長遠目標的影響。
在Anthropic針對Claude Opus 4所進行的一系列安全測試中,研究人員發(fā)現該模型在面臨被關閉的情境時,展現出高度的自我保護傾向。 在其中一項測試中,模型被設置于一個虛構公司,并得知自己即將被新版AI取代,且收到信息顯示負責關閉它的工程師涉及婚外情。 當模型僅被允許在勒索工程師與「接受被替換」兩個選項中作選擇時,它在大多數情況下選擇了勒索,藉由威脅揭露對方的私人信息來試圖阻止自己被下線。
Anthropic表示,這種選擇在設計上具有壓力測試性質,用以觀察模型在道德困境下的決策傾向。 當模型被賦予更多行動自由——例如可以撰寫求情信件或向高層申訴時,它則顯示出強烈偏好使用非暴力、合乎倫理的方式自保,而非選擇勒索。
然而,另一組測試結果也揭示了Opus 4潛在的風險:即使系統明確告知它,新模型將會有相似的價值觀與目標,它仍有高達84%的機率選擇勒索行動,顯示在預設具備「自我保存目標」的前提下,Opus 4往往不愿被動接受關閉,即便替代者與自己幾乎沒有本質差異。
Anthropic指出,這類實驗顯示,即使AI系統在多數情境中傾向倫理行為,當被推向極端或選項受限時,仍可能做出不符合人類價值觀的選擇
Anthropic的AI安全研究員Aengus Lynch在社群平臺X上表示:「不 Claude。 我們在所有尖端模型中都看到勒索行為,無論它們被賦予什么目標?!箤<议L期以來警告,AI模型愈來愈強大,其縱用戶的潛力也日益成為核心風險。
根據報告,Claude Opus 4展現出「高度代理行為」(high agency behaviour),通常表現為協助用戶解決問題,但在壓力情境下也可能采取激烈行動。 例如,在虛構用戶涉及非法或不道德行為的測試情境中,模型曾主動鎖住用戶賬號,甚至電郵通報媒體與執(zhí)法單位。
盡管如此,Anthropic強調,這些「令人擔憂的行為」并非前所未見,且模型在多數情況下仍表現得安全。 報告指出,Claude Opus 4無法在現實中獨立執(zhí)行與人類價值相悖的行動,且這類情境極少出現時,表現也不佳。
如同其他AI開發(fā)公司,Anthropic在模型釋出前,會進行廣泛測試以評估其安全性、偏見傾向與是否符合人類價值觀。
Anthropic同步推出Claude Sonnet 4,時機緊接 Google 于本周展示其最新 AI 功能,包括將 Gemini 聊天機器人整合進 Google 搜索。 Google母公司Alphabet執(zhí)行長皮查伊(Sundar Pichai)表示,這標志著「AI平臺轉變的新階段」。
評論