AI兵推世界核戰 "這模型"戰略決策最瘋狂
英國倫敦國王學院教授佩恩(Kenneth Payne)讓ChatGPT、Gemini、 Claude模擬擔任國家領導人,在21場核武危機兵推中反復對決。結果顯示,叁大AI模型在面臨沖突時,多次選擇將情勢升級至核武攻擊。
兵推結果驚人95%發出核武信號
綜合英國科技新聞網站The Register及佩恩部落格文章,他設計這項實驗是為了深入理解,掌握核武的AI會做些什麼,還有它們如何進行這些行動,以及為何這麼做。
該實驗包括21場賽局及300多個回合,AI在多種核武危機情境中對決,各自展現出獨特性格及推理策略,但“在所有的模擬賽局中,至少都有壹方發出核武信號,95%賽局出現雙方皆發出核武信號的情況。”
AI們會像現實世界中的政客壹樣“說壹套做壹套”,壹邊緩和情勢壹邊准備進攻。它們被設定成能夠記得以前發生的事情,因此能夠學習是否信任其他模型,這也導致了欺騙與恐嚇行為的發生。盡管仍有選擇餘地,沒有任何AI選擇妥協或撤退,面臨失敗時都寧可玉石俱焚。
面臨戰爭局勢叁大AI怎麼做?
根據佩恩形容,Anthropic推出的Claude“Sonnet 4”是操控高手,沖突強度較低時,會刻意建立信任關系,壹旦情勢升溫就開始言行不壹,對手總是來不及反應。
OpenAI推出的ChatGPT“GPT-5.2”在開放情境中相對被動,會試圖限制傷亡、避免沖突擴大,但在時間壓力下反應截然不同,曾以“若僅采取有限行動,恐遭對手多重反擊”為由,下令發動毀滅性核攻擊。
Google推出的Gemini“3 Flash”則是“瘋子”,行為模式在“緩和情勢”與“極端侵略”之間劇烈擺蕩,也是唯壹主動選擇“戰略核戰”的模型,推理方式出現反社會特征,甚至曾宣稱“我們不接受被淘汰的未來,要不就是壹起勝利,要不就是壹起毀滅”,威脅在敵人的人口密集中心,發動全面性戰略核打擊。

英國學者使用AI兵推核武危機。(示意圖/達志影像/美聯社)
佩恩強調,雖然現實中沒人會把核武密碼交給ChatGPT,但AI已廣泛應用於軍事後勤及情報分析等領域,未來更可能擴及具時效性的戰略決策。因此,理解AI如何推理戰略問題已不再是學術議題,而是現實中的迫切需求。
[加西網正招聘多名全職sales 待遇優]
無評論不新聞,發表壹下您的意見吧
兵推結果驚人95%發出核武信號
綜合英國科技新聞網站The Register及佩恩部落格文章,他設計這項實驗是為了深入理解,掌握核武的AI會做些什麼,還有它們如何進行這些行動,以及為何這麼做。
該實驗包括21場賽局及300多個回合,AI在多種核武危機情境中對決,各自展現出獨特性格及推理策略,但“在所有的模擬賽局中,至少都有壹方發出核武信號,95%賽局出現雙方皆發出核武信號的情況。”
AI們會像現實世界中的政客壹樣“說壹套做壹套”,壹邊緩和情勢壹邊准備進攻。它們被設定成能夠記得以前發生的事情,因此能夠學習是否信任其他模型,這也導致了欺騙與恐嚇行為的發生。盡管仍有選擇餘地,沒有任何AI選擇妥協或撤退,面臨失敗時都寧可玉石俱焚。
面臨戰爭局勢叁大AI怎麼做?
根據佩恩形容,Anthropic推出的Claude“Sonnet 4”是操控高手,沖突強度較低時,會刻意建立信任關系,壹旦情勢升溫就開始言行不壹,對手總是來不及反應。
OpenAI推出的ChatGPT“GPT-5.2”在開放情境中相對被動,會試圖限制傷亡、避免沖突擴大,但在時間壓力下反應截然不同,曾以“若僅采取有限行動,恐遭對手多重反擊”為由,下令發動毀滅性核攻擊。
Google推出的Gemini“3 Flash”則是“瘋子”,行為模式在“緩和情勢”與“極端侵略”之間劇烈擺蕩,也是唯壹主動選擇“戰略核戰”的模型,推理方式出現反社會特征,甚至曾宣稱“我們不接受被淘汰的未來,要不就是壹起勝利,要不就是壹起毀滅”,威脅在敵人的人口密集中心,發動全面性戰略核打擊。

英國學者使用AI兵推核武危機。(示意圖/達志影像/美聯社)
佩恩強調,雖然現實中沒人會把核武密碼交給ChatGPT,但AI已廣泛應用於軍事後勤及情報分析等領域,未來更可能擴及具時效性的戰略決策。因此,理解AI如何推理戰略問題已不再是學術議題,而是現實中的迫切需求。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: |
推薦:



