美軍使用AI"殺傷鏈" 人類決策者"靠邊站" 專家憂…

美軍在對伊朗的空襲行動中使用Anthropic的AI模型,縮短了從目標識別到法律批准及發動攻擊的“殺傷鏈”。(美聯社)
美軍在對伊朗的空襲行動中使用Anthropic的人工智能(AI)模型Claude,縮短了從目標識別到法律批准及發動攻擊的“殺傷鏈”(kill chain)。專家指出,利用AI工具發動對伊朗的攻擊,預示了轟炸速度快於思考速度的新時代,但也引發人類決策者可能被迫“靠邊站”的擔憂。
英國“衛報”3日報導,美國與以色列在最初12小時內,就對伊朗目標發動近900次打擊,擊斃伊朗最高領袖哈梅內伊(Ayatollah Ali Khamenei)。學者指出,AI正在壓縮復雜打擊所需的規劃時間,這種現象被稱為“決策壓縮”(decision compression)。
總部位於舊金山的Anthropic於2024年將其模型部署於美國戰爭部(國防部)及其他國家安全機構,以加速戰爭規劃。Claude成為軍事科技公司Palantir與伍角大樓開發系統的壹部分,旨在“大幅改善情資分析,並協助官員的決策過程”。
英國紐卡索大學(Newcastle University)政治地理學資深講師、殺傷鏈專家瓊斯(Craig Jones)指出,AI機器正在提出目標建議,在某些方面實際上比思考速度快得多。
瓊斯說:“所以,你擁有規模與速度,在進行斬首式打擊的同時,也正在摧毀敵對政權利用所有彈道導彈進行反擊的能力。這在過去的戰爭中可能需要數天或數周。(現在)你正在同時做所有事情。”
最新的AI系統可快速分析從無人機畫面、電信攔截到人員情報等堆積如山的潛在目標資訊。Palantir的系統利用機器學習來識別與優先排序目標,並根據庫存與過往針對類似目標的表現來建議武器。它還使用自動推理來評估打擊的法律依據。
部分人士擔心,這可能導致人類軍事與法律專家淪為對自動化打擊計劃“蓋章”(rubber-stamping)的工具。
英國倫敦大學瑪麗皇後學院(Queen Mary University of London)倫理、科技與社會學教授萊斯裡(David Leslie)認為,AI是軍事戰略與軍事科技的下壹個時代。但他也警告,依賴AI可能導致“認知卸載”(cognitive off-loading)。負責做出打擊決定的人類,可能會感到與後果脫節,因為思考的過程已由機器完成。
伊朗官方媒體聲稱,1枚導彈2月28日擊中伊朗南部壹所學校,造成165人喪生,其中多人是兒童。該校似乎鄰近壹座軍營,聯合國指此事“嚴重違反人道法”。美軍則說正在調查相關報導。
在打擊伊朗的前幾天,美國政府曾表示,將把Anthropic從其系統中移除,因為該公司拒絕允許其AI用於完全自主武器或監視美國公民,但在逐步淘汰前仍繼續使用。Anthropic的競爭對手OpenAI則迅速與伍角大樓簽署軍事用途協議。
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: |
推薦:
美軍使用AI"殺傷鏈" 人類決策者"靠邊站" 專家憂…