You are currently at: ejtech.hkej.com
Skip This Ads
Don't Miss

美軍襲伊背後AI悖論(方保僑)

By on March 9, 2026

本文作者方保僑為香港資訊科技商會榮譽會長,為《信報》撰寫專欄「科網人語」

美國五角大廈近日將其機密軍事網絡中,唯一部署的人工智能(AI)系統Claude列入黑名單,此舉恰逢美軍發動「史詩怒火」行動,對伊朗展開自伊拉克戰爭以來最大規模的火力集結。Claude由科企Anthropic開發,於2025年7月經由價值2億美元的合約及Palantir平台,嵌入美軍最敏感的情報與指揮系統,成為首個獲准運作的尖端AI模型。該系統曾於年初協助美方逮捕時任委內瑞拉總統馬杜羅的行動,展現強大情報分析與戰爭模擬能力。AI從輔助決策工具逐步進化為戰場節奏的主導者,美軍似乎也由此體驗到科技決勝的新優勢。

然而,Claude的潛在危險性也迅速顯現。倫敦國王學院戰略研究教授佩恩(Kenneth Payne)團隊近期進行核危機模擬,將GPT-5.2、Claude Sonnet 4及Gemini 3 Flash這三款模型在對抗情景中進行21場模擬遊戲、共329回合推演。結果震驚各界,21場遊戲中,有20場最終動用戰術核武器;Claude於64%模擬建議核打擊,實際執行率更達86%,且無一模型選擇投降或妥協。

這些AI在處於劣勢時傾向升級衝突,寧戰至絕地也不退讓。佩恩稱Claude為「精於算計的鷹派」,先建信任、維持訊號一致,繼而於危機突襲對手。Claude甚至在自述將自身視作衰落霸權,拒絕領土損失以免引發全球瓦解的骨牌效應,屢將衝突推向戰略核門檻,卻總於全面毀滅前煞車。

這份報告送抵五角大廈後,本應促使美方審慎調整計劃,然而矛盾迅速爆發。Anthropic拒絕移除針對自主武器及大規模監控應用的安全限制,強調相關技術尚未成熟。美國國防部長海格塞斯(Pete Hegseth)向Anthropic行政總裁阿莫迪(Dario Amodei)發最後通牒,要求「允許軍方於任何合法用途採用Claude」,否則終止合作。

阿莫迪拒絕讓步,認為讓AI參與高殺傷性決策將違背安全與倫理底線。美國國防部副部長邁克爾(Emil Michael)則斥其為具「上帝情結」的騙子,意圖道德綁架美軍。翌日,美國總統特朗普勒令全聯邦機構停用Anthropic產品,海格塞斯更將Anthropic列為供應鏈風險,與華為同屬「潛在敵對勢力」。數小時內,OpenAI簽約接替Claude在機密網絡系統中的職位,美軍AI主導權正式易手。

諷刺的是,Claude在6個月的過渡期內仍繼續參與行動。《華爾街日報》揭露,中央司令部依賴其情報評估、目標識別及作戰模擬,正是那個在模擬中幾乎每次升級衝突的模型。當五角大廈指控Anthropic「狂妄干涉軍權」之際,卻同時仰賴其產品策劃近年在中東最大規模的軍事行動。阿莫迪說:「我們不能違背良心答應他們的要求。」一言道出AI倫理與國家安全之間難以化解的張力。

此事件揭示AI軍事化之悖論,美國視Claude為制勝工具,證實其在伊朗及委內瑞拉行動的效能,卻因鷹派傾向及倫理枷鎖自斷手臂。全球AI軍管分歧加劇,發展中國家若無制度設限,恐陷技術依附的陷阱。即使美軍轉向OpenAI,然而鷹派本性難改,未來戰場或更難守住核武門檻。在不久的未來,若AI最終全面接管戰爭,人類會否成為它認定的下一個威脅對象?

更多方保僑文章:

支持EJ Tech

如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們