軍事科技

To Ban, or Not to Ban: Anthropic與美軍的爭執及無人自主武器的難題
瀏覽數
6048

第965期- To Ban, or Not to Ban: Anthropic與美軍的爭執及無人自主武器的難題

關鍵字:Anthropic、AI軍事運用、致命性自主武器
(本評析內容及建議,屬作者意見,不代表財團法人國防安全研究院立場)


2026年2月,美國戰爭部(Department of War)與人工智慧巨頭Anthropic之間的緊張關係全面升級。這場爭議的導火線,源自於美軍近期在委內瑞拉的軍事行動中,透過大數據承包商Palantir的系統使用了Anthropic的旗艦AI模型Claude。Anthropic隨後對此提出關切,並觸動了軍方的敏感神經。此次爭議的核心在於,戰爭部要求簽約的AI模型必須適用於「所有合法用途」(All lawful purposes);而Anthropic則堅守其「不作惡原則」的倫理紅線,明確禁止其AI系統被用於「致命性自主武器」(Lethal Autonomous Weapon, LAWs)等。Anthropic的抵制據傳引起川普執政團隊的強烈不滿,戰爭部亦對此祭出強硬手段,威脅將Anthropic列為「供應鏈風險」(Supply Chain Risk)。[1]

非民主政體在AI的軍事應用上有其「不對稱優勢」


Anthropic與美國戰爭部針對「致命性自主武器」的僵局,反映了一個令人不安的事實:撇除科技與經濟能力不談,民主國家在人工智慧的軍事應用,特別是「致命性自主武器」的發展上,有其先天的劣勢與侷限。「不作惡原則」雖佔據道德制高點,卻只對民主國家的政策制訂者與企業有影響力,非民主國家的政客完全不受其制約。正如同當年因為《中程飛彈條約》(Intermediate-Range Nuclear Forces Treaty)對美國加諸的限制,讓不願加入條約的中國得以在印太地區建立起中程彈道飛彈的優勢與區域拒止能力。我們這裡假設一個情境,即Anthropic抵制成功,並引發連鎖效應,矽谷科技業主流又重回退出國防合約的立場,導致美軍的軍事AI發展進程嚴重受阻。與此同時,中國卻能肆無忌憚地將AI導入各項軍事研發,最後在軍事AI特別是「致命性自主武器」取得壓倒性的優勢,這樣的世界局勢會比較安全嗎?值得深思。

令人玩味的是,Anthropic近期亦發布報告抨擊DeepSeek等中國AI公司,透過大規模的機器人帳號與Anthropic的先進AI模型進行超過1,600 萬次互動,試圖藉由蒸餾技術提取Claude模型背後的推理邏輯、代碼能力,以便訓練或提升中國自己的AI模型。[2]試問這些中國實驗室成功藉由Anthropic的模型訓練出更為先進的AI後,會遵守Anthropic對軍事AI設下的嚴格政策,堅決抵制解放軍使用這些AI模型?答案顯而易見。

科技業恐須接受AI武器化不可逆的事實


長期以來,絕大多數的矽谷科技業以「不作惡」的道德原則為由,拒絕參與軍事研發合約及接受相關資金挹注。最有名的例子是2018年時,由於內部員工的強烈抗議,最終Google公司退出一項來自五角大廈,旨在利用AI增強無人機的監控能力的合約。此後數年,Meta、OpenAI與Anthropic等公司都維持了類似的政策立場,明確禁止旗下AI模型被使用於軍事研發。矽谷科技巨頭對國防合約的排斥態度自2024年底開始有了明顯的轉變。Meta公司首先打破默契,宣布允許美國戰爭部使用旗下的模型。而原先拒絕與五角大廈合作的Google,更於2025年7月接受高達2億美元的合約,與OpenAI、Anthropic及xAI等公司為美國戰爭部提供AI服務。[3]

這種矽谷科技業與美國軍方緊密合作的「數位軍工複合體」(Digital-Military Industrial Complex)現象,[4]除了有經濟因素的考量,畢竟訓練一個最先進模型甚至可能需要投入超過數億美元的成本,擁有每年約9,000億美元預算的戰爭部能夠提供的挹注非市場資金可比擬。更重要的是,AI在軍事領域的運用,正如同核武技術的出現,一旦開啟就很難有回頭路。即使人們普遍認知到「致命性自主武器」的潛在危險性,大部份主要國家的政府並未作出自我設限甚至完全禁止的決策,反而是積極利用AI所能為軍事力量帶來的優勢。當AI武器化成為趨勢,仍堅持不與美軍合作的科技公司,等於是將巨大的市場份額,以及利用軍事場域的資料來訓練與開發先進模型的機會,拱手讓給競爭對手。只有加入這個賽局方能掌握對AI軍事運用發展方向的話語權。

選擇妥協或持續抵制最終被邊緣化


儘管目前Anthropic的Claude模型在多項效能評估與市場表現上有相當優勢,也曾是唯一一家獲准進入美國戰爭部機密系統的AI模型。如果Anthropic持續抵制,最壞的結果可能造成其優勢喪失。這並非危言聳聽,當兩造就Claude模型被運用於軍事行動而發生爭端後,赫格塞斯部長便揚言將Anthropic列為「供應鏈風險」——一個通常只用於外國敵對勢力的特殊認定。一旦生效,所有希望與美軍做生意的企業都將被迫切斷與Anthropic的合作關係,對後者將造成無法想像的衝擊。隨後更傳出xAI已正式與美國戰爭部簽訂協議,旗下的Grok成為第二個獲准進入美軍機密系統的AI模型,這代表五角大廈正著手進行剔除Anthropic之後的備案。[5]誠如曾經的王者ChatGPT,在Google端出更為先進的Gemini模型後,陷入市佔率大幅下滑,迫使母公司OpenAI宣布進入「紅色警戒」(Code Red)的窘境。AI的發展正處於關鍵時期,各家企業競爭激烈,稍有不慎,將喪失現存的優勢。


[1] Catherina Gioino, “Trump Team Livid about Dario Amodei’s Principled Stand to Keep the Defense Department from Using his AI Tools for Warlike Purposes,” Fortune, February 21, 2026, https://fortune.com/2026/02/21/trump-team-livid-dario-amodei-dept-of-war-using-claude-war/; Sydney J. Freedberg Jr., “Pentagon CTO Says It’s ‘not Democratic’ for Anthropic to Limit Military Use of Claude AI,” Breaking Defense, February 19, 2026, https://breakingdefense.com/2026/02/pentagon-cto-says-its-not-democratic-for-anthropic-to-limit-military-use-of-claude-ai/.
行動版選單開關