解讀人工智慧發展競賽衍生的安全悖論
2025.05.22
瀏覽數
1644
壹、前言
2025年初中國推出DeepSeek人工智慧(Artificial Intelligence, AI)模型,因為運算力號稱與「ChatGPT」同等級,甫推出就震撼國際,為美中在AI發展競賽揭開新的一頁。中國除了DeepSeek之外,還有諸如「阿里巴巴」推出先進的「通義千問」語言模型,其他諸如「百度」、「字節跳動」、「華為」、「騰訊」也都發展出自家AI模型,一時之間似呈現與美國並駕齊驅之勢。
近來大國競相藉由發展大型語言模型並訓練生成式AI(Generative artificial intelligence)、基礎模型,以達到能處理文字、影音、圖片等不同類型內容的多模態與推理模型,期待能捷足先登搶先研發成功通用型AI(artificial general intelligence, AGI)模型。另一方面,AI發展會否失控危害人類一直是長久以來備受關注的疑慮,也衍生管制與風險治理議題。隨之而來的問題是:在競逐AI發展白熱化之際,會否因過度競爭而忽略治理與風險管控,導致失控AI而為全球局勢帶來不穩定性?另一方面,管理AI發展是否就能降低不確定性與不穩定,從而帶來可預期的有序AI發展與應用?本文將藉檢視競逐AI背後的戰略思維,分析AI競賽衍生的安全議題,進而演繹可能發展趨勢。
貳、安全意涵
一、競逐超級AI體現大國戰略競爭思維
競逐AI背後的戰略思維,在於哪個國家能率先發展與應用超級AI(Super Intelligence),就能在軍事、經濟與科研各方面決策與發展都取得壓倒性優勢,形同在傳統軍事競賽中搶先取得核彈,與跟在後頭追趕的國家拉開國力與競爭力差距。[1]這樣的論述多年來一直被奉為圭臬,不僅成為現今全球AI競爭的驅動主力,也形塑了國家公部門與科技產業間的公私協力樣貌。循此思維國家之間自然會衍生唯恐落後而遭宰制的安全疑慮與恐懼,從而衍生出發展至上論調,甚至藉此甩開AI治理的管制,主張暫且將自主AI脫離人為掌控的疑慮置之腦後,進而形成發展至上與管制治理兩個陣營之間的辯論攻防與來回拉鋸。
延續美國與中共之間戰略競爭路線的科技脫鉤及去風險,美國不僅於2024年由政府主導補助成立AI「曼哈頓計畫」的國家隊,[2]美國川普政府還意圖逼促歐盟鬆綁其主導引領全球的AI治理規範,在華府鼓吹非紅供應鏈之餘,配套的各項類似防擴散之AI科技出口管制也隨之進一步強化。最顯著的科技出口管制,自然是AI高階晶片的研發、製程與輸出等相關管制,美國不但限制荷蘭艾斯摩爾(ASML)極紫外光微影設備(中國稱光刻機)與台灣台積電製作之輝達(Nvidia)高階晶片對中輸出,也對輝達研發成果與台積電晶片設計、先進封裝與製程研發暨良率品管技術,都要求基於營業秘密與國家安全雙重考量嚴加保護,防止遭到中共委託駭客集團駭侵或透過收買、挖角前述企業供應鏈內部員工取得商業機密。另一方面,中共的報復反制措施,就是對於晶片製作所需稀土之出口管制時緊時鬆,讓歐美晶片原料來源有斷炊之虞。
二、超級AI競賽的潛在不穩定性質
超級AI發展競賽的思維,在於一國倘若成功發展出通用AI模型,將被視為擁有殺手鐧般的超級利器,形成國力的加速倍增機。然而,回歸到AI的發展要素,必須要擁有優質大數據、先進的演算法以及充足的算力,才足以發展通用AI模型。這背後又需要有足夠的電力,才足以支撐資料中心與演算,另外也需要高階晶片進行運算,背後除了需要大量穩定電力、潔淨水與稀土供應以利晶片製作,還需要充沛的高素質工程師設計晶片與改良製程,並進行演算法的創新與改良。這些環節往往不是一般國家足以支應,也並非單一大國就足以完成,即使是像美國這般人才與資源充沛的科技大國,在AI晶片製造這個算力關鍵環節,就需要仰賴荷蘭提供晶片生產設備及台灣的台積電先進製程等支援。
在地緣政治充滿張力的時期,緊密供應鏈的建構及維繫有其必要性,但同時也充滿挑戰。面對的挑戰往往在於競爭對手也會想方設法取得關鍵晶片、資料、演算法,其餘手段還包括人才的培養與挖角、關鍵原料來源的取得與必要時切斷給對手的供貨。然而,最艱難的挑戰在於安全兩難困境造成的衝突急遽升高,亦即當對手與我方都成功發展出通用AI模型後,雙方都設想對方勢將訴諸超級AI,如此一來彼此間競爭張力將急遽升高,各自在面對全新未知的疑懼與挑戰時,被迫只能倚靠發展出來的超級AI,才有信心因應來自對手國發展出來的超級AI,除非決策者與AI機器都具有相當的自制力,否則由競爭演變為衝突的不穩定局面,就極可能是屆時的新常態。有鑑於此,至少在約束AI的部分,AI監管所強調的透明、可解釋性與可信賴性,將成為避免走向不穩定失序局面的重要節制,但監管與管制通常被熱衷AI競賽者視為絆腳石。
三、想維穩的「相互保證大規模故障」恐難實現初衷
回顧冷戰初期核武競賽背後的思維,就是當一國晉身核武俱樂部之後,體會核武大規模毀滅之殺傷力,唯恐核武大肆擴散後因擦槍走火引發核衝突意外導致人類滅絕,因此祭出相互保證大規模毀滅的信念與能力,搭配反核擴散之管制機制,以遏制核擴散所造成的毀滅性與不穩定性。有鑑於超級AI擴散發展可能造成的過度競爭與衝突,尤其自主通用AI模型在數位時代可能癱瘓社會民生與工業運作、甚至造成軍事衝突失控導致核戰相互毀滅,美國前Google執行長施密特(Eric Schmidt)與人工智慧安全中心主任翰崔克斯(Dan Hendrycks)、Scale AI 公司執行長汪滔(Alexandr Wang)聯手提議強化科技管制出口、加強網路安全防制網路竊密、精進反情報反制科技間諜措施,以實現超級AI技術與人才的防擴散。
對於未來晉身超級AI俱樂部的國家,施密特等人則建議沿用核嚇阻相互保證大規模毀滅機制,進一步提倡「相互保證大規模故障」(Mutual Assured AI Malfunction, MAIM)的概念,亦即當對手國的AI發展將突破躍進到難以追趕的主宰地位之際,藉由操作網路或者實體攻擊,破壞對手國資料庫或演算法、癱瘓電力或算力,[3]達到令對手國超級AI運行故障而被迫放緩進展速度,從而將失衡不穩定局勢回復到原先的可控穩定局面。值得注意的是,施密特等人基於對手國可能採取的破壞手段,以及緊急時刻高階晶片可能因海空運輸受阻而導致供應中斷的預設,提議將攸關算力的高階晶片生產線轉移到美國本土,對照川普政府對台積電的要求,似乎與該倡議部分預防性措施不謀而合。
施密特等人所提倡之「相互保證大規模故障」所忽略的是,核武毀滅是不可逆的災難,但讓對手的超級AI癱瘓故障卻往往是暫時性且可復原的,即使是實體的破壞,復原手段可以包括平日建置的分散式備份資料與分散式備援運算能力。此外,一旦基於韌性考量而建置分散於境內外各地之資料庫、以及加強資料中心及伺服器硬體防護之後,會讓第一波攻擊難以發揮實質破壞造成故障的效果。更嚴重的是,大規模網路攻擊、甚至發動飛彈攻擊對手國運作超級AI的相關設施,若被遭受突襲國家反擊甚至宣戰,都可能導致更不穩定局勢,如此結果反而與「相互保證大規模故障」維持穩定之預設背道而馳。[4]
參、趨勢研判
一、AI開源發展途徑或可減緩不穩定預期心理
2025年1月中國推出的DeepSeek模型之所以能夠敏捷地陸續推出新一代模型,主要是因為其採取套用現成大型語言模型蒸餾後迅速推出新版,且公開訓練參數作法。根據台灣人工智慧實驗室創辦人杜奕瑾博士2月7日在其《臉書》上指出,DeepSeek雖然也是要大量GPU運作算力,但為了克服美國對中之AI晶片科技出口管制,所以運用ChatGPT o1版萃取的結果,加上中國思想資料訓練DeepSeek R1後,就再用R1萃取的結果訓練「阿里巴巴」的「通義千問」(Qwen)以及Meta的Llama基礎模型,讓小模型學習回應推理模型,隨後就冠上DeepSeek R1-Qwen/Llama等名稱公開釋出模型權重。由於所運用開源較小參數模型相對不耗資源,DeepSeek開發成本也隨之大幅降低。[5]
更重要的是,由於DeepSeek與諸如ChatGPT等其他大型語言模型相容,造成使用普及用量遽增。DeepSeek的研發與推廣應用模式與速度迥異於以往科技巨頭所慣用之訓練參數與資料保密、使用模型須付費的研發與商業模式,讓各界紛紛檢討美國政府與矽谷科技業是否應該思考改變以技術本位為中心的研發方式,並轉而著重藉推廣更多使用者讓模型更為普及的方式,以塑造使用習慣偏好兼蒐集更多使用∕生成資料。[6]值得注意的是,一旦運用開源模型且公開自身訓練參數,將形同精進AI模型透明化,也相當程度減低發展超級AI過程中諜對諜保密到家所引發的疑慮、進而讓發動攻擊製造故障及其衍生的安全兩難困境能獲得很大程度的緩解。
二、近期須關注代理型AI蔚為潮流後之使用安全性
在發展通用型AI的過程之中,會有應用取向的AI代理(AI Agent)或者代理型AI(Agentic AI),藉由應用便利性取得廣泛使用者訓練機會,俾利未來建構更高層次通用型AI。有別於過往AI完全由模型和演算法定義,代理型AI能夠自主感知、決策和行動,是能夠與環境交互、處理複雜輸入並採取獨立行動的自主系統,不僅止於生成內容,還能推理、學習和執行任務。反射式代理乃基於規則和反應式;基於目標的代理則由特定目標驅動;基於實用程式的代理是經由不斷精進以獲得最佳結果;學習代理會隨著時間的推移藉由體驗而改進AI代理架構;單一代理就是如同Siri獨立作業;多代理系統將進行協調協作;人機代理進一步支援人工決策,對於編排複雜工作至關重要。[7]基於代理型AI自主搜尋、更新、分析與決策特性,惡意團體或國家行動者就可能在資料下毒,或操弄語意前後文編排、偽造身分識別與遠端執行注入惡意程式碼,意圖影響操縱決策分析結果,[8]對於運用代理型AI的安全性構成威脅與挑戰。
三、基於務實安全考量投入發展主權AI或將成為趨勢
全球足以獨力發展與訓練超級AI的國家並不多,如果不是採用聯合開發及訓練方式,則未來在面對友盟國家研發的超級AI,可以套用先前釋出的開放模型訓練參數、或者再生成訓練過程中的開放代理AI模型,用以作為發展與訓練自身主權AI的基礎。然而在資料池的部分,勢必蒐集與建立自身資料庫,[9]此時可廣泛應用生成式AI大型語言模型,可望對文字、影像、聲音之間的合成規模與品質形成指數級的增益。
至於建構主權資料背後的安全考量,在於避免敵意國家為了進行對於人民與他國的操弄誤導,暗中灌輸自身意識形態,甚至在資料輸入與搜尋面,注入污染資料,或者暗中對資料設限導致公開資料不完整。尤其需要提防外來AI模型對於歷史文化的重新詮釋,一旦演算法精進到足以讓大型語言模型不僅理解前後文,還能具備長期記憶的識讀與詮釋能力,外來版的AI模型將會有自身詮釋並不斷演進生成的歷史事件資料,倘若對此事態未予適宜防範設限,是類影響操縱就可能讓受影響國的資料與歷史詮釋主權遭受箝制。[10]有鑑於此,目前各民主國家發展的主權AI,勢必加緊腳步以及早因應中共未來發展代理AI模型、甚至超級AI所形成的威脅。
[1] Dan Hendrycks and Eric Schmidt, “The Nuclear-Level Risk of Superintelligent AI,” Times, March 6, 2025, https://time.com/7265056/nuclear-level-risk-of-superintelligent-ai/.
[2] 〈應對中國科技競爭 美國會委員會提出AI「曼哈頓計畫」〉,《中央社》,2024年11月20日,https://www.cna.com.tw/news/aopl/202411200367.aspx。
[3] Dan Hendrycks, Eric Schmidt, and Alexandr Wang, “Superintelligence Strategy,” Large Language Models I : Vol. 2 No. 1, 2025, https://doi.org/10.70777/si.v2i1.13961.
[4] Iskander Rehman, Karl P. Mueller, Michael J. Mazarr, “Seeking Stability in the Competition for AI Advantage,” RAND Commentary, March 13, 2025, https://reurl.cc/RYm2ve.
[5] 〈白話DS開源模型名稱〉,《杜奕謹臉書》,2025年2月7日,https://www.facebook.com/share/p/1C1dXieFzL/。
[6] Radha Iyengar Plumb and Michael C. Horowitz, “What America Gets Wrong About the AI Race: Winning Means Deploying, Not Just Developing, the Best Technology,” Foreign Affairs, April 18, 2025, https://www.foreignaffairs.com/united-states/what-america-gets-wrong-about-ai-race.
[7] Sarah Chudleigh,〈7種主要的AI代理類型〉,《botpress》,2025年4月11日,https://botpress.com/tw/blog/types-of-ai-agents。
[8] “Agentic AI - Threats and Mitigations OWASP Top 10 for LLM Apps & Gen AI Agentic Security Initiative,” OWASP, February 2025, https://genai.owasp.org/resource/agentic-ai-threats-and-mitigations/.
[9] 馬瑞璿,〈台灣要跟上主權AI 數發部次長:語料庫的建置希望民間一起投入〉,《聯合報》,2025年5月14日,https://udn.com/news/story/7314/8739404。
[10] 〈確維數位主權 防範中共集權操縱〉,《青年日報》,2025年2月18日,https://www.ydn.com.tw/news/newsInsidePage?chapterID=1744980。