國際對人工智慧武器發展的觀點及趨勢
2021.02.19
瀏覽數
156
壹、新聞重點
根據《路透社》(Reuters)報導,由谷歌(Google)前首席執行長施密特(Eric Schmidt)領導的美國人工智慧安全委員會(National Security Commission on Artificial Intelligence)專家小組,於2021年1月26日結束為期兩天的審議,與各界公開討論美國在推動人工智慧(Artificial Intelligence,以下簡稱AI)、機器學習(Machine Learning)及相關科技的發展上,應考慮哪些必要的方法及手段,以滿足國家安全及國防需求,並於會後提交報告與建議予美國國會[1]。
貳、安全意涵
關於美國政府應否「禁止」使用或開發由AI軟體所驅動的自主武器(Autonomous Weapons Systems),與會專家們分別從人權及作戰的角度闡述不同觀點。來自微軟(Microsoft)的專家提出警告,自主武器存有一定風險,若在壓力下製造出快速反應的機器,可能會加劇衝突的發生。美國前國防部副部長沃克(Robert Work)則表示,自主武器預期發生的失誤將遠比人類親赴戰場來的少,自主武器可降低因為無法辨識目標所造成的人員傷亡或小規模衝突。總結而言,專家小組希望做出發射核彈的最後決定仍應由人類為之,並傾向以條約禁止的方式,避免AI自主武器系統的擴散。惟此等作法可能有違美國利益,且於現實上難以執行[2]。
一、美國警覺此為發展AI的「史普尼克時刻」
1957年10月4日蘇聯成功發射第一顆人造衛星「史普尼克1號」(Sputnik 1),不僅推翻美國對冷戰中技術平衡的假設,也使得受到震驚的美國人民,為了保有國家自豪而再次團結,致力發展太空科技,兩國太空競賽就此展開。[3]在席捲全球的人工智慧革命浪潮中,面對中國及俄羅斯均基於軍事目的而大量投資AI,美國深感競爭優勢遭受巨大挑戰,在害怕失去全球霸權的憂慮下,間接促使國家政策及戰略方向的改變。[4]從軍事層面的角度觀察,美國國防部自2013年針對自主武器發展政策發布第《3000.09號命令》後,2018年賡續發布《人工智慧戰略概要》(DoD Artificial Intelligence Strategy),並成立聯合人工智慧中心(Joint Artificial Intelligence Center, JAIC),藉以促進國防部的轉型,加快軍事領域應用AI的速度。[5]JAIC主任格羅恩中將(Michael Groen)近期接受專訪時表示,20世紀的指揮官將無法在橫跨實體戰場、網路、太空界線的環境中生存,為了生存及贏得勝利,軍方必須利用AI取代繁瑣的手動程序。這段談話反映美國已強烈意識到,目前已然成為能否引領全球AI技術關鍵時刻,美國對未來戰場優勢的掌握也將憑繫於此。[6]
二、國際社會試圖建構自主武器的管制框架
現有國際法對武器或作戰手段的規範,大多建立在第一、二次世界大戰期間,而今現代科技武器的發展,早已遠遠超越當時人類的想像。2016年間《特定常規武器公約》(Convention on Certain Conventional Weapons, CCW)締約方進行第五次審查會議時,決定成立政府專家小組(Group of Governmental Expert, GGE),同時授權該小組針對致命自動武器系統(Lethal Autonomous Weapons Systems)領域的技術進行研究,以提出相關可能建議。[7]2019年11月締約方通過GGE對「致命性武器系統領域的新技術問題」提出11項指導原則。[8]雖然各國對於自主武器的定義、管制框架等問題仍未達成共識,但普遍同意國際人道法將繼續、完全適用於所有武器系統(包括致命自主武器系統)可能的開發與使用。其他經GGE確立的未來技術發展指導原則,列舉重點如下:第2項指導原則,人類仍須對武器系統的使用、決定負有責任,不能把責任轉嫁給機器,應在武器系統的整個壽命週期裡考慮及此;第5項指導原則,在研究、發展、取得或採用新的武器、作戰手段或方法時,國家有義務按照國際法確定,該新的武器、作戰手段或方法的使用在某些或所有情況下,是否為國際法所禁止;第6項指導原則,在發展或取得基於致命性自主武器系統領域新技術的新武器系統時,應考慮到實體安全維護、適當的非實體保障(包含針對駭客攻擊或數據欺騙等網路安全問題)、落入恐怖主義團體手中及擴散的風險。[9]
參、趨勢研判
一、美、中、俄將持續投入AI武器競賽
美、中、俄三國都是CCW締約國,但俄羅斯卻在2020年的GGE會議中首度缺席。智利代表在最後一屆會議做了饒有興味的發言,「不在房間裡的那隻熊,必須在這個房間才對」;俄羅斯的刻意不與會,已引起學者及專家的擔憂,認為俄羅斯可能退出GGE,甚至不願接受規範管制。[10]中國大陸於2017發布「新一代人工智能規劃」,宣告三階段AI戰略:第一步是2020年AI技術及應用面與世界先進水平同步(指趕上美國),第二步於2025年取得重大突破,以確立第三步在2030年成為AI領域的世界領導者。此外,該戰略明定其「新一代關鍵共性技術目標」,係將AI應用於「國防建設、國防實力提升、自主無人系統的智能技術、無人機自主控制、特種機器人」等發展上。[11]由此可見,中國大陸不僅決心將AI運用於新興軍事武器,更發下成為全球AI新霸主的雄心。從美國對GGE所提11項指導原則的官方回應進行觀察,其贊同國際人道法原則應適用於武器系統的發展,但認為第5項指導原則的內容僅係1977年《第一附加議定書》第36條的重申,[12]主張美國並非《第一附加議定書》的締約國,亦不認為對新武器進行法律審查已在國際間形成慣習,即便如此,美國仍自願採取嚴格作法,針對武器的合法性進行自主審查。[13]綜上,AI武器的戰略價值對軍事強國而言,充滿無法抗拒的吸引力,在既有國際法對之仍無確切管制規範下,可以預見這些國家將持續在AI武器發展的遊戲中相互競逐。
二、歐盟正形成一股反對殺手機器人的氛圍
歐洲議會於2021年1月20日通過「人工智慧軍事及非軍事用途準則」(Guidelines for Military and Non-military Use of Artificial Intelligence)。[14]該準則呼籲歐盟應建立一套AI法律架構,針對AI的定義、道德原則及應用在軍事用途等進行規範,以確保歐盟及其成員國從「以人為本」(Human-centred)的角度(即旨在為人類及共同利益而服務),進行AI 相關科技的研究與發展。歐洲議會強調,所有與歐盟國防相關的活動,都必須尊重人性尊嚴及人權;AI系統必須允許人類施以「有意義的人為控制」(Meaningful Human Control),使人類得以承擔使用AI武器所衍生的責任。此外,由於致命自主武器系統涉及人為控制的基本倫理與法律問題,歐盟議會決議歐盟戰略應禁止該類行為,以及禁止使用所謂的「殺手機器人」(Killer Robots)。退步言之,設若使用自主武器系統決定目標並採取致命性行動,亦永遠必須交由人類進行有意義的控制及判斷,確保合乎比例原則及必要性原則。歐盟已漸次形成共識,希望與聯合國及國際社會共同創建AI用於軍事領域的新管制架構,發揮領導全球的作用。
[1] “U.S. commission cites 'moral imperative' to explore AI weapons,” Reuters, January 27, 2021, https://www.reuters.com/article/us-usa-military-ai-idUSKBN29V2M0.
[2] Ibid.
[3] Emma Bates, “Making the Most of a Crisis: What Sputnik Should Have Taught Us,” Center for Strategic and International Studies, May 19, 2020, https://www.csis.org/analysis/making-most-crisis-what-sputnik-should-have-taught-us.
[4] “Summary of the 2018 Department of Defense Artificial Intelligence Strategy,” U.S. Department of Defense, February 12, 2019, https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF.
[5] “Directive 3000.09, Autonomy in Weapon Systems 13,” U.S. Department of Defense, May 8, 2017, https://www.esd.whs.mil/Portals/54/Documents/DD/issuances/dodd/300009p.pdf; ”2018 DoD Artificial Intelligence Strategy Fact Sheet,” U.S. Department of Defense, February 12, 2019, https://media.defense.gov/2019/Feb/12/2002088964/-1/-1/1/DOD-AI-STRATEGY-FACT-SHEET.PDF.
[6] Sydney J. Freedberg Jr, “A 20th Century Commander Will Not Survive: Why the Military Needs AI,” Breaking Defense, January 12, 2021, https://breakingdefense.com/2021/01/a-20th-century-commander-will-not-survive-why-the-military-needs-ai/.
[7] “Background on LAWS in the CCW,” United Nations Office for Disarmament Affairs, https://www.un.org/disarmament/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/.
[8] “Report of the 2019 session of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems,” United Nations Documents CCW/GGE.1/2019/3, https://undocs.org/en/CCW/GGE.1/2019/3.
[9] 請參見《禁止或限制使用某些可被認為具有過分殺害力或濫殺濫傷作用的常規武器公约》之「致命性自主武器系統領域的新技術問題政府專家小組2019 年會議報告」附件4,https://undocs.org/en/CCW/GGE.1/2019/3。
[10] Dustin Lewis, “An Enduring Impasse on Autonomous Weapons,” Just Security, September 28, 2020, https://www.justsecurity.org/72610/an-enduring-impasse-on-autonomous-weapons/;原本GGE應於2020年11月2日至6日召開第二屆專家小組諮詢會議,值得藉此觀察俄羅斯後續的立場及態度,惟該次會議因新冠肺炎(Covid-19)公共衛生問題而推遲,目前會議期程仍待訂中。
[11] 〈國務院關於印發新一代人工智能發展規劃的通知〉,《中華人民共和國中央人民政府》,2017年7月20日, http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm。
[12] 《第一附加議定書》第36條規定締約方有義務對新武器、戰爭手段及方法進行法律審查:「在研究、發展、取得或採用新武器、戰爭手段或方法時,締約方有義務斷定,在某些或所有情況下,該新武器、戰爭手段或方法的使用是否為本議定書或其他任何適用於締約方的國際法規則所禁止。」
[13] “U.S. Commentaries on the Guiding Principles,” United Nations Office for Disarmament Affairs, September 1, 2020, https://documents.unoda.org/wp-content/uploads/2020/09/20200901-United-States.pdf.
[14] “Guidelines for military and non-military use of Artificial Intelligence,” European Parliament, January 20, 2021, https://www.europarl.europa.eu/news/en/press-room/20210114IPR95627/guidelines-for-military-and-non-military-use-of-artificial-intelligence.