國際政策趨勢

以色列發動第一場AI戰爭 其背後所帶來的隱憂

5月初時,因土地的問題以色列的猶太人與巴勒斯坦人雙方間爆發激烈的衝突。到了5月10日伊斯蘭組織哈馬斯開始向以色列發射火箭彈,以色列軍方隨即進行反擊,展開了圍牆守護者行動Operation Guardian of the Walls)。
 

由於此次行動頻繁地使用到機器學習技術,以色列軍方亦將其稱為第一場人工智慧戰爭。
 

以色列國防軍建立了一個先進的人工智慧技術平台,將加薩地區所有恐怖組織的資料全部匯集進去,以便分析和提取情報。情報部隊中代號8200的小隊,負責開發演算法與編寫軟體,其陸續開發出了煉金術師(Alchemist)、福音(Gospel)、智慧的深奧(Depth of Wisdom)等程式,而這些程式均被使用於軍事行動之中。
 

「福音」利用AI為軍事情報部門提供建議,而該部門則運用這些建議鎖定出目標,並傳送給以色列空軍進行空襲。「煉金術師」則用來警告軍方,部隊是否有被襲擊的風險。以色列軍方認為,利用AI有助於縮短戰爭的時間。而且透過AI蒐集和分析資料,能使以色列空軍能夠更精準地打擊目標,減少平民的傷亡。
 

但根據加薩衛生部,以色列對至少加薩地區的空襲造成至少243名巴勒斯坦人喪生,其中包括66名的兒童與青少年,以及1910人受傷。此舉引起了阿拉伯各國與人權團體的譴責。
 

以色列以豐富的資訊科技、醫療等領域的新創公司而聞名,其軍隊就是這些公司的人才來源,且軍方與民間企業間有很深的關聯。日經新聞引述某位參與此次數位衝突的以色列官員說法,軍方與科技產業為互相合作的關係,「我們所使用的演算法是由新創公司與以色列的企業共同開發而成。」
 

該國的AI野心跨越了國界。該官員亦透露軍方正在研究與外國公司合作的可能性,並將其技術與知識出口到國外。
 

韓國航太產業公司(Korea Aerospace Industries, KAI)已在3月與以色列航太產業公司(Israel Aerospace Industries, IAI)簽署了合作備忘錄,兩家公司將共同為大韓民國軍方提供無人滯空彈藥系統(Loitering Munitions systems)。備忘錄中亦提到將擴大KAIIAI的合作關係,依據韓國軍方的需求,長期販售滯空彈藥給他們。
 

在全球,AI的軍事用途已變成一個更為迫切的問題,採用AI技術所製造的武器都陸續被開發出來。例如,根據聯合國安理會的一份委外報告,土耳其製造的AI小型無人機,可以在沒有人類的操控下自動攻擊敵人,而該技術很有可能已被使用在去年的利比亞內戰上。
 

雖然AI自主武器可以節省人力,並提高效率。但是人權團體擔心無法掌控該類武器,所以要求禁止完全自主武器的開發。
 

根據德國之聲的報導,國際上對於自主武器大致可分為3個派系,反對者、支持者以及像德法一樣希望能找出中間道路的國家。
 

AI的軍事用途上投入大量資本的國家,如美國、以色列、俄羅斯和英國,均對此禁令表示反對。俄羅斯總統普丁更表示,誰能在人工智慧領域取得領先地位,誰就能統治世界。各國都不願冒落後的風險,積極推動自主武器的軍備競賽。
 

中國雖然有簽署加入禁止殺人機器人運動,但北京方面表示,只是反對在戰場上「使用」這些武器,並不是禁止開發或生產。然而該運動的目標則是完全禁止自主武器的開發、生產、使用,從根本上杜絕自主武器的存在。
 

截至2018年為止,已有26個國家呼籲強制禁止自主殺人武器,此行動受到民間的熱烈支持。且有超過230個組織及3000名個人,簽署由美國未來生命研究所(American Future of Life Institute)所發起的反對自主武器請願書。其中包括了來自AI領域的研究人員和商人,如特斯拉執行長Elon MuskGoogle Deep Mind等。簽署者反對自主武器的開發,並呼籲應制定嚴格的國際規範及法律來加以禁止。簽署者表示,人類的生殺大權,不應交由機器來決定。
 

德國雖然支持「全球全面禁止」自主武器,但是,其認為在日內瓦的《特定常規武器公約》(Convention on Certain Conventional Weapons, CCW)會議中直接將禁止使用列為目標,是一個戰術性的錯誤,因為各國的意見分歧太大了。
 

因此其選擇走向一條中間的道路,德國政府建議,首先,應先發表政治聲明;再來是軍事行為準則;最後,才是對於禁令進行協商。德國外交官認為分段式的作法將有助於意見的整合,並希望反對者能先簽署一份不具約束力的政治聲明。德國相信一旦確立了某些標準,就會更容易邁向下一步──訂立國際法強制禁止自主武器。
 

但,禁止殺人機器人運動的參與者卻不贊成這個觀點。他們要求德國作為一個歐洲的重要大國,應發揮其該有的領導作用,並支持立即禁止自主殺人武器。Thomas Küchenmeister(德國非營利組織Facing Finance的常務董事)相信這樣的話其他國家也會跟隨德國的腳步,加入這個反對計畫。「如果德國政府希望這些武器被禁止,其應有所表示,亦即承擔起責任。」
 

人權組織人權觀察(Human Rights Watch)於去年發布了一項報告,建議聯合國《特定常規武器公約》擬議的新條約適用範圍,需包含所有根據感應器處理而不是人類來選擇的武器系統,並將3種類型的法律責任涵蓋在內。一、一項對於武器的使用需保持在擁有自我意識的人類手上的通用規範;二、禁止開發、生產、使用因其性質,而產生基本道德或法律問題的自主選擇和攻擊目標之武器系統。此禁令涵蓋到在無人操縱之下可自主運行的武器,以及依靠如重量、溫度或聲音等資料,來選擇人類目標的武器;三、確保使用所有具有選擇及攻擊目標的系統時,皆為擁有自我意思的人類。
 

並且為了增加國際聲量,以通過對於禁止自主武器合乎時宜又具效率的法律約束文件,其建議各國應該:

●同意在2021年底前重啟談判,以迅速通過一項新的國際條約,維持由人類對於武力進行控制,並禁止這些缺乏控制的武器。

●考慮並借鑒先前的條約或規範性框架,以解決自主武器所帶來的憂慮,並加速制定新條約的腳步。

●就新條約的結構及內容表明其國家立場。
 

反對自主殺人武器的聲浪,最早或許可追朔到雪菲爾大學人工智慧與機器人學的榮譽教授Noel Sharkey,於2007年在衛報所發表的評論。其表示自主殺人武器目前只受到管制常規武器的法律所規範,但是自主武器與其他武器不同,將由雖不能稱之愚蠢但仍舊不夠有智慧的AI,來決定人類的生死,且隨著價格的降低及技術的進步,武器取得的門檻下降,這將演變成一場難以阻止的機器人軍備競賽,應立即制定國際法規和倫理準則來進行規範。
 

然而,從2014年開始,《特定常規武器公約》就對此進行多次會議,但至今各國對於自主武器的使用仍未達成共識。美國AI國家安全委員會(The National Security Commission on AI)更是在3月份時提出一份報告,表示應該拒絕禁止自主殺人武器的倡議,以應對來自中國與俄羅斯的威脅,並警告說中國與俄羅斯不太可能遵守此類禁令。但該發言亦引來反對者稱,這些建議將可能推動一場「不負責任的」軍備競賽。


參考資料:

https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371

https://www.theguardian.com/commentisfree/2007/aug/18/comment.military

https://www.bbc.com/news/technology-56240785

https://www.dw.com/en/should-killer-robots-be-banned/a-45237864

https://time.com/5673240/china-killer-robots-weapons/

https://www.hrw.org/report/2020/10/20/new-weapons-proven-precedent/elements-and-models-treaty-killer-robots

https://asia.nikkei.com/Politics/International-relations/The-first-AI-conflict-Israel-s-Gaza-operation-gives-glimpse-of-future

https://www.iai.co.il/kai-and-iai-collaboration-agreement#:~:text=Korea%20Aerospace%20Industries%20(KAI)%20and,with%20unmanned%20Loitering%20Munitions%20systems.