國際政策趨勢

AI三組件及其對國家安全策略的意涵

用一句話概括現代AI技術:機器學習系統利用計算能力來執行從資料中學習而成的演算法。在機器學習中,機器從資料中汲取了自己的見解,這與過去人工驅動的專家系統不同。這句話同時也介紹了AI三組件──演算法,資料和計算能力,三者間的相對優先級會根據技術的發展而變化,但每個要素對於機器學習系統的功能都至關重要。演算法控制著機器學習系統如何處理資訊並做出決策;當今,共有三類主要的演算法:監督式學習,從結構化資料集中獲取見解;非監督式學習,擅長在無組織的資料集中查找結構或集群;強化學習,透過反複試驗來增強機器學習系統的能力。通常,這些演算法在神經網路上運行,神經網路提供了巨大的靈活性和強大功能,但也有其自身的權衡取捨,即其論斷背後缺乏透明度的缺點。


資料通常是機器學習系統如何了解世界的方式,尤其是在監督式學習的情況下,獲取更大且更具代表性的資料集可以進一步增強機器學習系統的功能,如果沒有這樣的資料集,系統就會出現偏差導致表現不佳,並且由於缺乏透明度而難以偵測錯誤。而通常被忽視的是,隨著演算法變得越來越複雜和資料集越來越龐大,計算能力變得越來越重要,在過去的八年中,應用於尖端機器學習的計算能力發生了翻天覆地的變化,增長了數十萬倍,計算能力越來越大程度的影響機器學習系統的性能,並在系統開發期間帶來巨大的成本。

 

三組件中的每個部分都有不同的政策考量,演算法的進步取決於一個國家是否獲得並培養有才能的機器學習研究人員;想建置更大和更好的資料集會遇到棘手的政策問題,包括偏差處理、個人隱私和網路安全問題;計算能力不但是國內AI研究中的瓶頸,也需要考慮出口管制的政策問題。為了明智地權衡人工智慧政策中的槓桿,政策制定者必須首先了解該技術本身以及它將如何重塑國家安全, 而AI三組件的的概念可以為政策制定者提供合適的框架。
 

簡介

用一句話就能概括現代AI技術:機器學習系統利用計算能力 (computing power)來執行從資料 (data)中學習而得的演算法 (algorithms)。AI技術現今已應用的相當廣泛,在日常生活中有智慧手錶、手機中的Alexa、Siri等應用;在科學上,從診斷疾病、協助藥物開發、模擬氣候等應用都為該領域做出了貢獻;在商業上,它影響著國家的經濟競爭力,並改變了數以萬億計的美元在全球市場上的脈動;在國家安全中,它加強了後勤和情報分析,並且具有致命的自主武器、無人機戰和自主式網路攻擊的發展,並且持續在更多應用中發展。
 

AI技術應用的廣度可以看出為什麼AI以及其中所隱含的概念如此重要,如果政策制定者不了解AI,將只能被動的吸收AI的新資訊,並且後知後覺的知道AI可能可以替我們達成的任務,更糟的是,不了解AI的決策者將無法識別該技術尚無法完成的工作,他們將無視AI當前的結構缺陷,例如缺乏透明度和潛在的隱性偏見 (insidious bias),這些挑戰必須透過技術和政策雙方面共同解決。
 

相對於過往,由開發者一步步以程式語言給予電腦指示的專家系統 (Expert System),現代AI以機器學習為代表,AI開發人員不直接給予電腦指令,反之給予電腦自行學習的系統。本文主要討論的AI系統為深度學習系統,而進行深度學習的三個要素是:資料、演算法和計算能力。作者將這些組件稱為AI三組件 (AI Triad)。計算機科學家長期以來一直使用這三個組件來研究機器學習,作者認為它為理解人工智慧的力量及其對政策的意義提供了一個討論的框架。
 

The AI Triad
 

演算法

演算法是用於處理資訊的一系列指令,例如,教小學生先乘除、後加減的規則,以解決數學問題的運算順序。而在機器學習演算法中,並未應用人類提供的明確策略或指示,而是演算法將從資料集中得出自己的見解,並將這些見解用作操作、決策的基礎。比喻來說,教機器人玩樂高玩具,在傳統軟體中,機器人根據設計者提供的指令一步一步地搭建出符合要求的積木,但若出現任何意外(如少了一塊積木或給予未知的指令),機器人就會不知所措;而在AI系統中,設計者僅提供給機器人「成功」和「失敗」的範例,並在每次結果後得到人類的回饋,機器人經過學習後將自行整理歸納、提高成功率、得到創造力,可能創造出出乎人類想像之外的精美作品,然而設計者並不會知道機器人是根據什麼邏輯歸納出該結論的。無法解釋是當前機器學習系統最具挑戰性的問題之一,雖然對於樂高積木而言可能無關緊要,但缺乏可解釋性會引起其他領域的法律和道德問題。
 

演算法主要分為三種類型:監督式學習 (supervised learning)、非監督式學習 (unsupervised learning)和強化學習 (reinforcement learning)。
 

監督式學習演算法通常由人類提供的結構化資料 (well-organized data)中得出模式 (pattern),訓練完成後,該系統便可以在不同的情況下應用這些模式完成識別、判斷等功能。例如在一個商業應用中,將關於在美國銷售的數千輛汽車的資料提供給AI系統,包括每輛出售汽車的品牌、型號、年份和狀況,並提供每輛汽車銷售的價格,演算法會自行經過學習從而得出大大小小的見解,例如,行駛里程越短的新車可能會賣得更多,而天窗之類的附加功能會增加汽車的價值。這就是所謂的對該系統進行訓練 (training)。有了這些見解,該演算法就可以嘗試執行更深層的推論 (inference)的任務,即根據已知的資訊,對未來即將發售的汽車的售價進行預測,訓練有素的監督式學習演算法被證明善於預測各種結果。
 

監督學習對國家安全有什麼作用?其可以預測汽車銷量或在CT掃描中識別肺癌,當然也許可以預測恐怖襲擊或幫助整理大量衛星情報照片。如美國軍方在2017年建立的Project Maven團隊,將監督式學習應用於世界各地美國無人機收集的照片和影片。儘管如此,監督學習算法仍然具有局限性。它們依賴於提供給算法的資料的「正確答案」,例如過往汽車銷售的價格,沒有這些正確的答案可供學習,監督型學習系統將無法得出對新資料進行預測所需的模式。
 

這就是非監督式學習演算法的重要性,當沒有井井有條的資料集並為每個資料點提供正確答案時,非監督式演算法可以幫助解開複雜的資料網並提供某種結構。例如,對於廣告商和政客來說,最常見的任務之一就是了解他們的市場,其需要將大集團細分為一系列更有意義的小集團,透過識別出這些較小的群體,廣告商和政客可以更有效地定位和定制其宣傳內容;有些明顯的分類方法如根據年齡、性別或種族進行過濾,廣告商則跟利用包括在線歷史記錄、購買和表達的興趣之類的訊息,利用AI系統產生更小、更準確的集群,再根據其受眾量身定制營銷策略。
 

若考量到長期戰略評估和計劃整合中,有監督或無監督的學習都不夠強大,此時第三種算法強化學習可以提供幫助。在具有明確定義的環境中,例如在棋盤或影像遊戲中,這些算法特別強大,透過反複試驗 (trial and error),他們可以做出決策並從環境中獲得回饋,這些算法會隨著時間在執行任務方面不斷改進,有時甚至超過了人類的能力,例如著名的Google DeepMind開發的AlphaZero,強化學習最終在西洋棋、圍棋和將棋的遊戲中擊敗所有人類;在AlphaStar演算法中,該AI系統在戰略電玩《星海爭霸II》中獲得了大師級地位,Starcraft比Go需要更多的實時的決策,並且僅提供不完美的訊息──玩家看不到對手的所有舉動,而且對手可以互相欺騙,由於這些原因,用於星海爭霸之AI系統更能代表軍事戰略中的可能應用。
 

資料

「資料就是新石油」,資料的重要性已經反覆被強調,如 2001年的一項基礎研究表明,可用於訓練的資料的數量比使用的算法更重要。特別是對於監督式學習而言,資料若不足,該系統有效性也會大大降低。如果提供給監督學習算法的資料很少,則系統可能由統計上的離群值 (outliers)控制,更大和更具代表性的資料集才能更好地捕獲現實世界。然而,資料收集本身還會面臨許多挑戰,資料被收集後,還會面臨資料集組織、儲存和取用問題,所有這些在技術和政策上都具有挑戰性,尤其是在隱私方面,現今法規也大幅限制了個人資料的取用。除此之外,不僅資料量很重要,如何有效的將適合的資料分配給適合的AI系統也是很大的問題,這需要建構AI系統的研究者明確定義資料取得前的問題來解決。另一個重要的問題是人為導致的資料偏差,例如曾經在Amazon的徵才系統中,由於過去人為審核時的性別歧視導致資料的偏差,AI系統本身並不會判別資料是否有偏差,而將給予的資料集照單全收用於訓練自身,導致最後訓練出的系統本身帶有偏差,這個問題可能導致AI系統以特別隱蔽的方式(如果是無意的)失敗;例如,如果旨在幫助發現恐怖分子的機器學習系統對某種種族產生偏見,它可能會一貫建議對該種族的無辜者進行更多審查,同時忽略其他種族的嫌疑人。
 

計算能力

計算能力在現代通常被低估了,大多數個人電腦用戶都不知道他們每天使用哪種計算機晶片,許多新聞媒體對於新技術的敘述也都忽略了計算技術。計算能力為現代人工智慧的進步提供了支撐,Rich Sutton,現代AI的奠基人之一,認為人工智慧的巨大進步不是透過使系統與人類更相似,或者是透過向計算機賦予更多的人類知識,而是透過賦予機器學習系統更大的計算處理能力來進行自主學習。按照這種觀點,演算法的結構和人類知識的資料集根本不如支持機器學習的計算機硬體重要,按照這個論點,計算很可能是AI三組件中最重要的部分。
 

確實有足夠的證據表明計算能力與AI的發展密切相關。 OpenAI研究發現2012年至2018年計算機應用於頂級AI項目培訓的計算量增加了300,000倍,驅動了AI進步;領先的Microsoft AI研究人員XD Huang也認為,Microsoft真正的武器是計算能力,若不是如此,有些項目可能還要花多達五年的時間才能完成。
 

三個因素推動了這種計算力的巨大增長。首先,如同不斷被鼓吹的摩爾定律 (Moore’s Law)所預測的,技術上而言電腦計算能力每24個月會倍增一次;第二個因素是平行計算在AI晶片的應用,使許多計算機晶片可以精確地同時訓練機器學習系統;第三個因素是機器學習計算機晶片效率的提高,運行機器學習算法與傳統軟體不同,如前所述,前者使用神經網路從資料中學習,而後者則執行直接的人工指令,特別構建和定制的專用晶片可以更有效地運行機器學習算法。摩爾定律的發展會面臨半導體業成本的問題,而平行計算也需要大量的電腦來維持,最好的解決方案就是專門用於AI的定製晶片,但其發展需要大量投資來設計和構建新硬體。隨著計算的成本越來越昂貴和複雜,它越來越成為AI研究人員的瓶頸,需要國家安全政策制定者納入考量並協助其發展。
 

AI三組件對於政策制定者的意義

瞭解AI三組件的意涵,除了有助於對現代AI進步進行分類以外,還可以作為構架國家安全政策的決策之依據。三組件的每個部分都有自己獨特的政策槓桿及挑戰,每個部分的相對政策優先級都會對國家安全戰略產生影響,其中任何一部分比其他部分具有更高的優先級時,都應該有不同的政策規定因應。
 

若演算法發展落後,而國家欲將演算法的發展放在第一順位,開發這些演算法的研究人才和資源變得尤為重要。當前該領域人才的供應無法滿足全球需求,國家的政策制定者必須找到方法,將外國人才吸引到自己的國家,在國內也必須有相對應的培訓以及留住人才的政策。相關的政策手段包括簽證控制、產業策略、勞工再培訓等,並且應建立AI技能的認證體系,以及加強教育投資以彌補AI領域的師資短缺。鑑於AI人才在算法改進方面的核心地位,人才的流動可能會對國家安全和經濟產生重大影響,這可能是AI時代首先會遇到的地緣政治競爭戰場。
 

但是,如果將資料放在首要考量,則會出現不同的政策槓桿。AI系統是由人類產生的資料集所訓練而成,若資料集本身有偏差,可能導致訓練出一個偏差的系統。從資料角度來看,追蹤和衡量偏差風險是一個重要的課題,必須由專家持續追蹤並瞭解偏差的潛在來源,可以利用如食品的營養標籤一樣的做法,明確瞭解用於訓練該系統的基礎資料集的來源。如先前所提,AI系統的其中一個問題是不透明且無法對其決策進行解釋,但用於訓練的資料集的透明度可以增加人們對系統的信心。除此之外,資料對於AI系統越重要,便會引發越多的隱私問題,政府必須出面管理用戶的隱私權和其資料的價值之間的緊張關係,他們將必須制定相關的隱私法規,以保護人民的自由和權利,同時又不過度限制使用資料進行AI訓練可能帶來的創新。有部分研究致力於去識別化等無須涉及個人隱私即能蒐集資料的方法,政府應提高對相關研究支持的預算;當涉及重大決策或敏感性資料,各國政府也應該設立專任機構及人員在使用資料時進行嚴格的審查,例如與假釋決策、信用風險和醫療保健相關的演算法;除此之外,資料重要性的提高將涉及到越來越龐大的資料集的傳輸與儲存的問題,帶來網路安全和資料洩露責任的考慮,在這個以資料為中心的世界中,政府應該扮演最大的資料收集者和提供者的,政府應當思考,如何制定政策以蒐集、保管、組織資料集?哪些資料庫應該開放?這些資料庫應該如何開放及向誰開放?所有這些問題都需要謹慎的政策制定來解決。
 

最後是假若計算能力被放在最優先考量,如此一來,至關重要的是管理針對機器學習計算而優化的功能強大的計算機晶片。因此,出口管制會是很重要的政策考量,特別是對於美國及其盟國而言,目前其在先進的計算機晶片製造領域佔有優勢;中國則是需要依靠西方公司獲得先進的光蝕刻技術和其他半導體製造設備,對於中國來說,在AI時代保持其經濟和國家安全靈活性的一項至關重要的戰略是進一步發展其國內計算機晶片產業。北京已經在積極尋求西方晶片的替代品。廣義而言,計算成本隨著技術的進步變得越來越高,如果計算變得太昂貴而使得學術研究人員負擔不起,那麼AI技術的研究將轉移到私營部門,這會對長期創新產生潛在的負面影響,政府應該從政策面幫助學術研究者能夠使用高階的計算機,以便他們可以繼續培訓新的人才,並為該國的AI的發展做出貢獻。
 

那麼,政策制定者應該優先考慮AI三組件中的哪一部分?在現代看來,資料似乎有些被高估和炒作,十年前,資料似乎很重要──Google首席科學家彼得·諾維格 (Peter Norvig)說道:「我們沒有比其他任何人更好的演算法;我們只有更多的資料」,資料的相對重要性有所降低,因為演算法和計算的帶來的效益在AI的發展中越來越明顯。三者之中,演算法似乎更公平地被評估,政策制定者日益意識到在這一領域進行創新的重要性,但是在美國,並還未有政策幫助吸引開發演算法所需的人才;相比之下,英國、加拿大和法國等盟國則試圖培育其國內AI產業並吸引來自海外的新研究人員;中國也積極開發了「千人計劃」(Thousand Talents program),以招募其他領域的頂尖AI人才和研究人員。美國在其大學中培養了世界上大量的AI人才,但並未好好利用這個主場優勢來留住更多AI人才。在美國,相對於資料以及演算法,計算能力的價值與作用似乎都被低估了,也許是因為計算力的進步很難解釋及形象化,導致其被疏忽了。正如OpenAI的研究表明的那樣,在過去的幾年中,應用於機器學習系統的計算技術呈指數級增長,推動了可觀的進步;並且由從事AI相關高級計算的矽谷初創公司的蓬勃發展來看,這一領域還有相當大的發展空間,考量到計算力可能對於AI技術的發展以及國家安全系統的未來造成重大的影響,政策決策者應該把計算力也納入政策考量之中。
 

結語

實際上,AI三組件中目前何者相對重要本質上是一個學術問題,而不是政策問題,隨著三組件的不同部分以不同的速度發展著,其相對優先順序將發生變化。可預見的是各國都將在這三個領域展開競爭,因此,決策者必須綜合評估,設計出跨部門的AI戰略、解決資料、演算法和計算問題,同時隨時根據現況即時的評估三組件中的哪個部分應是發展的重點。決策者必須以具前瞻性的方式做出判斷,因為這些選擇會帶來諸多短期和長期的後果。例如,決定對計算機晶片設置出口管制可能會帶來很多短期的好處,但是必須冒著中國可能因此投入發展自己的晶片製造業的風險,從長遠來看,這可能對美國造成負面影響。相反,決定吸引和培養AI人才的決定可能需要立即付出大量的成本,但需要長時間才能回收成果。考量諸多短期、長期的利益及不同的後果來做決定並不容易,需要將地緣政治勢力,與AI技術發展之資料、演算法和計算力的現在與未來情勢結合起來綜合考量,在制定好的AI策略之前,首先也需要對AI三組件及其基礎知識背景有清楚的認知。
(編譯:黃則普)
Image by PDPics from Pixabay 


參考資料:

Ben Buchanan, The AI Triad and What It Means for National Security Strategy, 2020/8

https://cset.georgetown.edu/research/the-ai-triad-and-what-it-means-for-national-security-strategy/