國際政策趨勢

美歐AI管制之動向

從2017年起,世界各國開始陸續執行不同的AI治理政策,其中位於領先地位的歐盟陸續於2018年制定會員國的合作計畫、2019年提出〈可信任的AI之倫理綱領〉,針對AI開發與應用該遵守的倫理原則提出具體七項要素,並在2020年以各界就前揭文件的回饋意見為基礎,頒布《人工智慧白皮書》,明確提出未來歐盟將規範人工智慧,管制模式是「根據風險區分管制」 (risk-based approach);更於2021年四月發布《人工智慧管理法草案》,明確其AI管制的意向與方法,將兼顧科技發展與人權價值,優先管制高風險的人工智慧應用。
 

美歐雙方舉辦的美國-歐盟貿易和技術委員會(Trade and Technology Council, TTC)於2021/9/29在匹茲堡召開首次會議,內容包括雙方官員承諾要共同處理一系列技術與貿易問題,以確保半導體晶片供應、並抗衡中國的主導地位,會議中也將AI管制議題列入其中,包括開發和實施能加強隱私保護的AI,及未來將就AI如何影響全球貿易展開共同研究。自TTC會議開始,以及後續拜登政府展開的一系列活動,都可以看出美歐雙方在AI管制規範上的方向漸趨一致,BROOKINGS於2022/02/21發表《The EU and U.S. are starting to align on AI regulation》文章,描述美歐雙方就AI管制議題的政策與靠攏的趨勢,並對雙方在管制策略發展,以及如何加速提高一致性上提出建議,以下就其重點進行摘譯:

背景介紹與TTC會議

從2017年起,全世界超過60個國家開始採用了針對AI管制的各種規範,而這些不同模式之AI治理模式的興起,也引發了國際間合作的挑戰。隨著AI在線上服務與物理裝置中越來越普遍,任何新的管制政策,都會對全球市場造成嚴重的影響,而AI本身的多樣性特性—可以被訓練與應用於各種不同的模樣,也讓此種情況愈發複雜。例如,AI系統可以將主機架設在雲端,並透過網路從世界任何角落遠端操控,重新訓練(retraining)與遷移學習(transfer learning)可以讓不同團隊在不同的國家間共同利用多個資料庫來訓練同一個AI模型;邊緣運算(edge)與聯盟式學習(federated learning)的技術也讓全世界的物理裝置共享資料,並影響其AI模型的功能。
 

這些因素都讓AI治理變得更複雜,但進行必要的保護以盡量減少AI帶來的傷害仍是勢在必行的,理想的結果是在政府的合理監管下運行全球AI供應鏈,甚者,國際間如果可以有更統一的AI治理方法,不但可以使監管更加強化,也可以藉由政策引導國際間研發人員的研究方向、解決共同遭遇的問題、並提倡共享最佳的應用、資料、與程式碼。

2021年九月TTC於匹茲堡首此舉行的會議中,相較於其他多年以來的議題—半導體、外資審查、出口管制等,還包含了關於AI政策的討論,雙方與會者皆對會議中對於AI治理的共識表示樂觀,其中特別提及如基於風險分級方法,與政府社會評分等極端案例(見TTC會議附件三)。
 

會議中擬議的AI管制法案,將對包含數位服務(例如雇用)及物理產品(如醫療設備)等各種高風險AI應用進行管制及監管;此項法案也會對其他種類的AI應用造成影響,例如要求低風險AI揭露部分必要內容(透明性),或是禁止某些種類的AI應用。該法案將減少國際間管制的隔閡,也可能將造成國際間AI相關往來貿易量降低。雖然該法案會如何執行,還存在許多不確定性,目前看來將由歐盟會員國內的管制機關負責大部分的工作。值得注意的是,即使該法案通過,到生效前還會有一段時間。參考GDPR的例子,近期Amazon 與 WhatsApp分別因為違反隱私條款,分別被處以746,000,000與225,000,000歐元的鉅額罰款,該案例顯示歐盟雖願意行使其管制權力,但大部分重大的罰款,都是發生於GDPR通過後四年以後、GDPR開始執行後兩年。如果AI法案也比照相似的時程,那歐盟還會有幾年的時間才會正式開始執行嚴格監管。
 

美國AI治理的---加速進行及向歐盟靠攏

美國採用漸進式的AI治理發展,雖然鮮有重大突破,但也慢慢形成其AI治理的方法。政府許多機構,如美國食藥署 (Food and drug administration, FDA)及交通部 (Department of Transportation, DOT),多年以來不斷努力將AI議題列入其管制範圍。
 

拜登政府更加速AI管制的步調,聯邦貿易委員會(Federal Trade Commission, FTC)首先於其部落格上發表了一則重大貼文,並開始制定規則要求相關機構必須將AI的歧視、詐欺、和數據濫用問題列入其職責。此外,美國住房及城市發展部(Department of Housing and Urban Development)開始執行一項有別於川普政府時期所規定的演算法,即杜絕居住相關的歧視問題。同年十月底,公平就業機會委員會(Equal Employment Opportunity Commission)宣布其即將發表一項新措施,關於用於雇用和工作場所保護的AI系統;再來,五家金融監管機構已開始調查金融機構中可能影響風險管理、公平借貸和信譽的AI應用;最後,美國國家標準技術研究所(National Institute for Standards and Technology)也正在開發自己的AI風險管理架構。

這一系列的政策,其管制方向開始看起來與歐盟所謂的「高風險AI」的方向類似,而實際上,由於歐盟制定與執行AI法案可能需要數年的時間,美國可能因此會在許多實用領域中的AI管制取得領先地位。除此之外,拜登政府工作人員更表態凸顯其對AI議題的重視—包含FTC的AI現代研究所(AI Now Institute)聯合創始人 Meredith Whittaker,以及白宮科技政策辦公室(White House Office of Science and Technology Policy, OSTP)的AI危害專家Suresh Venkatasubramanian和Rashida Richardson;為回應對 AI 權利法案 (AI Bill of Rights)的呼籲,OSTP 還舉辦一系列關於生物識別技術和其他具有 AI 的公共活動。這些發展都表明拜登政府對於AI管制的策略,與歐盟制定的風險管制、兼顧科技與人權的發展方向相同。

 

監管合作與治理方向建議

就以往的背景而言,美歐間並非傾向於制定一致的法規,且雙方監管方式的分歧、與非關稅貿易壁壘的都有許多實例。然而近年來美歐兩邊的政策發展,都顯示了政府對於保護市民免於AI傷害的相同方向有著重要進展,且AI管制的制定或許剛好適合消除此種政策的不一致性,AI的特性使其需要包含許多技術細節—如特定的數學公式等,需要誠實且透明的交流。
 

除規避貿易壁壘外,雙方一致的管制方法,也可以更加強政府的監管,不同政府間若執行相似的AI管制方法,可以增加抓獲最嚴重的違法行為的機會(例如跨國企業的違法行為)。此外,美歐政府間若對於AI的議題之不同面相關注的優先順序存有一致性,可以向民間社會與學術機構傳達明確的訊息,將各方的調查與研究往共同關注的方向引導。
 

為達成長期AI政策的一致性,美歐雙方可以考慮諸多漸進且可行的方式:

1. 自制定AI相關的通用定義(common definitions)開始著手。

2. 鼓勵更多訊息共享,例如國家標準機構之間的合作。

3. 在監管上積極合作,例如:

(1)鼓勵特定部門溝通與合作,即任命一個中央辦公室(如貿易總局和商務部)作為國際人工智慧監管協調員就如何避免未來規範的衝突提供建議,以預防未來可能遭遇的困難。

(2)採行共同的監理沙盒,就新興AI系統進行共同協作實驗與測試,以幫助制定更好更一致的管制策略。甚至可以發展共同監督線上平台的方法,美歐雙方可允許研究人員研究彙集兩大洲的資料庫,以提升對線上危害的理解。

 

如這些做法被驗證有效,美歐雙方就能對AI系統的監管制定一致的流程和規範,總而言之,歐盟與美國雙方應該就TTC會議上討論的範圍內,採取更積極的管制合作行動,並為更廣大的國際社會與AI治理方法作好準備。


https://www.brookings.edu/blog/techtank/2022/02/01/the-eu-and-u-s-are-starting-to-align-on-ai-regulation/