科技倫理

罰10億!歐盟《人工智慧管理法草案》八類高風險技術,台灣業者別踩雷

台灣時間4月21日晚間,歐盟執委會發布了《人工智慧管理法草案》,將交由歐洲議會等機關審議。此法案的影響全面且深遠,卻也非橫空出世,除已醞釀三年之久,相關內容也有跡可循。
 

本文將從歐盟對人工智慧的思維脈絡,初步解析該草案;由於草案內容甚多,本文將不涉及太多細節的制度說明,而是分析歐盟這次立法的背景與決心。
 

2018年起,歐盟從就開始探討人工智慧的發展策略,並制定了會員國的合作計畫。當時列出的目標,就是要吸引投資、人才,並維護歐洲人權價值,但具體的做法並不明朗;當時只知道,最重要的是,歐盟會員國在此事上必須集體行動,不能被美、中的商業力量分化。
 

簡言之,因為科技的變化太快速了,當時的歐盟對人工智慧發展前景,只有「抱團」心態是確定的,其餘都不確定。
 

而在2019年,歐盟的高級專家小組則提出了〈可信任的AI之倫理綱領〉,內容針對人工智慧技術開發與應用該遵守的倫理原則,提出具體七項要素。歐盟執委會強調,這份文件僅是專家小組發布的建議,沒有法律拘束力;而在發布後陸續蒐集各界回饋意見,卻已可嗅出準備立法的風向。
 

對於將來的立法架構,這份文件扮演了重要的標竿角色,將科技、人權與倫理的交錯進行了議題錨定。
 

接著在2020年,執委會以前述各界回饋意見為基礎,頒布了《人工智慧白皮書》,明確提出未來歐盟將規範人工智慧,管制模式是「根據風險區分管制」 (risk-based approach)。
 

至此,歐盟已對於用法規管制人工智慧有明確的意向與方法——為兼顧科技發展與人權價值,優先管制高風險的人工智慧應用,低風險的人工智慧就以該領域既有的法規來規範即可,不必因為是人工智慧科技就另立規範;此原則也具體落實在這次公布的《人工智慧管理法》草案架構中。
 

既然是根據風險區分管制,哪些人工智慧技術會被列為高風險,就是重點。這次公布的草案,將規範對象分為三層次:完全禁止使用的技術、高風險應受事前管制的技術,有限風險和最小風險的技術,則受到最低度規範。
 

因此,只要充分了解該草案定義的第一類和第二類技術,就可大致出評估這法律對人工智慧業界的衝擊了(嚴格言之,規範客體可區分為技術本身或特定領域應用,例如生物辨識是一種技術,而將生物辨識用於防範犯罪則是一種司法應用。本文為行文方便統一稱為「技術」)。
 

「完全禁止的技術」即針對絕對違反歐洲人權價值的類型,本草案第五條列出四項絕對禁止的人工智慧技術,分別是:

  1. 該技術透過操控人類潛意識,達到扭曲其行為且造成身心傷害者。
  2. 該技術針對年齡(老人或兒童)或身心障礙之特殊群體加以剝削,扭曲其行為造成身心傷害者(這兩項定義不明確,要如何判斷是否構成身心傷害?)。
  3. 該技術提供公務機關對人採用社會信用評分,造成對其個人不合理的差別待遇(即中國施行的「社會評分制度」)。
  4. 在公共場合基於法律執行目的,而進行遠端即時性生物辨識技術(也是中國施行的那一套)。例外允許條件,是尋找失蹤兒童之類的犯罪受害人,或基於防範恐怖攻擊,以及針對已被鎖定的重大刑案嫌疑犯。


由此分類可知,第三和第四類技術主要防範國家濫權,第一和第二類技術則可能禁止某些商業行為的人工智慧應用;但執行上需要主管機關更明確的認定標準。但該草案要求各會員國須指定法案的專責機關,有助釐清適用標準。

 

至於高風險的人工智慧技術,雖不被禁用,但會受到嚴格管制;包括事前須先做測試與評估報告,確保訓練資料集的品質,並經主管機關列管核准才可使用。此外,也有嚴格的事後監控、通報與改善義務(詳細的管制規定在此文無法細述)。
 

高風險技術的類型規定在草案第六條,主要引用此次同時公布的附件二及附件三。
 

附件二列出歐盟既有的各種風險相關管制規範,只要人工智慧技術是這些安全規範的核心技術,就會被列為高風險技術。
 

邏輯是,現行風險管制規範的存在有其道理(亦即涉及重要的社會利益保護必要);若交由人工智慧技術落實其規範,則該技術的可靠度就攸關社會重大利益,應嚴格管制該技術的使用條件。
 

附件三更列出了特定技術或應用方式構成的八大類高風險技術,分別是:

  1. 遠端生物辨識技術(不限公務機關使用);
  2. 做為道路、水電等基礎公共設施安全維護的技術;
  3. 在教育與職訓中發揮挑選或評分功能的技術;
  4. 在職場對員工進行管理目的的技術(包括雇用決定與績效評分);
  5. 用來決定可近用特定服務之優先順序的技術,包括社會福利、金融信用、消防或醫療緊急服務;
  6. 作為法律執行輔助的技術,包括類似測謊功能、評估被告或受刑人再犯機率等多種技術應用;
  7. 用於移民、庇護、邊境管制目的之技術;
  8. 提供司法機關法規調查使用的技術。


前述界定的高風險科技類型,無論是技術提供者使用者都須嚴守管制規範,違反者最高將被處罰3,000萬歐元罰鍰或全球營收的6%(以較高金額者處罰)。

 

需要遵守此規範的業者不限於歐盟國家成立的企業;歐盟以外的企業若提供AI產品或AI服務給歐盟地區,或在歐盟地區販售在歐盟境外使用該技術產生的產品,都受到該法律規範。因此,台灣的廠商也必須正視此規範的衝擊。
 

雖然此草案後續審議時間可能長達數年,但AI技術開發也需要相當時程;開發過程應切實做好相關紀錄,否則很難符合該規範要求的透明性等文件要求。
 

此草案將來的立法進度,牽動全球人工智慧科技發展的命運,也與國際政治經濟因素相互糾葛。台灣哪些人工智慧開發方向會受此規範衝擊,也應儘速標定,並提高其技術與產業標準。
 

例如,台灣有科技業者開發員工面試與管理的AI系統,這明顯屬於前述第四類的高風險技術;台灣在醫療AI也投資甚多,若其中應用於急診室之檢傷分類或留院觀察與否之傷病預測,也可能屬於前述第五類的高風險技術。
 

台灣業者開發的技術要推廣到歐洲市場,開發階段就應做好法遵規劃。基於此,本專欄今後將持續對該草案內容進行更深入解析,並從國際政治、科技競爭與台灣角色戰略的不同角度,提出觀點。


原刊登於未來城市,罰10億!歐盟《人工智慧管理法草案》八類高風險技術,台灣業者別踩雷|李崇僖專欄〉