AI倫理

人工智慧是如何變成社會統治工具

隨著人工智慧日益普遍地應用於社會生活各層面,我們如何平衡於享受人工智慧帶來的效率智慧生活,同時又要警戒於人工智慧可能失控或過度控制我們的生活?對這問題的探索必須先問,我們擔心的是怎樣的控制。你若聽說過正在中國發展試用中的「社會信用評分制度」是怎樣運作的,應該不會認為前述的擔心過於遙遠。所謂社會信用評分制度就是讓每個人都按照其社會行為之信用度被計分,低於某個分數的公民將無法購買高鐵票或機票,或者對其申請銀行貸款或社會福利給付會有影響。這樣的制度從杭州、南京、成都等十幾個城市逐步推展開來,竟沒有引發全面的社會反彈,難道民眾真的心甘情願被如此控制嗎?人們真的能信任這個評分系統運作的公正性嗎?
 

這樣的社會信用評分制度是如何一步步打造起來的?首先是因為一年前中國出現的P2P信貸倒閉潮,許多投資者求償無門,因此中共順勢推出對企業的信用評分系統。打擊失信企業,讓其無所遁形,社會大眾鼓掌叫好。接著這個系統延伸到對於賴帳詐欺的個人進行公示,民眾看電影時會看到這些「老賴」們的姓名影像公告周知,甚至可用手機看到這些「老賴」的分佈地圖,大家仍然覺得這些社會敗類就是應該揪出來,這系統可讓大家不要受騙上當。然而這套系統既已成熟,接著中共就將「財務信用」轉換成為「社會信用」,任何人只要有違規紀錄就會被扣分,並且其效果不是只有公示,而是限制其市民生活的基本權益。這時民眾才發現,自己莫名其妙在告示板上被列為低分,不是因為自己做錯了什麼,而是因為你跟那些有權力給分數的官員不是好朋友。更重要的是,這個系統的大問題不是因為它被不公正地執行(雖然這是必然的),真正的問題是它展示著當代科技的完美極權統治模式
 

因為中共同時還全力普及另一項技術,就是全面社會監視臉部識別系統,因此一舉一動都逃不過被記錄的可能。臉部識別技術本身是中性的技術,可用於正面的社會用途,然而一旦結合了社會信用評分系統,它在瞬間就變成了極權統治的工具。因為每個人隨時被記錄並會影響積分,社會等同於極權的監獄生活。中國不僅在國內普及這樣技術的應用,還積極結合一帶一路政策向周邊國家輸出此技術產品。根據「日經亞洲評論」報導,中國已經提供18個國家此種影像監視與臉部識別技術,包括東南亞的泰國、越南、柬埔寨、馬來西亞等,也包括非洲的辛巴威,中亞的烏茲別克等國。此種技術輸出具有兩層意義,一是透過大量的國際採用可以讓中國的臉部識別技術獲得更多的機器學習資料,將會提升其監控能力。另一意義則是對外輸出反民主的極權控制工具,同時也建立了反西方政治價值體系的國際聯盟,這是歐美國家最擔心的。此所以美國政府已經表明,考慮將監視系統的龍頭公司「海康威視」列入科技出口管制的黑名單,這背後涉及國際政治價值體系對抗的基本佈局。
 

人工智慧的技術特性可簡單區分為識別能力與預測能力,而極權政府使用人工智慧的目的在於創造心理恐嚇,重點不在於是否能從數據準確預測社會行為,而是要精準識別每個人民。為達此技術能力,積極向海外輸出此技術以蒐集到更多資料進行機器學習是很正常的。相較之下,我們固然也常看到歐美社會在擔心並檢討自身的人工智慧應用可能導致黑箱決策的社會,但細究兩者卻是很不一樣的意義。歐美社會普遍擔心的是運用人工智慧的預測能力來決策,會導致政治的透明性及可問責性不足,因為變成演算法決定的社會政策。像紐約市最近就組成一個委員會來讓各界參與,檢討該市政府使用演算法來進行教育或福利資源分配的合理性。紐約市府運用大數據的預測能力是希望有效率地分配資源,若運用得當應是有助於政策目標之達成,但過程中可能出現非預期的偏差歧視,因此市民要求此工具應用的透明性。反之,出於極權控制與政治恐嚇目的的人工智慧技術應用,在使用動機上就是反民主的,根本難以期待有透明性及問責性可言。
 

當我們在擔心演算法可能控制著我們的社會生活,甚至因非預期的計算失誤或資料偏差而讓社會秩序失控,我們可能更要警戒那些極權的政體透過演算法在不斷強化他的統治能力,而且這樣的統治技術不是僅依賴著科技,還憑恃著被統治的人民彼此間的仇視或不信任,因此完全沒有政治問責的能力與意念。畢竟,唯有已經失去互信的社會,才會讓執政者可以打著「維護社會信用」的名號來進行監視統治。可是,人民不該忘記,是怎樣不透明無問責的政治體制才打造了這樣失去互信的社會