AI倫理

發展符合倫理的人工智慧技術 Legislating an ethical AI approach

  隨著人臉辨識系統在全球持續地發展,各國政府已著手討論規範該技術與其他使用人工智慧的科技。在過去的半年裡,已有不少的模式是針對人臉辨識系統的開發。

  中國當局正在進行一個強動機模式,即他們投資國營企業與營利的科技公司,進而控制企業並取得戰略優勢。中國使用人工智慧技術來監控公民,甚至是他們正在發展備受批評的社會信用體系。光譜另一端的模式則是強管制模式,該模式已經在美國許多的市政府推行,主要是限制警方偵查與市政監督計畫時使用人臉辨識系統。而許多國家正處於此二種模式的中間地帶。

  涉及人類行為的資料容易被偏見所影響,但機器不會考量到種族或是其他較敏感的人權議題。因此,機器可能會複製人類的偏見,包括種族歧視、仇視同性戀以及其他歧視的行為。例如於二零一七年,史丹佛大學有一項研究是利用人工智慧來辨認出同性戀,而這在汶萊、伊朗或其他立法禁止同性戀者的國家中,這種技術很容易變成危險的工具。

  人臉辨識系統同樣也會侵犯隱私權。某程度來說,這也是為何一些美國的市政府會暫緩使用人工智慧在刑事與行政領域中的原因。在五月,舊金山禁止執法部門與其他部門使用人臉辨識系統。在六月,麻薩諸塞州的薩默維爾市議會,以十一比零的壓倒性票數,禁止使用人臉辨識系統。在七月,加州的奧克蘭市政府禁止使用人臉辨識系統,它也成為美國關注人臉監視系統議題的第三個城市。

  這些城市關注於人工智慧的倫理道德與機器學習。在沒有州與聯邦政府的準則下,他們首當其衝地在進行立法工作。有一些國家與兩個區域組織已對此在採取行動。儘管不具有拘束力,然而在過去的半年中,已出現了許多道德準則,因為這些準則可以在不破壞各國產業政策的前提下,而為有利於處理人工智慧的方法。

  在新科技產業中,要在資料隱私、網路安全問題與獲取商業戰略優勢的期望中取得平衡,是非常不容易的。從現在來看,這不僅是期望控制人工智慧的國家之間的競爭,同樣也是由誰來管制的競爭問題。

  目前澳洲和英國已有對於人工智慧的倫理道德草案,而在英國脫歐時,歐盟於四月也釋出了有關人工智慧的倫理道德法案。即使是捍衛社會信用體系的中國,也有制定準則。

  「人工智能北京共識」是由中國科學技術部與北京市政府所支持的北京智源人工智能研究院所發布,該共識提出十五條原則,為了打造有益處且負責任的人工智慧。該共識是與北京大學、清華大學、中國科學院自動化研究所、計算技術研究所合作開發,其中還包括中國三大科技公司的支持:百度、阿里巴巴與騰訊。

  經濟合作暨發展組織當然也會參與其中。

  經濟合作暨發展組織從向世界發布的「跨國企業指南」機構中,發展出「人工智慧準則」。約有四十二個國家簽署了這些政策指南,以確保人工智慧的系統是安全、公平與值得信賴的。經濟合作暨發展組織雖然沒有法律拘束力,但是人工智慧準則已被證明,在規範國際標準與協助政府設計國家立法方面有很大的影響力。這可能是具備良好的道德權威,以及為這些領域的習慣國際法奠定基礎。

  世界經濟論壇也要制定自己的政策準則也就不足為奇了。如果主權國家無法制定正確的基準與規範,大型科技業者隨時可以踏入並自我調整。Google的AI for Social Good計劃就是一個很好的例子,但該科技巨獸因非法追踪未成年人在YouTube上的偏好並獲得廣告收入而被處以罰款,因而喪失了許多商譽。於二零一五年,由於Google+存有安全漏洞,即它允許第三方開發人員可以取得使用者的資料數據,因此Google不得不關閉Google+。

  由大型科技業者組成的自律組織可以填補法律的漏洞。

  台灣的「台灣AI行動計劃」提供了一個絕佳的機會,它不僅可以開發智慧科技,同時有助於倫理方法應用於人工智慧的發展與部署。

  在強動機模式與強管制模式之間尚存有很大的立法空間,藉以展示如何最佳地規範人工智慧。

 
原文刊載於James Cooper.(2019,September 18).Legislating an ethical AI approach.TAIPEI TIMES,P.8 .
經作者同意後,授權翻譯轉載。