AI觀察站

你所見不一定為真--AI與DeepFakes(下)

AI的預測功能如此強大,不僅可以用來預測明天天氣、行為模式、圍棋落點......還可以用來預測你的語氣、表情以及衣服下面的身材。聽起來遙遠嗎?其實這樣的技術已經大有人在。你可以不懂AI技術,但你一定要了解DeepFakes,否則下一個被騙去銀行存款的可能就是你。本文摘譯英國資料倫理與創新中心(Centre for Data Ethics and Innovation; CDEI)今年九月之報告,分為上下篇以利我們能迅速掌握與之相關的問題。

上篇:https://www.aili.com.tw/article_detail/66.htm

deepfakes是否是個威脅?
Deepfakes被很多人視為對個人和社會的重大威脅。英國衛報在2018年11月的一篇報導寫道:「你認為假新聞很糟糕?Deepfakes使得世界沒有真相。」時代雜誌2019年2月標題也寫:「Deepfake影片威脅到世界的秩序。」這些恐懼是否會成真取決於deepfakes研究的進展,以及他們實際上是如何被使應用的,此外人們判斷是非的能力也很重要。色情影片中的臉部替換已經造成許多人的困擾,雖然主要的受害者都是名人,但其實一般的社會大眾也有可能成為犧牲者,一名印度記者Rana Ayyub在他的照片被誤植到色情影片中後受到極大的創傷。

還有些人擔心deepfake會損害到政治環境,兩名美國的法學教授Danielle Citron及Robert Chesney 提出了幾個造假影片會影響民主體制的可能情景。政治人物參與犯罪活動的deepfakes可能會嚴重影響選舉,美國士兵虐殺他國民眾的偽造影片可能引發世界規模的抗爭。

除了影響個人的權益,deepfakes也可能讓影片的真實性被懷疑,目前犯罪調查所用的影像證據在未來可能無法被正當的使用,因為沒有人能夠判斷影片的真實與否。

和其他所有的科技一樣,不同群體可能會受到不同的威脅,有人說對於開發中國家的民眾,數位識讀的能力仍然不足,更可能受到deepfakes的欺騙。Deepfake有可能因此被極端份子作為挑起事端的工具。

以上的觀點並不是所有人都同意,有些人認為這些種種的論點都是針對未來不一定會發生的事而擔憂,並非不能反映deepfake目前的真實情況。事實上目前deepfake的技術要做到無法被人類辨識真偽幾乎是不可能的。Alan Zucconi 說像FakeApp這種軟體能合成出來的影像都是很粗糙的。這也是為什麼目前我們仍未看到deepfake引起太嚴重的政治事件。

然而deepfake雖然不完美,卻還是能造成很大的傷害。一些deepfake色情影片雖然合成的很粗糙,觀看者也都知道影片是假的,受害者卻還是遭受嚴重的心理創傷。對影音些許的修改就可能造成很大的誤會,而這些操作並不需要太深奧的AI技術。“Shallowfakes”就是指這些只使用簡單的技巧,如放慢講者語速、更改影片中的標語,而和原始影片原意完全不同的影片,這些編輯並不需要什麼專業技術,卻能造成很廣大的影響。

Deepfakes的應用並不一定只有惡意用途。在影視業後製是很重要的一環,而現在的後製也開始使用最新的科技來讓演員在無法出演時正常拍攝。而在醫療方面,聲音合成技術也可以讓失去說話能力的患者可以使用人工聲音與他人對話。



我們該如何面對deepfakes?
有許多原因使得我們必須謹慎面對這些合成影片。在完美的deepfakes技術難以實現以前,即便是簡單的技術就可以造成不少傷害,我們也預期deepfake的技術在未來會越來越進步。因此我們必須建立一個牢固的管理系統,包含適當的法律規範和篩選工具,來確定我們能夠知道哪些內容是真實的,並且在偽造的內容造成傷害以前將他們移除,我們可以做以下的事:

1.    法規
世界各地的立法者都在考慮制定新的法律來制止各種影音的假資訊,在紐約,立法委員們正在討論禁止使用人的“數位身份”(digital replica),因為這些東西都屬於個人的財產。在美國國會也正在討論對製造有害的deepfakes的罰則。2017年德國政府通過了新的法案,制定在網路上傳遞有關種族歧視或散播其他有害的內容的刑責,這些罰則也可以對deepfakes進行限制。

但也有批評者認為針對deepfake立法是無效阻礙發展的,因為deepfake的製造者是誰很難判定,而這些新法可能會讓deepfake在正當用途上的發展被停滯(見BOX1),而執行這些法律可能也會破壞人們應有的言論自由。
不論如何,法律規定能夠讓這些網路平台對自己網站內容的審核更加謹慎,也讓無意間被傳遞的有害資訊降到最少。

2.    偵測
影像鑑識在犯罪調查上已經被使用很久了,而他們也可以被用來判斷deepfake的產物,有一種影像鑑識技術可以利用生理學檢驗人在影片中的行為是否合理,進而判斷一段影像的真偽。專家對於影像鑑識是否能夠篩選出deepfakes影片仍有許多不同的意見。Hany Farid擔心這些人會根據新的偵測技術出現調整自己的方法,但有些專家認為偵測技術的提升是足夠迅速的,尤其是針對AI生成圖像的辨識。有一個利用AI技術製作的工具叫FaceForensics,以數十萬張後製過的圖片dataset,成功達到比人類鑑識團隊還高的辨識率。Facebook等社群軟體也逐漸開始在影音檔案上新增篩選機制,用來過濾假的檔案。

3.    教育
第三種用來管理deepfakes的方法是大眾教育,主流媒體已經成功幫助人們提高對deepfakes的警覺,許多科技公司也不斷的教育社會大眾有關deepfakes的知識,一家製作合成影片創作的公司Synthesia也計劃製作一些教育性的內容來提昇年輕人的數位識讀能力。然而這些內容是否能夠對人們判斷deepfake影片仍有待觀察,為了更有效率,對大眾的教育應該更著重於長期有效的判斷方法,而不是介紹一些短期內就可能過時的技術。
 


我們現在能做什麼?
不論是制定新法律,加強過濾機制或提是升社會大眾的警覺,我們有很多的方法可以加強對deepfakes和shallowfakes的監督,然而這些介入會造成什麼樣的影響有我們仍有許多是未知的。政府、科技公司、各領域的專家仍在持續的探索如何控管這項技術又不限制他們的發展。這篇文章並沒有要提出非常正式的建議,但我們對於相關單位如何建立有效控管機制還是有一些意見:

英國政府:
數位文化媒體運動部(The Department for Digital, Culture, Media and Sport, DCMS)應該要把deepfakes納入他們目前對假資訊的研究中,DCMS也可以邀請一些deepfakes共同進行討論。

研究單位:
英國研究理事會可以協助發展deepfakes對社會影響的研究,或者是贊助新過濾技術的發展。人們對於影音偽造訊息的研究原本對文字的研究低很多。舉例來說,我們並不知道哪個族群更容易受deepfakes的欺騙。

媒體:
新聞媒體可以使用一些deepfake的偵測工具,並建立有關的影像鑑定部門,確保他們不會不小心傳播假消息。同時,當記者在報導deepfakes時,應該注意平衡報導deepfakes的好處及壞處。

科技公司:
所有的科技公司,特別是社群影音公司,都應該加強他們對加工影音的管理政策,他們可以互相分享最新的技術來彼此幫助。Facebook最近就宣布要公開他們有關deepfakes的資料集,這對專家們研究deepfake偵測工具會有很大的幫助。

一般社會大眾:
一般民眾在看一個來源可信度不高的訊息時,應該更加小心謹慎。在觀看一段影片時,應該檢查他的來源是不是可靠的,並且在網路上尋找不同版本的影片來做檢驗。

這篇文章只針對deepfakes短期的威脅做評論。因次我們建議研究人員、記者、立法者繼續關心各項研究進展,例如:
需要更少訓練資料或運算資源的技術。
能夠讓一般人簡單產生精緻deepfake的產品。
在聲音合成技術上的突破,因為這會使得臉部替換後的影片變得更加真實。
deepfake偵測技術相關的研究發展,和各個研究機關在這項研究投入的資源。
社群平台在deepfake偵測技術方面投入的資源。