國際政策趨勢

華爾街日報指出FB打擊仇恨言論的AI 並未達到其宣稱的功效

Facebook公司的高層長期以來一直表示,AI能解決該公司目前所存在的問題,將其所認定的仇恨言論、暴力行為和未成年使用者排除在該公司的社交平台之外。
 

但根據《華爾街日報》日前的報導,這願景可能比該公司高層暗示的還要來得遙遠。FacebookAI無法識別出以第一人稱為視角所拍攝的槍擊影片和種族主義言論,甚至無法辨識出鬥雞和車禍之間的差別。

且在《華爾街日報》所引用的內部文件中顯示,該公司的自動化系統只刪除了一小部分的仇恨貼文,而其比例可能只有個位數。當演算法無法識別貼文內容是否違反規定,該將其刪除與否之時,平台會減少該貼文的曝光度,但發布該貼文的帳號卻不會受到任何懲罰。
 

此外,在兩年前Facebook就已經減少人工審查仇恨內容投訴的時間,並進行其他調整以降低整體投訴數量。這使得該公司更加依賴AI來執行其平台守則,並在公開的統計數據中誇大其成效。
 

一位Facebook工程師預估該公司的自動化系統所刪除的貼文比例,可能只占所有仇恨言論貼文的2%,更表示除非Facebook的策略進行重大的變更,否則在中短期內很難將其比例提升至10-20%以上。
 

在今年3月,另一組Facebook團隊也得出了類似的結論,認為該公司的自動化系統只刪除了3-5%的仇恨言論貼文,而暴力以及煽動行為的貼文更是只有0.6%
 

民權團體和學者長久以來對於AI偵測率顯示出來的進展,都抱持著懷疑的態度,並表示這似乎與使用者的體驗或是他們的研究不相符。「Facebook永遠都不會揭露出他們在做的事。」民權團體Color of Change的會長Rashad Robinson如此表示。在去年,因Facebook未能有效的控制仇恨言論,該團體協助舉辦了一場廣告商的抵制活動。
 

對此Facebook誠信部門的副總Guy Rosen透過官方部落格表示,仇恨言論在Facebook的盛行率在過去3季中下降了近50%。而且僅透過貼文的刪除來看Facebook如何打擊仇恨言論,是錯誤的方式。Facebook對於自動化系統刪除貼文有著很高的標準,如果不這麼做將有可能造成許多的錯誤,「從而傷害到我們試圖保護的人,例如那些描述仇恨言論經驗或是譴責仇恨言論的人們」。
 

而根據Facebook最新的《社群守則執行報告》,仇恨言論貼文的盛行率只占所有瀏覽量的0.05%,換句話說就是每1萬人中僅有5個人看到仇恨言論貼文,比起2020年的0.1%下降了近50%


(圖片來源:Facebook)

但《華爾街日報》獲得的內部文件顯示,某些應該被偵測出來的重大事故貼文卻被AI遺漏掉了,如槍擊事件的特寫、拍攝到傷患的嚴重車禍影片、針對跨性別兒童的暴力威脅等。
 

《華爾街日報》也依據這些文件和員工的採訪,撰寫出一系列的報導。包括該公司給與社會名流、政治人物和網紅的特別待遇其演算法如何助長紛爭早已清楚販毒集團和人口販運者在公開使用其服務,以及其平台如何被反疫苗運動者所利用等。而一篇IG如何影響青少女心理健康的文章,也促使了美國參議院在九月底舉行聽證會。


參考資料

https://www.wsj.com/articles/facebook-ai-enforce-rules-engineers-doubtful-artificial-intelligence-11634338184

https://about.fb.com/news/2021/10/hate-speech-prevalence-dropped-facebook/