AI生活

【李崇僖專欄】自駕車與智慧城市

前幾天受邀參與一場有關自駕車倫理規範的專家座談,發現這個在網路上討論已久的議題,其實在專家之間觀念落差滿大的,而且這不僅在技術專家與倫理專家之間有落差,就算倫理與法律專家之間的落差也很明顯。因此我歸納出一個相關討論的觀念誤區給社會大眾參考,以期將來的討論有所聚焦。


自駕車的運行其實無涉道德判斷

首先,從技術專家的說明可知,自駕車目前的開發並非都是深度學習的AI模式,而是要區分成感知系統與作動系統兩部分,前者包括perception(認知)及prediction(預測),也就是認出外部物體是什麼,以及能預測該物體的移動模式,這部分是發展AI來達成。然而汽車該如何做出反應這件事,並不是以AI模式,而是rule-based,也就是把規則寫明,讓汽車的反應是可預測的。至少以現在還是要有駕駛人在車上的情況來說,這樣的技術架構是比較合理的。也因此,當我們討論自駕車倫理時,經常以電車事件的道德困境為框架或出發點去討論(要撞死五個人還是轉彎去撞死一個人就好),這個討論其實把汽車比擬為人,只有人類才會需要做道德抉擇,機器並不需要。而因為我們想像自駕車的行動是AI主導的,因此很容易聯想比擬做人類,但其實自駕車沒有道德判斷,甚至沒有對行動的判斷選擇機會。自駕車的規則設定不應該去判斷該撞小孩或是老人,無論哪一種決定都是不倫理的。

這個討論落差就出現在我們對於「倫理」這個字眼的想像有很大的範圍,哲學家會傾向去思考道德哲學問題,那就是倫理困境的兩難情境,這些情境足以讓我們產生道德意識,認知自己的道德傾向為何。不可否認有許多倫理問題就是道德兩難問題,然而倫理議題在法學者的眼中則比較是討論責任問題,也就是想像倫理內涵是社會的共識,相關行為者有義務應該遵守。具體表現就是律師或醫師倫理規範,這是專業責任倫理。而任何社會角色都會其相應的倫理責任(老師,父母等),用以支持特定法律規範的正當性基礎,或者不寫明於法律時則倫理可成為社會運作的緩衝劑,因為不是什麼事都靠法律去約束,很多事情是靠社會規範去約束的,其內涵就是倫理責任。換言之,哲學家討論的倫理比較偏向道德抉擇,而法學家討論的倫理比較偏向規範體系。如果自駕車仍是機器而不是人類,那麼用道德哲學上的電車困境去討論就會失焦。

從飛機的自動駕駛反思自駕車的倫理規範

自駕車的作動系統既然是rule-based,那麼該寫入的rules就是我們所該討論的自駕車倫理問題。而實際上能夠寫進rules的不會是道德兩難困境的選擇,那是對人類的道德測試,不是用來規範機器的。機器該有的倫理就是:第一、努力改善其功能以減少對社會的風險(例如可以看到更遠的事物,更能預測外界變化,因此能及早反應,不用陷入道德兩難困境);第二、有明確且透明化的運作規則,以及法規相應的責任分配。只要汽車按照規則做反應,廠商就不負有產品責任,該由駕駛人負責或者該思考建立無過失的社會補償制度(當汽車可以完全無人駕駛時,就沒有駕駛人負責了)。但路上實際會發生的狀況太多,以致這些規則很難訂出來,這是目前最大的問題。相較之下,飛機現在也是自動駕駛,而飛航比路上交通安全得多,原因不是自動駕駛很厲害,而是塔台有嚴格的飛航管制,所以空中狀況是比較可控的,而且民用航空法對航空公司課予的重責也使航空公司會注重飛機維修保養。

解決之道應該在更大格局的智慧城市
換言之,解決自駕車倫理問題的關鍵還是在於城市交通規劃與智慧控制,也就是
智慧城市的規劃(如同航線分配及塔台管制),例如未來交通號誌都該建立類似RFID的辨識系統,讓汽車不用圖像辨識而是可訊號辨識。另一方面,駕駛人的責任重點會從駕駛行為某程度轉換成對汽車之維修保養。因此,自駕車技術所帶來的與其說是倫理問題,不如說是法規與責任的調整以及城市治理政策規劃問題。

 



頁首圖片引自:Car vector created by freepik - www.freepik.com