智慧醫療

X-AI:智慧醫療長遠發展所需的關鍵

當前人工智慧發展中一個核心的問題就是「黑箱(black box)問題」:即使撤除智慧財產權法規對個別AI技術的保密與保護,我們人類也只能欣賞AI在圍棋賽中打敗棋王,卻不知道AI是怎麼推論與運算、最後下了這傑出的一手。從美國國防部「國防高等研究計劃署」(DARPA)到產業界的Google及學界(如西雅圖大學、康乃爾大學),無不投入大筆資金與人力,試圖開發被稱為“Explainable AI(X-AI,中譯為可解釋人工智慧)”的技術,以了解AI做成決策的推論方式。

X-AI如何使人理解?

Derek Doran等人於2017年的論文中,指出了二種不同的解釋途徑,一種是“comprehensible system”,我譯為「意會系統」:除了輸入(input)與輸出(output)外,AI在運算的同時釋出文字、圖像等「符碼(symbols)」,讓人類得以憑藉自身的專業知識與直覺,詮釋這些符碼,推論AI的思考方式。另一種則是我意譯為「邏輯系統」的 “interpretable system”,AI直接釋出如函數的線性數學式,人類即能直接知道AI最後是怎麼「算出」輸出值。邏輯系統顯然是最為透明且直接的理解途徑,但意會系統也已經讓黑箱不再完全無法捉摸;Doran的歸納當然也只是一種高度抽象化的分類方式,但也讓我們知道,X-AI的開發已有理路可循,而不僅是夢中空想。

X-AI能做到什麼?

除了滿足好奇心以外,Wojciech Samek等人於2017年的論文中臚列X-AI有四大功能,前二者基本上可以簡化為一項,故:其一是從中發現AI運作的缺陷、藉以改善AI本身,其二是從中向AI學習人類沒想到的、擴張人類知識,其三則是能落實規範(法律、倫理)的遵循(例如歐盟GDPR的「要求解釋權,right to explanation」)。
 

醫療場域中,X-AI更顯重要

不難想見,連AI本身都還在發展期,想要獲得X-AI更是一項奢侈的要求。從開發的成本效益而言,AI的可解釋性未必是最重要的。例如對於自駕車如何處理要撞向五個自招風險的路人或一個無辜路人的「電車難題」、甚至是將風險全數歸於駕駛本身,對開發商與立法者分配風險的政策決斷而言,X-AI帶來的技術功能十分重要;但對於消費端的使用者而言,車禍發生瞬間的已經無暇再做反省判斷,X-AI便無用武之地。

然而,醫療場域中,X-AI對促進醫療技術與醫學倫理的進步,都有十分值得投資的潛力。
 

首先,名醫跟一般醫師的差別,就是要能在常見病徵的表象下揪出「疑難雜症」。同樣是兒童發燒,到底如何診斷區隔出一般感冒,還是有快速致命風險的玫瑰疹、腦膜炎、甚至是厭氧類細菌(難以進行細菌培養)造成的腦膜炎?透過X-AI與人類醫師之間能建立起溝通的橋樑,互補不足以擴張並精緻化醫學知識,而不只是無根據的臆測、或純粹跟著「機率最高」的判斷走。
 

更重要的是X-AI在智慧醫療中的倫理優勢。醫學倫理過去數十年最核心的價值,就是透過「告知同意(informed consent)」保障病患的自主權。過去的「名醫」強調權威,說開刀就開刀、能「治好」最重要;病患是否理解、病患的意願,乃至於延長壽命本身是否叫「治好」,並不是醫生與醫學最關切的事。然而在醫學倫理的發展下,告知同意機制得到法律的保障、與醫師的專業判斷並行,成為醫療決定不可或缺的要件。觀念改變之後,現代的「名醫」不但醫術要好,態度也要親切、說明更要清楚,否則蜂擁而至的網路負評伺候。而事實上,良好的醫病關係也使得醫師更能掌握病患狀況之全貌、更有效遂行醫療之目的。
 

兩相對照之下不難發現,過去的名醫其實就如同一個高明但「黑箱」的人工智慧,只問結果、而毋須向任何人交待理由。智慧醫療引入的AI系統若不具備任何解釋的能力即進行全面而獨斷的診斷與治療,無異於架空法規保障的告知同意程序、病患自主歸零,病患與人類醫師恐怕都難以信賴這個黑箱的決斷。X-AI則有潛力突破這個困境,填補長遠而言全面發展智慧醫療所需的關鍵倫理與技術缺口。

跨領域平台建立

當然,X-AI的解釋力是相對的概念。不論是透過意會系統或邏輯系統,都還是有知識與能力的門檻問題。理想上,固然希望X-AI提供的解釋是老嫗能解,但實際上恐怕需要建立資訊與醫療專業人士的合作平台,統整意會系統與邏輯系統提供的說明,才能提供病患與醫療知識可用、可理解的資訊。因此,制度面乃至於法規面的建構,相信也是X-AI技術面的投資外,必須同步設計與思考的課題。