AILI News

美國司法小組正在努力解決如何監管人工智慧產生的證據

華盛頓特區舉行的聽證會上,美國司法會議證據規則諮詢委員會花了三個小時的時間聽取了計算機科學家和學者的意見,了解人工智能被用來操縱影片和圖像以及製造可能影響審判的“深度造假”風險,然而,在討論結束時,負責起草《聯邦證據規則》中與證據相關的修正案的八人小組決定,一項與人工智慧相關的提案的支持者需要重新開始起草,一些法官質疑當前人工智慧繁榮之前的舊規則是否足以確保證據的可靠性。
 

我不確定這是否是人們所描述的危機,我也不確定法官是否已經擁有處理這一問題的工具」新任聯邦巡迴法院法官理查德·沙利文 (Richard Sullivan) 表示。第二巡迴上訴法院,他指出,到目前為止,很少有法官被要求排除人工智慧產生的證據。在迄今為止唯一已知的案件中,華盛頓州法院法官上個月從三重謀殺案中排除了人工智慧增強的視訊證據。
 

曼哈頓地區法官瓦萊麗·卡普羅尼 (Valerie Caproni) 同意沙利文的觀點。「我認為我們目前擁有足夠的工具,但隨著事態的發展,這種情況可能會發生變化」她說,這次會議召開之際,聯邦和州法院在全國範圍內做出了更廣泛的努力,以應對生成式人工智慧的興起,其中包括OpenAI的ChatGPT等程序,這些程序能夠從大型數據集中學習模式,然後生成文字、圖像和影片。
 

美國最高法院首席大法官約翰·羅伯茨在12月31日的年度報告中列舉了人工智慧對訴訟當事人和法官的潛在好處,同時表示司法部門需要考慮人工智慧在訴訟中的正確使用。
 

證據委員會主席、美國地區法官帕特里克·希爾茨(Patrick Schiltz) 表示,羅伯茨的首要任務之一是「確定司法部門如何對人工智慧做出最好的反應,在某些方面,證據委員會在這方面走在了前端,但他表示,專家小組一致認為一項旨在解決訴訟當事人質疑證據為「深度造假」的擔憂的提案並未按書面規定發揮作用,希爾茨對另一項監管人工智能證據的提案的實用性表示擔憂。
 

這項「深度造假」提案是由美國地區法官保羅·格林(現任杜克大學博爾奇司法研究所所長)和律師莫拉·格羅斯曼提出的。委員會計劃讓他們重新修改他們的提案。
 

另一項提案由加州大學柏克萊分校法學教授安德里亞·羅斯提出,該提案將使機器產生的證據與專家證人受到相同的可靠性要求,但明尼蘇達州法官希爾茨表示,他擔心這樣的規則可能會阻礙起訴,因為允許辯護律師在沒有確定有理由質疑的情況下質疑任何數字證據。
 

羅斯承認這種擔憂,但警告說,由於演算法的不透明性,律師可能因缺乏確定問題的資訊而無法質疑人工智慧產生的證據。
 

原文網址:https://www.reuters.com/legal/transactional/us-judicial-panel-wrestles-with-how-police-ai-generated-evidence-2024-04-19/,路透社

 

反思:

AI資料處理、統整上大放異彩,法院大量的文書、案件也開始仰仗AI幫忙,例如:分類、分案等簡易的工作內容,如果今天AI生成證據,這份證據在法庭上是否具有證據力呢?
 

AI生成的證據是否具有足夠的真實性和可靠性是當前司法界面臨的一個關鍵問題。這涉及到多個核心問題,包括對證據的準確性和可信度的評估,以及如何平衡監管與起訴之間的關係。

人工智慧演算法的應用帶來了潛在的風險,例如:可能存在操縱和造假的可能性。在司法系統中,這樣的風險可能導致誤判,進而影響到當事人的權益。此外,AI演算法的不透明性也給律師挑戰人工智慧生成的證據帶來了困難,因為他們難以確認其可靠性或真實性的信息。
 

在確保證據真實性和可靠性的同時,我們也需要考慮到不阻礙司法程序的進行。派翠克•席爾茨法官就表達了AI生成的證據與專家證人相同的可靠性的擔憂,這可能會讓辯護律師挑戰任何數字證據而沒有充分的理由,從而導致司法程序的延誤。
 

綜上所述,我們需要制定明確的法規和政策來管控AI生成的證據的使用,確保其受到適當的審查和驗證。這將有助於確保司法體系的公正性和完整性,並減少誤判和種族歧視的可能,提高其可信度和透明度,從而保障司法公正和效率。