# 司改會xSMC 20231217 講座紀錄 ## 筆記 ### 講座資訊 - 時間:2023/12/17 - 主持人: - SMC 台灣科技媒體中心 陳璽尹執行長 - 講者: - 義謙法律事務所林俊宏律師 - 台師大圖資所曾元顯特聘教授 - 台大語言所謝書凱教授 - 紀錄: - Peter - vTaiwan 後續活動報名連結:https://docs.google.com/forms/d/e/1FAIpQLSehY4iklD2Kj6f2ji-Zh99ZSzV5kAATRWDfJBvoMvD46netFQ/viewform?usp=sf_link ### 講座內容 - 謝:科技進入社會,法律與倫理議題。 - 對於司法院科技的看法 - 觀眾1科技背景:AI 有點黑盒子,但司法應該要有一定明確性。所以只能盡量參與。 - 觀眾2:有使用ChatGPT,認為是省時工具,但認為法官應該要確認跟檢查。 - 林: - 司法院發布新聞時,有點震驚,司法院的能力有這麼強嗎? - 最基本的主張:召開公聽會與指引 - 第一時間的想法:請林律師參加內部專家會議。 - 政策轉彎:改成公聽會。 - 有了指引 - 當初:沒有指引就有系統,似乎反過來了。 - 司法院的草案指引:比想象中好一些。 - 要點: - 強調輔助審判 - 使用者自主原則 - 對比:問 ChatGPT 如果要做司法應用的指引 - 透明性 - 法規 - 反歧視與公正機制 - 公眾參與 - 社會更新 - ChatGPT比司法院完整。 - 法律人角度:是否能夠得到合理公正的判決,另一個角度是如果做得到,是否要來使用? - 機器只能做到判決整理 - 司法院提到,想要降低法律的工作量。 - 疑慮:當機器幫忙做整理時,整理作為篩選相關資訊的過程,就是做決定。 - 防範機制。 - 具體的操作細節:還不知道。 - 公聽會是很低度的參與程序。 - 陳: - 目前的應用有限制在某些領域的案件上,原因是? - 目前是應用在人頭帳戶、毒品、車禍 - 原因:數量大、案件類型較為單純 - 是否真的單純? - 在具體案件的脈絡中,會需要討論案件的背景訊息 - 變化性很強的態樣,是否真的適合用人工智慧來判斷? - 林律師覺得司法院有點誇大相關的能力 - 人工智慧系統很厲害,就很難控制。 - 司法院不是人工智慧的專業單位。 - 社會影響評估是否要先做好?對於司法院來說,法官工作負擔是更優先的事項 - 在法律上擔心重複出現的偏誤會是什麼? - 這個偏誤是確實存在的。但在現行的訴訟程序中仍然有可能出現 - 但人工智慧的出現,會讓判決過程被固定。 - 司法判決的另一個價值:捍衛某種價值。 - 司法判決也是法律變遷與進步的場域:現在的看法,在過去是不可以的。 - 人工智慧可能會造成法律演進的停滯 - 法院直接接觸證據與評價證據:直接審理的要求,可能會被人工智慧的介入所影響 - 直接審理原則:法官直接審理與接觸證據。 - 輔助是輔助什麼?幫忙整理資料?人工智慧會如何摘錄資料?思維面向是否是相同的? - 摘要資料本身就會是價值選擇。 - 曾: - 科學傳播:十年前有寫過科學文章,認為science communication很有意義。 - 問題回應: - AI 幻覺?AI 偏見? - 對於司法院的判決系統是不清楚的。 - 如何監督與管理生成的內容 - 技術開源 - 訓練資料開源 - 訓練資料有偏見,AI就有偏見 - 也包含茲料量大的贏,量少的輸 - 將人工智慧視為助理 - 目前的系統是非常誤導:一鍵生成 - 讓人工智慧提醒法官是否有沒有考量到的部分,這一部分人工智慧是有優勢的,例如常見問答集的審理,因為人工智慧系統有相關的資料,觀點就會更周到。 - 人工智慧的原理 - 目前的生成式人工智慧就是語言模型 - 目前司法院使用的TMT5的基礎預訓練模型,以 chatgpt 等級來說,不算是大型語言模型。 - 司法院利用T5這個語言模型,來微調與訓練。 - T5模型 2019 Google 發布: - 文字與文字之間轉換器 - 訓練方法:指示在前+文句段落 - 範例:翻譯與摘要 - 訓練:輸入資料後,針對輸出資料進行評估,以調整模型的權重。 - 其技術背後就是一個單純的神經網路: - 將文字轉為向量,再從向量到文字。藉由訓練的參數輸入,有越多的區塊,模型就會越大。資料越多,向量越多,區塊越多,就會越精準。 - GPT: 2018 第一代 2019 第二代 2020 第三代 - 資料量才是重點,因為網路架構都是開源的,LLAMA2是180萬個GPU小時來建立模型。微調訓練我們還是做不到。學校實驗室做不起來(GPT3以上就不行) - 結論:司法院的技術絕對不如 chatgpt,如何協助法官判斷。 - 如何自動生成文字? - 條件機率問題:在獲知前幾個字詞後,準確估計下一個字詞的條件機率 - 如何建構:問題上稱為條件建模 - 語言解碼: - 輸入一個詞,AI 會選擇機率最高的給我選 - 目前已經無法由人類來判斷,裏面已經沒有人工給的規則,而是他訓練的文本 - 有效的語言建模: - 以神經網路來閱讀大量高品質的文字 - 我如何預測下一個字的方法:解碼演算法 - 會生成訓練資料裡沒有的文句(創造) - 訓練資料中有足夠的案例,就會影響生成結果 - 輸入資料也會影響到生成結果 - GPT擅長移花接木 - 用經濟新聞來訓練 [相關論文](https://web.ntnu.edu.tw/~samtseng/papers/2020_GPT_News_1027.pdf) - 在長句的時候:生成內容與捏造內容密不可分。 - AI 法官 - 愛沙尼亞:試辦人工智慧法官 - 沒有發展的新聞 - Casetext 服務 - 回應剛剛醫學的問題 - 醫學的資料已經是千錘百鍊,法律跟人工智慧還沒看到大量的實驗。 - 通用的案例試驗尚未出現,特定的是有可能的 - 但是沒有看到數據,很難質疑 - 沒有開源跟公開,人工智慧很難走到這個地步 - 謝: - 法律的:人工智慧的發展是黑盒子與灰盒子的狀態,為何相信科技,是因為科技是可控可以了解的,目前人工智慧有滿足?當人工智慧法官出現後,人類是可以選擇的嗎?如果系統真的有一個 insight,我們要聽嗎? - 技術的:我支持開源,但是 / 技術運作飛快,但調整要時間,呼應林律師提到,司法院是否有足夠能力來做這個事情?/ 如果技術真的到位了,未來我們要怎麼做? - 對於人工智慧的想像是現在的想像,但是人工智慧的議題很多是未來才會遇到的。人工智慧固然更穩定,但是其仍然依賴人類提供的資訊。 - 司法院規範時,將規範對象稱呼為「使用者」,但是對於一般人有一個「透明性」,但是透明性,應該是不太可能的 - 陳: - 如果技術真的到位,是否應用就會有倫理問題 - 目前判決中考量的資料是過去的判決書不存在的,但是這樣對於當下的事件判斷是否適當?好或不好? [name=林俊宏律師] - 人工智慧幫助人類的同時,價值是否就不存在?[name=林俊宏律師] - 考量現實,開源是什麼意思?政府與企業的人工智慧又是如何? - 目前司法院公布的這四波,我預測能力是很受限的。[name=曾元顯教授] - 系統設計上有更多的解釋,利用 sub sentence 來指出訓練資料與生成結果的差異,人工智慧生成時,可以引經據典來考量,解釋的介面可以很清楚的話,就能降低大家的疑慮,也能讓受影響的當事人加以處理。輔助的措施做的夠多,信任就能多一些 [name=曾元顯教授] ### 綜合與談 - 信任度的問題,是否有調查過對司法系統的信任度是高的嗎?如果跟人工智慧相結合,是否能夠提升信任度?在無法信任人類法官時,或許人工智慧是一條路 - 目前沒有實驗數據加以判斷 [name=曾元顯教授] - 如果不相信過去判決,為何會相信基於過去判決的人工智慧 [name=林俊宏律師] - 人工智慧會有一定的穩定性,與同質性的判斷 - 在制度方面,人的經驗知識也是建立在其他的科學知識基礎上,是否要做更新與演進 - 聽眾分享:目前 OpenAI 使用的方法不是更新與演進,而是以 rule-based 防範可能的風險。目前的大型語言模型,會偏好自身的大型語言模型,也因此用語言模型來規範語言模型來說是不可能的。 - 現在的可解釋性,是用生成式結果來產出藉口,研究人員會認為這是說服使用者的結果,但是用在司法上會有不同的結果 - 謝舒凱老師回應:科學上的可解釋性是,是請人工智慧提供判斷依據與知識圖譜。 - 陳:收斂的話,偏見應該是不可避免的? - 偏見的定義是什麼? - 曾:訓練方式可以被視為是統計上的內差法 - 如果資料基礎多,那生成結果就會比較完整。 - 但是資料基礎少的話,很多時候就會是變動。 - 司法院要告知大家要做什麼?[name=林俊宏律師] - 林:目前指引與應用的出現,就是容許司法院做這件事,但是萬一之後能力突飛猛進時,我們可以做到監督嗎? - 陳:目前判決的訓練資料足夠嗎?過往的判決有偏見與歧視時,我們有辦法做出更好的AI嗎? - 我們面對的是一個什麼都懂的東西,然後要更懂法律 [name=謝舒凱教授] - 從語言觀點來說,目前人工智慧是以自然語言與人類溝通,例如法律上對於「公然」的定義,每個人都有自己的定義,大家對於公然有各自的想像,但法律上公然有判決累積的定義,這是在人工智慧的訓練上,要做到的。 - 如果有一個更好的司法院應該怎麼做?除了開源之外,要怎麼做?司法院可以如何進行接下來的行動? - 實驗方法公開、實驗數據公開、說服使用者,再來推廣。且應該學習醫學,相關指引應該要先出來,指引與流程都應該嚴謹。 [name=曾元顯教授] - 第一件事把指引弄好,指引的生成也要讓大家來討論。再來就是影響評估,來判斷正面與負面影響[name=林俊宏律師] - 第一步是公開,但是科技發展的速度比科學發展的速度更快,內部的輔助使用,接下來才能討論對於輔助利用。[name=謝舒凱教授] - 政府開放資料的作業指引,那就開源,大家來共筆,藉由國發會來訂指引。 - 目前共筆的機制可能會有篩選效益 [name=陳璽尹] - 可以透過代理人機制來處理 - 開源有一個蠻大的風險,大家都能預測司法會發生什麼事,會快速放大偏誤。 - 我覺得這不是風險,以後的技術會越來越快,這些技術會發生,且一定會發生。這不是問題,下一個問題是可不可以讓他們更有信賴感。 [name=曾元顯教授] - 陳:剛剛的討論中,觀眾有沒有回饋? - 這些系統即便利用了,或許也可以公開給律所做使用,提供刺激與進步的方向。或許在第一審可以做利用,背後有制度與人事可以做把關 - 做研究的老師要怎麼知道人的意見?[name=陳璽尹] - 人工智慧應用於判決,將來還要三級三審嗎?這是要在指引上路前討論的。在可以調整的前提下,誰來決定權重與比例?[name=林俊宏律師] - 目前可以調整的部分是,各種訓練的資料的比例。 [name=曾元顯教授] - 在另一種調整時,有一個面向是內部判決做改變。例如將國外的判決變成向量資料庫,在系統覺得有必要時就可以援引。[name=謝舒凱教授] - 同樣的問題,會出現在社福等層面,目前如何進行賦能與取代 - 目前有paper ### 觀眾問題 - 相關指引:可操作性的問題 - 抽象與具體的規範 #### 法律疑慮 > 預設是林俊宏律師回答 - 是否跳得太快?輔助也有可能類似資料庫,如果將其作為提供資料的依據?提供法官來做判斷? - 單純資料整理:不一定要用到人工智慧。 - 但司法院的輔助判決尚未明確。 - 縱使是資料整理,仍然要一定的脈絡 - 人工智慧協助撰寫書狀的問題,問題是會牽涉到被告的命運嗎?醫療現場會依賴分析系統,機器的分析系統可以幫助人類醫生下決定?讓AI來寫判決書會比讓人來寫判決書還差嗎?人類本身有自己的感情。 - 人工智慧會生成公平公正合理的判決,是否合理? - 判決本身不是很機械化的工作,會有很多人類與社會價值的取捨,與醫學科學判斷不同。 - 這一次的指引,影響最大的是法官?目前司法實務上有量刑表與書類機制,是否對於法官產生影響? - 當時提出時,司法院並沒有說明 - 指引出來是雙面刃,會影響人民對於司法信任。風險在於人民會不會因此對司法信任動搖? - 人的成分會被機器弱化, - 我們要的判決是,同樣一包證據,是誰來判都有結果的穩定性與規律化,還是法官會有個人意見比較好?再來就是協助上,例如親權酌定中,透過連結來mapping,決策支援的兩個層次:事實上的分類與判決內容生成,哪一個是可以被接受的? - 法律判決的決定性與安定性在現在是會被追求的,但是很難找到個案完全相同的。 - 問題在於後面的價值考量是否能夠全面性地被考量,讓判決成為固定與僵化的判決。 ### 總結 - 曾:五年十年之後,這些問題都可以獲得驗證。 - 林:這個技術是必然會到來的,但是作為司法相關NGO,會擔憂的是是否走得太快,因為司法仍然是司法相關的守護者。 - 謝:未來是人機共存的時代,但至少人的精神還要存在。 ## 紀錄文章本文 司法院於今年9月發布新聞稿,宣布司法院將利用人工智慧協助法官進行判決撰寫等工作。相關新聞利用引發諸多討論。尤其適逢 ChatGPT 等生成式人工智慧技術造成的改變開始影響大家的生活,人工智慧的技術與相關的法律與倫理議題亦逐漸受到重視。民間司改會等關注司法議題的民間團體之後召開記者會回應,提醒司法院要注意相關的倫理與法律議題,避免人工智慧造成的風險,並且應該先提出相關的規範指引,再投入應用。 司法院於是在12月底,就〈司法院及所屬機關發展人工智慧參考指引草案〉召開公聽會。為了讓大眾更加了解這個議題,台灣科技媒體中心與民間司改會在12月17日舉辦講座「生成式AI輔助寫判決書,智慧司法的時代即將來臨?」,分別邀請法律與技術的專業人士,就司法院利用人工智慧輔助判決的議題進行討論。本次講座邀請到義謙法律事務所林俊宏律師、台師大圖資所曾元顯特聘教授與台大語言所謝書凱教授參與,分別對這個議題就法律與技術的不同層面與現場的參與者進行討論。 12月17日,寒流來襲的週日早上,民間司改會的活動場地還是有許多參與者出席本場活動,其中亦包含技術與法律的從業人員與相關專業者。講座由台灣科技媒體中心的陳璽尹執行長拉開序幕,陳璽尹博士分享了台灣科技媒體中心的工作,以及舉辦這場講座的初衷,希望大家對於技術與技術背後的議題能夠在共同的基礎上進行討論。接著便由 vTaiwan 社群參與者 Peter 分享 vTaiwan 目前的專案,以及之後會進行的與本場講座主題相關的意見徵集活動。 謝舒凱教授在引言中提到,新的技術進行會有倫理與道德的問題,於是希望讓大家進行討論。主持人隨後先問觀眾,是否有了解司法院應用人工智慧的新聞?有一位科技背景的參與者提到,人工智慧是具有不透明性與黑盒子的,但是司法的程序要具有一定的明確性,所以自己也只能盡量參與相關的討論。另一位觀眾則是提到,自己有利用 ChatGPT 等生成式人工智慧,節省了許多時間,但是對於司法上的應用,法官應該會在生成內容後進行檢查與更改。