ChatGPT 在 2022 年上線後,首次向世界展現了現今生成式人工智慧模型的強大潛力。而當人工智慧的各種應用工具爆發性的成長時,這些工具對於個人、團體、社會,乃至於民主政治的潛在危害,也成為學術以及實務治理上迫切的問題。如基於大量資料所訓練出來的模型,可能會重現、強化,甚至是正當化訓練資料中既存的對於特定族群的偏見(Tufekci, 2015)。
然而,對於人工智慧該如何進行治理、監管的討論,目前在世界各國都遇到困境。最大的原因便是現在支撐人工智慧發展的整套系統,對於公眾、監管者來說充滿了各式各樣的「不透明」。從模型訓練資料來源的不透明、理解人工智慧運作的高技術門檻,以及人工智慧技術本身資本密集的特性,都構成了讓公眾難以向開發者、科技公司,或是整體的人力、技術混合網絡進行問責、監督的問題(Mittelstadt et al., 2016; Tsamados et al., 2021)。更甚,在某些情況下,由於人工智慧演算法本身高度複雜,模型訓練經過無數次的迭代後,使用者與開發者可能都難以追蹤人工智慧模型產出決策的過程以及原因(Buhmann & Fieseler, 2023)。
儘管 European Commission 在 2023 年發表的人工智慧法案 (EU AI Act) 力求 AI 系統是安全、透明、可追蹤、非歧視,且對環境友善的,對於 AI 的整體規範仍在初期。對於開發 AI 系統的科技公司來說,把有一定程度的公開透明日忽視不錯的應對方式。正因為在這樣的背景脈絡下,OpenAI 作為 Chat GPT 的開發者,在 2023 年七月啟動了「Democratic Input to AI」的計劃,全球徵件計劃,目標是募集全球的 NGO、公民科技社群,來協助 AI 發展、監管以及倫理守則的治理過程中的民主化與透明度。而 vTaiwan 社群與英國的智庫 Chatham House 以及 AI Objectives 合作,有幸成為全球獲選的十組計劃之一,也是其中唯一一組有台灣人參與的計劃。
我覺得可以補充一些我們跟Chatham House 合作的過程、方式,是不是請書漾來寫 Eli
Chatham House 正式名稱為英國皇家事務研究所 (The Royal Institute of International Affairs),是一個位於英國倫敦的非營利、非政府的智庫組織,也是國際政策分析研究組織,被同業認為是世界國際事務領域的領導機構,且歷史悠久,在 1920 年成立至今,現由不同政黨領袖聯合領導,包括 John Major、Paddy Ashdow 與 Patricia Scotland。
vTaiwan 與 Chatham House 的合作由資深研究員 Alex Krasodomski 統籌,每週進行一到兩小時的進度會議,並在會議中討論 Recursive Public 的運作方式,包括要籌備的意見徵集題目、要使用的意見收集平台、準備邀請的對象等,兩邊分工合作,並共同在每週五與 OpenAI 開會討論。
此次 vTaiwan 公開意見徵集階段使用線上的 polis 廣徵意見。vTaiwan 社群成員提供了 32 個種子意見,從 8 月 16 日開始進行為期一個月的公開徵集,到 9 月 16 日截止,最後總計獲得 75 筆意見、 4548 筆使用者互動.
在線上意見徵集期間,vTaiwan 社群也重啟 Facebook 進行宣傳,針對不同目標族群發布數篇梗圖吸引多元參與。
9 月 24 日,vTaiwan 在師大分部租了實體會議廳舉辦諮詢會議,由兩位主持人就線上徵集的意見分類成三大子題:隱私與資料保護、歧視與偏見、以及在地化 / 倫理規範。引導現場參與者加深發表意見,並全程直播。以下是個子題的闡述,以及現場收集到的意見:
AI 系統需要處理龐大的資料,也善長在大量資料中尋找 pattern,但同時間也提供了的隱私和資料保護問題的溫床。
訓練 AI 需要資料,但在提供「個性化」的體驗與「匿名化」做資料保護這兩者之間卻很難權衡,我們常聽到所謂的「去識別化」作為保護隱私,是讓資料不可追溯的一種做法,但個資應該被馬賽克到什麼程度呢?什麼樣的資料又應當被保護呢?
我們是否應禁止 AI 爬梳某類涉及隱私的資料,我們是否應對使用者倡導避免把自己或他人的隱私資料輸入在可能被 AI 爬梳的系統上?又或者,若 AI 不小心在沒有犯罪意圖之下拼湊出隱私資料,又該由誰來擔負損害賠償責任、或是該如何監管呢?
現場意見
因為生成式AI模型的訓練資料
「資料偏見(data bias)」 是指模型訓練所使用的資料內容可能存在反映
本身無法代表整體群體的資料,而形成了偏差的理解,也進一步可能導致歧視,使 AI 的公平性大受質疑。
而如果 AI 的訓練資料已經存在偏見,AI 模型在訓練上可能會重複這些偏見。又甚者,演算法的公平性也可能存在偏見。未來的 AI 開發需要怎麼樣的努力確保資料集的多樣性和公平性呢?著重在透明度和可解釋性會是移除歧視與偏見的最佳辦法嗎?審查體系的存在真有其必要性嗎?
現場意見
AI 在不同地區是否應該有不同的樣貌?這個議題涉及到如何建立有效的治理結構和倫理規範,以應對 AI 不斷且快速的發展,並在全球範圍內確保其合理和負責任的應用。建立全球性的AI治理標準和倫理規範可以確保跨國界的一致性,但也需要處理不同文化、法律和價值觀之間的差異。AI 是否該入境隨俗呢?
現場意見
可能可以談這次跟過往vTaiwan流程的不同,還有稍微提一下現在vTaiwan社群的走向 Eli
Open AI目前作為全球人工智慧發展的中最受矚目的科技巨頭之一,自然在監管、開放與社會責任上承擔了來自各界的壓力。而這也可能是促使Open AI推出Democratic Input to AI計劃的原因之一。而vTaiwan一直以來的專案目標,都是希望意見徵集與討論的成果,能夠確實的進入決策與法制的流程,所以過往的流程都強調主管機關、政府部會的參與,但鑑於目前包含臺灣在內,全球人工智慧監管與治理的機制都處於草創階段。所以社群的夥伴
參考資料:
Buhmann, A., & Fieseler, C. (2023). Deep Learning Meets Deep Democracy: Deliberative Governance and Responsible Innovation in Artificial Intelligence. Business Ethics Quarterly, 33(1), 146-179. https://doi.org/10.1017/beq.2021.42
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679. https://doi.org/10.1177/2053951716679679
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colo. Tech. LJ, 13, 203.