--- tags: vTaiwan --- # 20260408 小松 時間 Time :19:00 - 20:00 地點 Location :線上 Online 參與者 Participants:Peter, https://www.vtaiwan.tw/jitsi (請用Google登入以參與視訊並啟用轉錄功能) ::: success ## 專案儀表板:目前 vTaiwan 社群在進行的事情 以下是 vTaiwan 目前正在進行的幾個不同的專案!如果有興趣,可以在取得共筆編輯權限後+1,或者是 1. [vTaiwan議題小聚](/GUe0KXMsQBC-6KTIUPBVnA) - 適合對審議、公共討論有興趣的人加入 - 活動咖的最愛 - 如果有公民團體與組織想要合作也可以看過來! - 目前也在進行 [AI 用於數位公民參與經驗](/nJUYukWFSWuEsG-XQalHcA) 的收集! 2. [vtaiwan x Tech for Good Asia 合作](/PdvNjkLlSd-WytXN_otWbQ) 計畫 - 預計會討論人工智慧相關議題 - 需要研究與分析人才 - 想要貢獻議題或意見這邊請 3. [vTaiwan 網站改版,啟動!](/Q3_hgovyRHusEq8-3nomPQ) - 目標是打造新的 vTaiwan 網站 - 結合 blog、媒體資源、活動發佈、建立線上活動與討論等功能 - [vTaiwan 網站更新後的治理機制](/HxWF11d4Tz-AfHb3yjwQKg)也在建立中 - 讓不會寫程式的人也可以加入貢獻者! 4. [vTaiwan 主視覺更新](/UqGh6pAUTwuNFr1RE21Rtw) - 目前已經設計完成! - 會發佈到新的網站,並在社群媒體上完成更新! 5. [Frankly 測試](/HVEdPVQqQHqVwvFECg7sRg) - 目前正在測試一個新的線上會議 6. 如果想要提案怎麼辦? - 目前的 vTaiwan 很歡迎與數位工具相關的公共討論! - 如果想要成為協作者或者是貢獻者,我們正在努力讓說明更清楚,介面更友善! ::: ## 小小的分享 ### Mozilla AIxDemocracy Cohort - Mozilla 的 AIxDemocracy Cohort 目前還沒收到通知,網站上也沒有更新,先以沒上的心態繼續推進 newsagora 與即時會議 polis 工具的開發 ### g0v Summit 演講目前有備取上 - 投 g0v Summit 2026 的演講議程「我們真的在對話嗎?AI 與數位工具在審議民主中的機會與風險 / Are We Really in Dialogue? Opportunities and Risks of AI in Deliberative Democracy」有入選備取議程。 - https://summit.g0v.tw/2026/ - 5/23-24 g0v Summit ### 模擬審議大會結果發表 - 5/14 的 Taiwan Internet Week 活動會來報告去年執行模擬審議大會的成果,這會是四月討論的事情~ - TFGA 與 vTaiwan - https://joshuacyang.com/vtaiwan_agent_democracy/#/about #### 待辦事項 - 報告完成 [vTaiwan 模擬市民大會](https://docs.google.com/document/d/18WaxrP28sqAhpERiXnlCkuDRNquM1RqZdQaTiCQlwMg/edit?usp=sharing) - BACKGROUND - METHODOLOGY - RESULT - LIMITATION / FUTURE - 報告放在哪裡? - vTAIWAN 網站上 - 將上述的網站 https://joshuacyang.com/vtaiwan_agent_democracy/#/about 看看能否移動到 vTaiwan 網站底下 - 與 bestian 討論看看怎麼做一個 project 的頁面 - 在網站上要新增一個讓我們可以放成果報告的地方 - 簡易版:後端資料放 google drive,前端呈現看怎麼刻 - 符合目前網站架構:後端放 github - 原始資料:放在 github - 做數據分析 ### AI Poses Risks to Democratic and Social Systems - https://zhijing-jin.com/d/2026-ai-risk.pdf #### 7 problems - Same AI models make idea shrinking - AI is making people less open-minded - Belief Homogenization - DDoS problem for deliberation - Digital Identity - Fake news - fake content - Blind rule / decision - Blindly following AI's instruction - AI procurement for the Gov - 瑞士目前都是實驗性質的導入 - AI losing jobs and power - Labor market changes as AI advanced. ## 與 TWNIC 的合作 - 主題會延續之前的討論:AI Governance - 延續數發部的政策方向:https://moda.gov.tw/major-policies/ai/governance/19246 - 目前數發部做的成果:兒童、性別、人權 - 承襲兒童這個主題,以 AI 風險矩陣的端點 - 4/30 proposal - co-editing notes: https://docs.google.com/document/d/13Z4jyVu4ZsMSdru3Od0kieT-7mriLRE_kmHPVfR-lCk/edit?usp=sharing - 可能試試看的機會:https://www.atgora.org/atgoraapp - 能否透過科技來做 information integrity 的工作 ### 要完成的事項 - 提醒 josh ## NewsAgora - Github: https://github.com/v-taiwan/NewsAgora-/tree/main - 先做出一個可以在 github 上部署 ## Discussion with Ralph Heward Mills ### introduction - building the personal knowledge graph - https://solidproject.org/ ### Potential Cooperation ## 轉錄逐字稿與AI大綱 ### 逐字稿詳情 https://www.vtaiwan.tw/transcription_detail/20260408 ### AI大綱 **一、AI 政府系統的七大風險(Allison 述)** | # | 風險概述 | 可能的後果 | |---|----------|------------| | 1 | **模型同質化**:所有人使用相同的 AI 模型 | 思考與創意被同質化,政策、行銷、決策缺乏多樣性 | | 2 | **過度迎合/鼓吹**:AI 為使用者過度正向、迎合感受 | 使用者容易被說服、失去批判力 | | 3 | **垃圾訊息/濫用**:AI 被用來向政府、大眾發送垃圾郵件或霸凌訊息 | 影響公共資源、製造社群分裂 | | 4 | **偽造內容**:AI 產生大量假資訊、偽冒檢查結果 | 真假難辨、信任危機 | | 5 | **盲目遵循規則**:政府或企業完全交由 AI 判斷,缺乏解釋性 | 人類無法了解或挑戰 AI 的決策,失去控制權 | | 6 | **不透明的系統採購**:政府購買 AI 時,無法得知內部規則或隱藏程式 | 可能引入危險或有偏見的模型,需嚴格審核 | | 7 | **職位與公民權力削減**:AI 取代大量工作、資訊傳遞,人民失去與政府互動的議價籌碼 | 民眾參與度下降,監督機制弱化,民主受侵蝕 | --- **二、與 TWNIC 合作的 AI Governance 討論(崔家瑋)** | 主題 | 主要內容 | 重點/結論 | |------|----------|-----------| | **合作背景** | 延續書發部(兒童、性別、人權)已完成的政策與研究成果,與 TWNIC 共同推動 AI 治理工作。 | 以既有成果為基礎,聚焦具體情境。 | | **時間與資源限制** | AI 基本法於 2023 年 12 月公布,相關預算於次月撥出,三月完成報告,實作期僅約 1 個月。 | 工作窗口短,必須快速產出可行方案。 | | **已辨識的 AI 應用場景** | 1. 教育(數位學習、個人化平台、 AI 生成教材、作文自動批改、學習診斷報告)<br>2. 透過外部專家問卷評分,利用「影響程度」與「發生可能性」兩軸製作風險矩陣。 | 風險矩陣圖可視化高衝擊/高機率的問題。 | | **工具與平台探索** | 提及 “Agora” 及其他類似服務(可導入、支援繁體中文),考慮作為資訊整合與共識收集的工具。 | 需確認開源與授權情形,測試其在 TWNIC 活動中的適配度。 | | **資訊完整性 (Information Integrity)** | 在使用 AI 前,先完成資料的 **alignment** 與 **integrity** 檢查,避免假資訊流入。 | 這是所有後續分析與決策的基礎。 | | **活動設計與地域多元化** | TWNIC 要求將活動向台灣東部(花蓮、台中)擴散,強調 **multi‑stakeholder** 與地域多樣性。 | 建議與地方學校、教師合作,結合兒童或性別議題做在地參與。 | | **關鍵議題與風險** | 1. 身分冒充與詐騙<br>2. 合成影像(deepfake)勒索<br>3. AI 生成不實內容散布<br>4. AI 釣魚訊息 | 這四項在現有風險矩陣中屬於高影響、高可能性。 | | **法規與開源模型管制** | 討論 EU AI Act 對開源模型的透明度豁免與「系統性風險」例外;是否需要對開源模型施加更嚴格的管制。 | 需要結合國際法規與在地政策作出平衡。 | | **方法論** | 透過**專家訪談**收集意見,使用 AI 生成「主稿」後再由人類甄別、抽取關鍵意見(seed ideas)。 | 可利用先前書發部的 **專家名單**,快速取得可信資料。 | | **里程碑 / Deadline** | - 4月30日:提交第一份 AI 風險代碼(code)<br>- 5月初:完成「市民模擬搭配」報告 | 兩個交付物時間重疊,建議同步製作提案(proposal)說明目標、方法與預期成果。 | | **後續行動** | 1. 撰寫簡易提案,明確列出 **目標**(延續兒童/性別/人權議題)與 **實作方向**(風險矩陣、Seed ideas、資訊完整性)<br>2. 釐清 Agora / 其他平台的開源授權、中文支援情況<br>3. 與 TWNIC 確認東部活動的預算、時間與合作對象(學校、NGO)<br>4. 安排專家訪談,並邀請英國/歐盟相關研究者分享對開源模型管制的看法 | 為 4/30、5/初交付做好時間規劃。 | --- ### 重點結論 1. **AI 風險**:同質化、過度迎合、垃圾訊息、偽資訊、盲目遵從、採購不透明、勞動/公民權力削減七大問題,必須在制度設計、監管機制與透明度上同步解決。 2. **政策與實務結合**:利用書發部已有的兒童、性別、人權研究,快速聚焦教育領域的 AI 應用,同時以風險矩陣辨識高危險點(身分詐騙、deep‑fake、假訊息、釣魚)。 3. **工具選型**:探索 Agora 等可支援繁體中文、開源或商業授權的共識平台,並確保資訊完整性(alignment & integrity)在使用前完成。 4. **多元參與**:遵循 TWNIC 的「東部、多元利益相關者」要求,結合在地學校與 NGO,將活動與政策討論下沉至花蓮/台中。 5. **法規參照**:參考 EU AI Act 對開源模型的規範與例外,評估台灣是否需要對開源模型加強透明度或風險評估義務。 6. **執行時程**:4/30 完成 AI 風險代碼,5/初交付市民模擬報告,同時提交一份涵蓋目標、方法、預算與東部活動計畫的提案。 以上即為本次會議的重點整理,供後續決策與執行參考。