---
tags: vTaiwan
---
# 20260408 小松
時間 Time :19:00 - 20:00
地點 Location :線上 Online
參與者 Participants:Peter,
https://www.vtaiwan.tw/jitsi
(請用Google登入以參與視訊並啟用轉錄功能)
::: success
## 專案儀表板:目前 vTaiwan 社群在進行的事情
以下是 vTaiwan 目前正在進行的幾個不同的專案!如果有興趣,可以在取得共筆編輯權限後+1,或者是
1. [vTaiwan議題小聚](/GUe0KXMsQBC-6KTIUPBVnA)
- 適合對審議、公共討論有興趣的人加入
- 活動咖的最愛
- 如果有公民團體與組織想要合作也可以看過來!
- 目前也在進行 [AI 用於數位公民參與經驗](/nJUYukWFSWuEsG-XQalHcA) 的收集!
2. [vtaiwan x Tech for Good Asia 合作](/PdvNjkLlSd-WytXN_otWbQ) 計畫
- 預計會討論人工智慧相關議題
- 需要研究與分析人才
- 想要貢獻議題或意見這邊請
3. [vTaiwan 網站改版,啟動!](/Q3_hgovyRHusEq8-3nomPQ)
- 目標是打造新的 vTaiwan 網站
- 結合 blog、媒體資源、活動發佈、建立線上活動與討論等功能
- [vTaiwan 網站更新後的治理機制](/HxWF11d4Tz-AfHb3yjwQKg)也在建立中
- 讓不會寫程式的人也可以加入貢獻者!
4. [vTaiwan 主視覺更新](/UqGh6pAUTwuNFr1RE21Rtw)
- 目前已經設計完成!
- 會發佈到新的網站,並在社群媒體上完成更新!
5. [Frankly 測試](/HVEdPVQqQHqVwvFECg7sRg)
- 目前正在測試一個新的線上會議
6. 如果想要提案怎麼辦?
- 目前的 vTaiwan 很歡迎與數位工具相關的公共討論!
- 如果想要成為協作者或者是貢獻者,我們正在努力讓說明更清楚,介面更友善!
:::
## 小小的分享
### Mozilla AIxDemocracy Cohort
- Mozilla 的 AIxDemocracy Cohort 目前還沒收到通知,網站上也沒有更新,先以沒上的心態繼續推進 newsagora 與即時會議 polis 工具的開發
### g0v Summit 演講目前有備取上
- 投 g0v Summit 2026 的演講議程「我們真的在對話嗎?AI 與數位工具在審議民主中的機會與風險 / Are We Really in Dialogue? Opportunities and Risks of AI in Deliberative Democracy」有入選備取議程。
- https://summit.g0v.tw/2026/
- 5/23-24 g0v Summit
### 模擬審議大會結果發表
- 5/14 的 Taiwan Internet Week 活動會來報告去年執行模擬審議大會的成果,這會是四月討論的事情~
- TFGA 與 vTaiwan
- https://joshuacyang.com/vtaiwan_agent_democracy/#/about
#### 待辦事項
- 報告完成 [vTaiwan 模擬市民大會](https://docs.google.com/document/d/18WaxrP28sqAhpERiXnlCkuDRNquM1RqZdQaTiCQlwMg/edit?usp=sharing)
- BACKGROUND
- METHODOLOGY
- RESULT
- LIMITATION / FUTURE
- 報告放在哪裡?
- vTAIWAN 網站上
- 將上述的網站 https://joshuacyang.com/vtaiwan_agent_democracy/#/about 看看能否移動到 vTaiwan 網站底下
- 與 bestian 討論看看怎麼做一個 project 的頁面
- 在網站上要新增一個讓我們可以放成果報告的地方
- 簡易版:後端資料放 google drive,前端呈現看怎麼刻
- 符合目前網站架構:後端放 github
- 原始資料:放在 github
- 做數據分析
### AI Poses Risks to Democratic and Social Systems
- https://zhijing-jin.com/d/2026-ai-risk.pdf
#### 7 problems
- Same AI models make idea shrinking
- AI is making people less open-minded
- Belief Homogenization
- DDoS problem for deliberation
- Digital Identity
- Fake news
- fake content
- Blind rule / decision
- Blindly following AI's instruction
- AI procurement for the Gov
- 瑞士目前都是實驗性質的導入
- AI losing jobs and power
- Labor market changes as AI advanced.
## 與 TWNIC 的合作
- 主題會延續之前的討論:AI Governance
- 延續數發部的政策方向:https://moda.gov.tw/major-policies/ai/governance/19246
- 目前數發部做的成果:兒童、性別、人權
- 承襲兒童這個主題,以 AI 風險矩陣的端點
- 4/30 proposal - co-editing notes: https://docs.google.com/document/d/13Z4jyVu4ZsMSdru3Od0kieT-7mriLRE_kmHPVfR-lCk/edit?usp=sharing
- 可能試試看的機會:https://www.atgora.org/atgoraapp
- 能否透過科技來做 information integrity 的工作
### 要完成的事項
- 提醒 josh
## NewsAgora
- Github: https://github.com/v-taiwan/NewsAgora-/tree/main
- 先做出一個可以在 github 上部署
## Discussion with Ralph Heward Mills
### introduction
- building the personal knowledge graph
- https://solidproject.org/
### Potential Cooperation
## 轉錄逐字稿與AI大綱
### 逐字稿詳情
https://www.vtaiwan.tw/transcription_detail/20260408
### AI大綱
**一、AI 政府系統的七大風險(Allison 述)**
| # | 風險概述 | 可能的後果 |
|---|----------|------------|
| 1 | **模型同質化**:所有人使用相同的 AI 模型 | 思考與創意被同質化,政策、行銷、決策缺乏多樣性 |
| 2 | **過度迎合/鼓吹**:AI 為使用者過度正向、迎合感受 | 使用者容易被說服、失去批判力 |
| 3 | **垃圾訊息/濫用**:AI 被用來向政府、大眾發送垃圾郵件或霸凌訊息 | 影響公共資源、製造社群分裂 |
| 4 | **偽造內容**:AI 產生大量假資訊、偽冒檢查結果 | 真假難辨、信任危機 |
| 5 | **盲目遵循規則**:政府或企業完全交由 AI 判斷,缺乏解釋性 | 人類無法了解或挑戰 AI 的決策,失去控制權 |
| 6 | **不透明的系統採購**:政府購買 AI 時,無法得知內部規則或隱藏程式 | 可能引入危險或有偏見的模型,需嚴格審核 |
| 7 | **職位與公民權力削減**:AI 取代大量工作、資訊傳遞,人民失去與政府互動的議價籌碼 | 民眾參與度下降,監督機制弱化,民主受侵蝕 |
---
**二、與 TWNIC 合作的 AI Governance 討論(崔家瑋)**
| 主題 | 主要內容 | 重點/結論 |
|------|----------|-----------|
| **合作背景** | 延續書發部(兒童、性別、人權)已完成的政策與研究成果,與 TWNIC 共同推動 AI 治理工作。 | 以既有成果為基礎,聚焦具體情境。 |
| **時間與資源限制** | AI 基本法於 2023 年 12 月公布,相關預算於次月撥出,三月完成報告,實作期僅約 1 個月。 | 工作窗口短,必須快速產出可行方案。 |
| **已辨識的 AI 應用場景** | 1. 教育(數位學習、個人化平台、 AI 生成教材、作文自動批改、學習診斷報告)<br>2. 透過外部專家問卷評分,利用「影響程度」與「發生可能性」兩軸製作風險矩陣。 | 風險矩陣圖可視化高衝擊/高機率的問題。 |
| **工具與平台探索** | 提及 “Agora” 及其他類似服務(可導入、支援繁體中文),考慮作為資訊整合與共識收集的工具。 | 需確認開源與授權情形,測試其在 TWNIC 活動中的適配度。 |
| **資訊完整性 (Information Integrity)** | 在使用 AI 前,先完成資料的 **alignment** 與 **integrity** 檢查,避免假資訊流入。 | 這是所有後續分析與決策的基礎。 |
| **活動設計與地域多元化** | TWNIC 要求將活動向台灣東部(花蓮、台中)擴散,強調 **multi‑stakeholder** 與地域多樣性。 | 建議與地方學校、教師合作,結合兒童或性別議題做在地參與。 |
| **關鍵議題與風險** | 1. 身分冒充與詐騙<br>2. 合成影像(deepfake)勒索<br>3. AI 生成不實內容散布<br>4. AI 釣魚訊息 | 這四項在現有風險矩陣中屬於高影響、高可能性。 |
| **法規與開源模型管制** | 討論 EU AI Act 對開源模型的透明度豁免與「系統性風險」例外;是否需要對開源模型施加更嚴格的管制。 | 需要結合國際法規與在地政策作出平衡。 |
| **方法論** | 透過**專家訪談**收集意見,使用 AI 生成「主稿」後再由人類甄別、抽取關鍵意見(seed ideas)。 | 可利用先前書發部的 **專家名單**,快速取得可信資料。 |
| **里程碑 / Deadline** | - 4月30日:提交第一份 AI 風險代碼(code)<br>- 5月初:完成「市民模擬搭配」報告 | 兩個交付物時間重疊,建議同步製作提案(proposal)說明目標、方法與預期成果。 |
| **後續行動** | 1. 撰寫簡易提案,明確列出 **目標**(延續兒童/性別/人權議題)與 **實作方向**(風險矩陣、Seed ideas、資訊完整性)<br>2. 釐清 Agora / 其他平台的開源授權、中文支援情況<br>3. 與 TWNIC 確認東部活動的預算、時間與合作對象(學校、NGO)<br>4. 安排專家訪談,並邀請英國/歐盟相關研究者分享對開源模型管制的看法 | 為 4/30、5/初交付做好時間規劃。 |
---
### 重點結論
1. **AI 風險**:同質化、過度迎合、垃圾訊息、偽資訊、盲目遵從、採購不透明、勞動/公民權力削減七大問題,必須在制度設計、監管機制與透明度上同步解決。
2. **政策與實務結合**:利用書發部已有的兒童、性別、人權研究,快速聚焦教育領域的 AI 應用,同時以風險矩陣辨識高危險點(身分詐騙、deep‑fake、假訊息、釣魚)。
3. **工具選型**:探索 Agora 等可支援繁體中文、開源或商業授權的共識平台,並確保資訊完整性(alignment & integrity)在使用前完成。
4. **多元參與**:遵循 TWNIC 的「東部、多元利益相關者」要求,結合在地學校與 NGO,將活動與政策討論下沉至花蓮/台中。
5. **法規參照**:參考 EU AI Act 對開源模型的規範與例外,評估台灣是否需要對開源模型加強透明度或風險評估義務。
6. **執行時程**:4/30 完成 AI 風險代碼,5/初交付市民模擬報告,同時提交一份涵蓋目標、方法、預算與東部活動計畫的提案。
以上即為本次會議的重點整理,供後續決策與執行參考。