Published
owned this note
owned this note
Linked with GitHub
---
tags: vTaiwan, openAI
---
# 924 vTaiwan x OpenAI blogpost
- [9/24 實體諮詢會議逐字稿共筆](/IEH7M9ajTPCMpYKl3ZaxWg)
## 前言
ChatGPT 在 2022 年上線後,首次向世界展現了現今生成式人工智慧模型的強大潛力。而當人工智慧的各種應用工具爆發性的成長時,這些工具對於個人、團體、社會,乃至於民主政治的潛在危害,也成為學術以及實務治理上迫切的問題。如基於大量資料所訓練出來的模型,可能會重現、強化,甚至是正當化訓練資料中既存的對於特定族群的偏見(Tufekci, 2015)。
然而,對於人工智慧該如何進行治理、監管的討論,目前在世界各國都遇到困境。最大的原因便是現在支撐人工智慧發展的整套系統,對於公眾、監管者來說充滿了各式各樣的「不透明」。從模型訓練資料來源的不透明、理解人工智慧運作的高技術門檻,以及人工智慧技術本身資本密集的特性,都構成了讓公眾難以向開發者、科技公司,或是整體的人力、技術混合網絡進行問責、監督的問題(Mittelstadt et al., 2016; Tsamados et al., 2021)。更甚,在某些情況下,由於人工智慧演算法本身高度複雜,模型訓練經過無數次的迭代後,使用者與開發者可能都難以追蹤人工智慧模型產出決策的過程以及原因(Buhmann & Fieseler, 2023)。
儘管 European Commission 在 2023 年發表的人工智慧法案 (EU AI Act) 力求 AI 系統是安全、透明、可追蹤、非歧視,且對環境友善的,對於 AI 的整體規範仍在初期。對於開發 AI 系統的科技公司來說,把有一定程度的公開透明日忽視不錯的應對方式。正因為在這樣的背景脈絡下,OpenAI 作為 Chat GPT 的開發者,在 2023 年七月啟動了「Democratic Input to AI」的計劃,全球徵件計劃,目標是募集全球的 NGO、公民科技社群,來協助 AI 發展、監管以及倫理守則的治理過程中的民主化與透明度。而 vTaiwan 社群與英國的智庫 Chatham House 以及 AI Objectives 合作,有幸成為全球獲選的十組計劃之一,也是其中唯一一組有台灣人參與的計劃。
## vTaiwan x Chatham House x OpenAI
> 我覺得可以補充一些我們跟Chatham House 合作的過程、方式,是不是請書漾來寫 [name=Eli]
Chatham House 正式名稱為英國皇家事務研究所 (The Royal Institute of International Affairs),是一個位於英國倫敦的非營利、非政府的智庫組織,也是國際政策分析研究組織,被同業認為是世界國際事務領域的領導機構,且歷史悠久,在 1920 年成立至今,現由不同政黨領袖聯合領導,包括 John Major、Paddy Ashdow 與 Patricia Scotland。
vTaiwan 與 Chatham House 的合作由資深研究員 Alex Krasodomski 統籌,每週進行一到兩小時的進度會議,並在會議中討論 Recursive Public 的運作方式,包括要籌備的意見徵集題目、要使用的意見收集平台、準備邀請的對象等,兩邊分工合作,並共同在每週五與 OpenAI 開會討論。
## vTaiwan 線上與實體意見徵集
此次 vTaiwan 公開意見徵集階段使用線上的 [polis](https://hackmd.io/@Ml5df9uSRwu2WMnyCiAXRA/B14g7pvVp/https%3A%2F%2Fg0v.hackmd.io%2F%40Pno233SAS8G5UfL5OvSRmA%2FDIforAIvTaiwanxChatham%2Fhttps%253A%252F%252Fg0v.hackmd.io%252F%2540Pno233SAS8G5UfL5OvSRmA%252FDIforAIvTaiwanxChatham%252Fedit%253Fedit) 廣徵意見。vTaiwan 社群成員提供了 32 個種子意見,從 8 月 16 日開始進行為期一個月的公開徵集,到 9 月 16 日截止,最後總計獲得 75 筆意見、 4548 筆使用者互動.
在線上意見徵集期間,vTaiwan 社群也重啟 Facebook 進行宣傳,針對不同目標族群發布數篇梗圖吸引多元參與。
9 月 24 日,vTaiwan 在師大分部租了實體會議廳舉辦諮詢會議,由兩位主持人就線上徵集的意見分類成三大子題:隱私與資料保護、歧視與偏見、以及在地化 / 倫理規範。引導現場參與者加深發表意見,並全程[直播](https://www.youtube.com/watch?v=quOjUG6X8w4)。以下是個子題的闡述,以及現場收集到的意見:
### 隱私與資料保護
AI 系統需要處理龐大的資料,也善長在大量資料中尋找 pattern,但同時間也提供了的隱私和資料保護問題的溫床。
訓練 AI 需要資料,但在提供「個性化」的體驗與「匿名化」做資料保護這兩者之間卻很難權衡,我們常聽到所謂的「去識別化」作為保護隱私,是讓資料不可追溯的一種做法,但個資應該被馬賽克到什麼程度呢?什麼樣的資料又應當被保護呢?
我們是否應禁止 AI 爬梳某類涉及隱私的資料,我們是否應對使用者倡導避免把自己或他人的隱私資料輸入在可能被 AI 爬梳的系統上?又或者,若 AI 不小心在沒有犯罪意圖之下拼湊出隱私資料,又該由誰來擔負損害賠償責任、或是該如何監管呢?
:hand: 現場意見
### 歧視與偏見
因為生成式AI模型的訓練資料
「資料偏見(data bias)」 是指模型訓練所使用的資料內容可能存在反映
本身無法代表整體群體的資料,而形成了偏差的理解,也進一步可能導致歧視,使 AI 的公平性大受質疑。
而如果 AI 的訓練資料已經存在偏見,AI 模型在訓練上可能會重複這些偏見。又甚者,演算法的公平性也可能存在偏見。未來的 AI 開發需要怎麼樣的努力確保資料集的多樣性和公平性呢?著重在透明度和可解釋性會是移除歧視與偏見的最佳辦法嗎?審查體系的存在真有其必要性嗎?
:hand: 現場意見
### Governance 在地化 / 倫理規範
AI 在不同地區是否應該有不同的樣貌?這個議題涉及到如何建立有效的治理結構和倫理規範,以應對 AI 不斷且快速的發展,並在全球範圍內確保其合理和負責任的應用。建立全球性的AI治理標準和倫理規範可以確保跨國界的一致性,但也需要處理不同文化、法律和價值觀之間的差異。AI 是否該入境隨俗呢?
:hand: 現場意見
- 在地化就是要了解當地使用者的需求,像 OpenAI 這樣有龐大資料庫的公司可以去學習各地使用者會希望獲得什麼樣的回饋。
- 人權議題相對於在地化是比較敏感的,OpenAI 是否有能力在人權議題上去符合各地文化宗教脈絡這也是很難說的。
- 雖然在地脈絡是重要的,但當過度在地化的時候,也可能加深同溫層而失去多元性
- 希望 OpenAI 可以把他的內容仲裁 (moderation) 開放、民主化,讓大家可以直接建立自己的機制。就像台灣的BBS,版主可以自己建立自己的版規、自己決定版規的內容、設計如何限制這個看板調整、做客製化的規範。
- 在不同時代背景,能安全揭露的資訊也會有不同,所以希望 OpenAI 將機制設計開放、民主化。
- 或許可以讓廠商或使用者透過選擇的方式、設定比較在地化的內容與否。
- 贊同民主化的這個原則,但也覺得執行困難,因為 ChatGPT 不是一個草根的文化,慢慢生成的過程,可能會有太多不同的大型的力量,不管政治或資本進來干擾。。
- 我不傾向讓一個科技公司去做價值判斷這件事情。
- AI 可以被理解為一種社會的放大投射的概念,但我認為也可能產生某種質變,所以我,不傾向讓一個科技公司去做價值判斷,因為它最後會出現的 bias 我覺得反而會更大。
- 業界的與民眾的 gap 其實滿大,在 engage 一般公民的聲音在裡面時,消除這個 gap 可能就是下一步大家可以做的事情。
- 我樂見 AI 對於整個人類發展的效能上面或者是效率上面的提升,所以對於太多的限制覺得矛盾。
- 在翻譯的方面,我擔心誰能夠決定有多少的文化程度被翻譯,以及如何被翻譯。
- AI 反映著這個社會現在的狀況,但任何新媒體剛出來的時候其實都會有一次差不多關於文化的討論,那我們要在什麼程度上去干預這件事情,這是很重要的。
- 我們應該好好思考 GPT 作為一個平台的責任是什麼,我覺得平台它自己本身也應該要建立一個對公眾開放的意見徵集管道。
- 我期待接下來生成式 AI 的發展上,不會是以這個資本主義或商業主義為主的一個開發方向。
### 結果
- 大結果:參與者普遍不希望科技發展由大型的人工智慧公司主導。
- 反思
## 侷限/反思
> 可能可以談這次跟過往vTaiwan流程的不同,還有稍微提一下現在vTaiwan社群的走向 [name=Eli]
Open AI目前作為全球人工智慧發展的中最受矚目的科技巨頭之一,自然在監管、開放與社會責任上承擔了來自各界的壓力。而這也可能是促使Open AI推出Democratic Input to AI計劃的原因之一。而vTaiwan一直以來的專案目標,都是希望意見徵集與討論的成果,能夠確實的進入決策與法制的流程,所以過往的流程都強調主管機關、政府部會的參與,但鑑於目前包含臺灣在內,全球人工智慧監管與治理的機制都處於草創階段。所以社群的夥伴
```
參考資料:
Buhmann, A., & Fieseler, C. (2023). Deep Learning Meets Deep Democracy: Deliberative Governance and Responsible Innovation in Artificial Intelligence. Business Ethics Quarterly, 33(1), 146-179. https://doi.org/10.1017/beq.2021.42
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679. https://doi.org/10.1177/2053951716679679
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colo. Tech. LJ, 13, 203.
```