跳到主要內容
網站顏色切換 深色模式
進階搜尋
關閉搜尋
:::

「運用 AI 促進資訊完整性」公民審議大會

1 線上審議評估結果

1.1 公民綜合性建議

公民小組針對四大討論子題提供詳實的意見並反映多元視角,顯示在 AI 技術快速發展和應用下,數位從業人員和公民小組對於 A I倫理、社會責任和公共治理的深刻反思和關注。公民針對加強大型平臺業者自律與政府監管之間的平衡廣泛地交換意見,涵蓋技術面、法規面和教育等層面,反映了公民社會對於完善 AI 監管的期待,以及對維護資訊完整性的高度重視。以下歸納三大關鍵課題,並綜整公民小組意見:

  • (一)完善 AI 監管架構與標準建立

    數位工作者對於如何完善 AI 的監管架構與標準建立,表達了深切的關注。針對加強業者自律或政府監管之間,存在著一種張力,公民討論反映多元觀點。一方面有公民主張大型平臺應該基於社區和公眾回饋意見,加強自律,從而提高資訊完整性的標準。建議大型平臺應根據行業標準制定相應規範與標準,並參考國際規則以維持市場秩序並保護消費者權益。

    另一方面,公民小組認為需要更強的政府監管來確保 AI 技術的負責任應用與使用,特別是在涉及公共利益和敏感領域。建議政府應設立嚴格的標準和懲罰措施,對於濫用 AI 破壞資訊完整性的行為,實施高額罰款,強調預防潛在風險比事後處罰更為重要;主張對於被發現破壞資訊完整性的 AI 系統暫停使用,直到通過審核和改善。

  • (二)提升大型平臺運用 AI 在分析與識別資訊方面的能力

    數位從業人員和公民小組主張大型平臺運用 AI 幫助公民分析資訊完整性新興威脅,關注如何利用 AI 技術來加強對資訊的分析和識別,以應對虛假資訊和資訊操縱等挑戰。公民小組認為 AI 可以作為一種工具來提高公民對資訊完整性的識別能力,但也強調了這需要配合提高公眾的數位素養。此外,公民小組強調預防性措施的重要性,並強烈建議採取預防性措施,透過教育和提高用戶的意識和素養,以減少對事後補救措施的依賴。公民小組傾向於支持為每位使用者提供獨一無二的匿名數位 ID;主張大型平臺的生成式 AI 在引用資料時,引用多元的資料管道來源,應以經過同儕審查的科學資訊或主流新聞媒體報導為主。

  • (三)評測機制的建立和精進

    公民小組認為明確的評測機制可以幫助確保大型平臺上的資訊分享和傳播符合完整性標準和準確性,從而減少錯誤和不實資訊的流傳。透過 AI 產品和系統的評測機制,確保大型平臺負責任地運用 AI 技術,有助於保護用戶免受潛在的 AI 濫用和不當行為的影響。透明的評測過程和標準不僅提高了平臺的可信度,也有助於建立和維護公眾對於 AI 技術應用的信任。

    公民小組關注如何建立對大型平臺的評測機制,以檢測 AI 產品和系統的訊息分析與辨識工具的有效性,以及監督和評測其對 AI 技術使用的責任。針對相關策略和機制設計的考量和意見,包括開發新的評測架構和項目、建立 AI 技術和平臺的認證與可信任等級制度、公開透明化監管和評測的準則、以及擴大用戶和公民參與的機會,而非僅依賴專家和學者。

1.2 討論綜整結果反饋政策內涵

本次透過公民小組進行廣泛討論,針對加強大型平臺業者自律與政府監管之間的平衡廣泛地交換意見,涵蓋政策、產業和技術等層面,反映了公民社會對於完善 AI 監管的期待,以及對維護資訊完整性的高度重視。此外,透過公民參與,包含個人及數位工作者,能充分反映民眾與專業人員的意見,足具公私協力的典範並具有代表性,足以作為國家施政的正當性基礎及關鍵參考依據。以下將討論結果綜整、分點,並輔以圖示說明:

  • (一)政策面:完善 AI 監管架構與標準建立

    在政策面制定上,針對完善 AI 的監管架構與標準的建立,公民小組反映多元觀點。首先,公民主張大型平臺應該基於社區和公眾回饋意見,加強自律,從而提高資訊完整性的標準。建議大型平臺應根據行業標準制定相應規範與標準,並參考國際規則以維持市場秩序並保護消費者權益。另一方面,公民認為需要更強的政府監管來確保 AI 技術的負責任應用與使用,特別是在涉及公共利益和敏感領域。公民建議政府應設立嚴格的標準和懲罰措施,並且主張對於被發現破壞資訊完整性的 AI 系統將暫停使用,直到通過審核和改善。

  • (二)產業面:對大型平臺的評測機制建立和精進

    在產業監管層面,公民小組認為明確的評測機制可以幫助確保大型平臺上的資訊分享和傳播符合完整性標準和準確性,從而減少錯誤和不實資訊的流傳。透過 AI 產品和系統的評測機制可確保大型平臺負責任地運用 AI 技術,有助於保護用戶免受潛在的 AI 濫用和不當行為的影響。透明的評測過程和標準不僅提高了平臺的可信度,也有助於建立和維護公眾對於 AI 技術應用的信任。公民小組亦關注並且期待參與建立對大型平臺的評測機制,以檢測 AI 產品和系統的訊息分析與辨識工具的有效性,以及監督和評測其對 AI 技術使用的責任。

  • (三)技術面:提升大型平臺運用 AI 在分析與識別資訊方面的能力

    在 AI 技術應用層面,公民小組贊成大型平臺運用 AI 幫助公民分析資訊完整性新興威脅,關注如何利用 AI 技術來加強對資訊的分析和識別,以應對虛假資訊和資訊操縱等挑戰。公民小組認為 AI 可以作為一種工具來提高公民對資訊完整性的識別能力,主張大型平臺的生成式 AI 在引用資料時,引用多元的資料管道來源,應以經過同儕審查的科學資訊或主流新聞媒體報導為主,但也強調了這需要配合提高公眾的數位素養。

討論綜整結果反饋政策內涵

2 摘要

簡介:數位發展部致力推動可信任 AI 及數位信任環境,已於 2023 年 12 月 6 日成立「AI 產品與系統評測中心」。為瞭解與宣導運用AI促進資訊完整性之重要性,故本部數位產業署於 2024 年 3 月 23 日以透過線上「運用 AI 促進資訊完整性審議式民主活動」與專家學者與公民、社群和數位從業者討論運用 AI 來辨識和分析資訊的完整性等相關議題。

國立陽明交大科技與社會研究所審議民主創新實作團隊在 2022 年和 2021 年與史丹佛大學審議民主研究中心合作舉辦了「朝向負責任的 AI 創新」以及「如何邁向 2050 淨零碳排?」全國性線上公民審議大會。審議式調查模式已在全球 50 多個國家採行,史丹佛審議民主中心在審議式調查研究上享譽國際,曾受日本、韓國、蒙古等委託執行全國性計畫並與 Meta 合作舉辦全球社群論壇。研究團隊致力於促進聯合國 17 項永續發展目標(SDGs),尤其追求 SDG 16 和平、正義與強健機構目標,促進 SDG 17 全球夥伴關係。

「人文與社會科學院」以發展卓越的人文及社會科學研究為目標,基於既有跟史丹佛大學審議民主中心的合作基礎上,持續深化國際合作,拓展民主網絡和強化全球夥伴關係。

AI 科技不斷進步,為我們的生活帶來許多好處和方便,但如 ChatGPT、deepfake 或其他 AI 繪圖軟體等簡單易學的「生成式 AI 」軟體,也同時產生了很多不實訊息、極為逼真的照片和影片(例如偽造的名人記者會影片、換臉的不雅照片、不存在的政府新聞稿與文件),這些內容經常和真實新聞混在一起傳播。不過,人們也能利用 AI 幫助我們辨別資訊來源,分析資訊的真偽和完整背景。該如何運用 AI 來鑑別和評估訊息的真實性,並維護資訊的完整性,是一個大家都需要關注和討論的重要課題。本次公民審議大會提供了一個開放和平等的討論平臺,讓來自全國各地的公民一起討論大型平臺應如何運用 AI 技術來提高「資訊完整性(information integrity)」,以及相關的考量。

兩場次審議活動共有四個討論子題:

  • 1. 加強大型平臺業者自律,還是強化政府監管?
  • 2. 大型平臺應如何透過 AI 幫助公民「分析」資訊完整性受到的新興威脅?
  • 3. 大型平臺應如何透過 AI 幫助使用者「維護」資訊完整性?
  • 4. 大型平臺應如何運用 AI 來「提升」資訊完整性標準?

針對四大討論主題設計多個政策選項和行動方案,讓參與公民審議的公民能夠全面審視、權衡和討論不同方案的選擇,以利公民釐清和思考較佳的 AI 技術與系統可能產生的影響,並全面地加以權衡和討論問題解決的方案或措施。

據此,國立陽明交通大學接受數位發展部數位產業署的委託,分析台灣民眾對於如何運用 AI 促進資訊完整性的看法,以及在經過審議討論後,對於政策議題的態度、偏好與立場以及對於政策方案支持程度的改變情形,以及公民對於審議活動的評價等。討論後的民眾以及相關政策利害關係人的意見,有助於建立更全面、平衡的 AI 評測標準,確保 AI 的發展符合多元化需求並趨向更客觀、公正的標準。

  • (一)參與者代表性界定

    本次「運用 AI 促進資訊完整性?」採取審議式調查模式(Deliberative Polling®),透過隨機調查方式招募近 450 位全國各地的公民(含數位工作者),齊聚史丹佛線上審議平臺(Stanford Online Platform),討論大型平臺應該如何運用 AI 促進資訊完整性。

    為使公民瞭解生成式 AI 與資訊完整性的簡介,本計畫在 2 月 6 日下午舉行專家諮詢委員會議,邀請 7 位學者專家針對此次活動舉辦提供諮詢意見,並共同討論提供給民眾的閱讀資料內容、推薦與民眾對談的專家人選。

    此次公民審議大會的公民招募,透過隨機發送 20 萬筆政府 111 簡訊,回收有效樣本數總計 1,760 筆。在回收的有效樣本 1,760 筆中,數位工作者有 573 筆(占樣本 32.5%)。本計畫根據性別、年齡、居住地變項,抽選出符合全台母體比率的樣本。接著,根據 110 年國發會國家數位發展研究報告,我國就業者業務數位化比率為 53.6%,指工作時需要電腦或網路,抽出 53.6% 在工作時會需要使用電腦或網路。

    3 月 23 日整個下午共計有 447 位公民全程出席兩場次的審議大會,隨機分派到 44 個公民審議小組,其中數位從業者有 12 組,一般公民小組有 32 組。

  • (二)討論議題範疇主題化

    AI 是一個極具潛力的領域,然而在企業追求 AI 應用便利性的同時,其道德議題、系統可靠與否、隱私安全等問題也隨之成為相關應用快速前行時需要受到重視的議題與隱憂。為此,透過資訊完整性的強固,將可建立基於規則、民主、安全和數位包容的世界,並且實現資訊生態系統的安全可信,推動 AI 應用的正向發展。此次公民審議大會討論主題聚焦在:大型平臺提供的 AI 服務,要如何促進「資訊完整性」原則?期透過交流,了解公民、社群使用者以及數位從業者,應該如何運用 AI 來提升資訊可信度、辨識與分析資訊脈絡,促進資訊完整性。

    審議大會討論聚焦在四大討論子題:加強大型平臺業者自律或強化政府監管;大型平臺應如何透過 AI 幫助公民分析資訊完整性受到的新興威脅;大型平臺應如何透過 AI 幫助使用者維護資訊完整性;大型平臺應如何利用 AI 提升資訊完整性標準。本次審議大會共有 44 組公民小組進行審議,依照兩場次公民小組討論的提問內容,歸納出公民小組十大關心議題,包括透明性與公民參與:是否應透過公開透明的方式公布 AI 監管的審核條件,是否應讓公民代表參與政策制定過程,而非僅依賴專家和學者;罰則設定與執行:關注如何訂定 AI 相關罰則,包括對業者的罰金標準及如何對國外公司執行這些罰則;AI 認證與等級制度:政府如何建立 AI 技術與平臺的認證制度和可信等級;監管技術與方法:政府可以採取哪些技術和方法來監管 AI,特別是對於跨國企業的大型平臺;業者自律與消費者保障:如何激勵業者自行監管,以及在政府監管和業者自律之外,是否需要設置更多消費者保障措施;評測中立性與言論自由:政府在評測 AI 技術時如何保證中立性,避免壓制言論自由;監管策略與實施:政府應如何設計和實施 AI 相關的監管機制,以快速、準確地反映實際情況;處罰力度與經濟效益:政府設定的罰款是否足夠重,以確保不會因為罰款金額低於違規所得而失去效力;內容真假的政府判斷:政府如何判斷 AI 生成內容的真假,並確保這種監管的公平公正;技術進步與政府應對:政府的科技和技術是否能夠與時俱進,甚至預先部署以應對快速發展的 AI 技術。

  • (三)政策建議追蹤與落實

    本次活動由參與之公民進行討論交流,線上平臺亦有相關機制可促進公民發言討論,並提供設計精良的審議情境和公平討論的機會,包括系統自動化對公民小組成員發言時間進行管理、參與者有發言順序、輕推較少發言的參與者、即時逐字稿和紀錄等。最後決策過程可以透過投票或其他形式的決策程序,以確定採取的行動或政策。

    線上審議式民主活動的優點包括可促進公民參與,由於活動是在線上進行的,人們可以更輕鬆地參與,不受時間和地點的限制,從而擴大了參與者的範圍。再者,審議式民主增加政策透明度,討論和決策過程都可以被記錄下來,並且對所有參與者開放,這有助於增加政策制定過程的透明度和公開性。最後,由於活動是在線上進行的,可以更方便地鼓勵公民發言、收集意見、進行討論,並做出決策,從而提高了決策的效率。線上審議式民主活動提供了一個方便而有效的平臺,讓更多人參與到政治討論和決策中來,從而促進了民主參與和政治透明度。

    本次公民審議活動的公民意見產出,針對民眾的期待,數位部旋即在 4 月 17 日邀集國際大廠就強化平臺的分析及辨別機制、及將語言模型(LLM)提送 AI 評測中心等議題作討論,與會的國際大廠皆認同 AI 須具備可信任、準確性及安全等重要特性,並指出開發語言模型過程中,皆有其團隊負責對轄屬模型進行持續性測試與訓練調整,以符合可信賴 AI 系統的期待;對於其開發中的語言模型,提供給 AIEC 進行評測皆持正向態度;此外,對於生成式 AI 內容進行分析及辨別方面,國際大廠皆在會中提出已建立或即將導入的相關作法,包括 SynthID 等 AI 生成內容偵測技術、溯源標註及簽章、用戶檢舉機制,以及提醒用戶注意AI生成內容等作法。

    本次活動藉由蒐集與彙整民眾及 AI 國際大廠的意見,亦將對應行政院近期推出詐欺犯罪危害防制條例草案(打詐專法),針對網路廣告平臺課予額外責任,草案內容涵蓋有其刊登或推播之廣告不得含有涉及詐欺之內容,藉以強化 AI 分析及辨別資訊能力;此外,網路廣告平臺刊登或推播之廣告倘含有使用深度偽造技術或人工智慧生成之個人影像,應於廣告中明確揭露,以符合民眾的期待,期待業者都能有效遵循法規,保障大多數的良善網路使用者。

3 方法

透過隨機發送簡訊方式招募一般公民,從填答有意願參與的受訪者中,以分層隨機方式抽出至少 400 位。根據居住地、性別、年齡變項,抽選出符合全台母體比率的樣本(根據內政部戶政司人口資料)。另根據我國就業者業務數位化比率為 53.6%,指工作時需要電腦或網路(110 年國家數位發展研究報告,https://ws.ndc.gov.tw/001/book/109-Digital/index.html),抽出約一半的參與者在工作時會需要使用電腦或網路。

另外採立意抽樣(purposive sampling),招募數位從業者(約 50 位,5 組)。寄送同樣的問卷調查連結給在內政部登記的數位和新聞媒體公司,或透過線上社群網絡等方式。有意願參加的數位從業者分派到另外的小組討論(討論議題和一般公民小組一樣)。以上為抽樣原則性規劃,實際抽樣比例將視回收情形和委託單位討論後進行調整。

本次調查依照 113 年 1 月內政部戶政司所釋出的人口比例表抽樣,並進行加權(weighting)。加權方式為「多變項反覆多重加權」(Iterative Proportional Fitting, IPF),亦稱為 Ranking 。加權後再確認是否每個基本資料與母體皆無顯著差異。加權步驟如下,首先將樣本與母體的基本資料如性別、年齡、地區比例進行卡方檢定,其中母體基本資料的層級是按照當初抽樣時所劃分的層級進行分配。

本場次的參與者共計 436 位,性別比例方面,男性 233 位占比 51.2%,女性 213 位占比 48.8%。

性別占比

在年齡分布上,年齡區間落在 40-59 歲的參與者為多數,占比大約 36.3%,接著是 19-39 歲,占比大約 34.3%,最後 60 歲以上占比為 29.4%,顯見本次討論年齡多數是落在青年、青壯年世代的參與者,60 歲以上有意願參與線上審議大會者相較於其他年齡層較為不足。推測原因與議題之切身相關性與專業門檻、社會參與度及線上會議操作熟悉度有關。可參考下圖:

年齡分布

在參與者教育程度方面,教育程度落在大專者為多數,占比約 53.6%;其次研究所以上占比為 34.7%,而高中職與國初中占比為 11.7%,顯見本次討論落於教育程度為大專及以上的參與者,可參考下圖:

教育程度

在參與公民之地區分布則以北部為大宗,共有 207 人參與占比為 47.5%,其次為南部地區占比為 26.3%,中部地區占比為 23.8%,最後為東部地區占比 2.3%,金馬地區雖抽樣時有抽出樣本,可惜最終無該地區民眾參與,故在加權時若計算到地區則將其本來所佔之百分比依比例分給其他四個區域,若檢定出來 P 值小於 0.05 則認定兩者有顯著差距,則進行加權。

地區分布

在從事數位工作者的分布上,參與者從事數位工作者為 104 位占比為 23.8%,其餘非數位工作者為大宗,參與者為 332 位占比為 76.2%。

有無從事數位工作

本計畫調查參與人員是否有需要在工作上使用電腦或網路,以需要者為大宗參與者有 404 位占比為 92.7%,不需使用電腦或網路者為 7.3%。

工作有無使用電腦或網路

陽明交大科技與社會研究所團隊透過隨機抽樣簡訊發送形式,以政府 111 簡訊平臺,召募 436 位全國各地的公民,並以採立意抽樣(purposive sampling)召募數位工作者,齊聚史丹佛線上審議平臺(Stanford Online Platform),討論大型平臺應該如何運用 AI 促進資訊完整性。公民審議大會提供參與者充分和全面的政策議題資訊,透過公民小組審議以及專家對談以釐清問題,深入了解政策方案的利弊得失,產出公民和數位工作者對於 AI 評測制度以及應如何運用 AI 提升資訊完整性的政策意見,可供相關權責單位研擬 AI 規範與標準之參考。

計畫團隊撰寫與編輯議題手冊資料並經由 AI 和相關領域的學者專家加以檢閱並提供建議。議題手冊提供公民參與者進入討論前的基本資訊,內容涵蓋了生成式 AI 與資訊完整性的簡介,以及關於大會兩個場次討論議題的持平意見陳述和各個方案的正反不同論點,有助於公民更進一步瞭解、思考和參與討論。本計畫在 2 月 6 日下午舉行專家諮詢委員會議,邀請7位學者專家針對此次活動舉辦提供諮詢意見,並共同討論提供給民眾的閱讀資料內容、推薦與民眾對談的專家人選。

陽明交大科技與社會研究所與史丹佛線上審議平臺(Stanford Online Platform)合作,該平臺是針對小組討論而設計的討論平臺,可以促進結構化的和公平對話的機會,該線上平臺是由該校審議民主中心和群眾外包民主團隊研發,參與者隨機分配到 10 人的線上公民審議小組,過程中線上平臺會提供政策議題的正反不同意見的資訊以進行結構化的討論。平臺特色包括對於發言時間的管理、議題管理、防止不當言語、並協助參與者公平參與討論、顯示討論議程和議題資訊、顯示字幕按鈕、即時記錄發言內容和圖像化發言情形,跨越時空和擴大參與的規模等。以下簡要說明本次活動設計概念與操作方案:

本計畫製作兩支介紹討論主題短片(各 4 分鐘半左右),在公民小組進行討論前播放,以促進公民對於議題手冊方案的發想和思考,並聚焦討論。影片設計主要傳達 AI 科技不斷進步,為我們的生活帶來許多好處和方便,但如 ChatGPT、deepfake 或其他 AI 繪圖軟體等簡單易學的「生成式 AI 」軟體,也同時產生了很多不實訊息、極為逼真的照片和影片(例如偽造的名人記者會影片、換臉的不雅照片、不存在的政府新聞稿與文件),這些內容經常和真實新聞混在一起傳播。不過,人們也能利用 AI 幫助我們辨別資訊來源,分析資訊的真偽和完整背景。本活動透過討論交流如何運用 AI 來鑑別和評估訊息的真實性,並維護資訊的完整性。

兩場次審議活動共有四個討論子題:

  1. 加強大型平臺業者自律,還是強化政府監管?
  2. 大型平臺應如何透過 AI 幫助公民「分析」資訊完整性受到的新興威脅?
  3. 大型平臺應如何透過 AI 幫助使用者「維護」資訊完整性?
  4. 大型平臺應如何運用 AI 來「提升」資訊完整性標準?
針對四大討論主題設計多個政策選項和行動方案,讓參與公民審議的公民能夠全面審視、權衡和討論不同方案的選擇,以利公民釐清和思考較佳的 AI 技術與系統可能產生的影響,並全面地加以權衡和討論問題解決的方案或措施。

參與者進行線上審議時,平臺上有討論議題的相關資訊,供參與者隨時檢視並進行結構化的討論。公民小組在充分討論和審議後,針對該場次子題討論提出兩個最想要詢問專家的問題,然後在大場專家對談有來自跨領域的 AI 學者專家回應公民小組的提問,包括資訊科學、AI 法學、人文社會科學、傳播科技、計算語言學等跨領域的八位學者專家。在審議結束後進行後測調查,瞭解參與者在政策議題的態度變化和知識以及對本此活動的回饋意見。

本次公民審議大會的公民招募,透過隨機發送 20 萬筆政府 111 簡訊,回收有效樣本數總計 1,760 筆。在回收的有效樣本 1,760 筆中,數位工作者有 573 筆(占樣本 32.5%)。本計畫根據性別、年齡、居住地變項,抽選出符合全台母體比率的樣本。接著,根據 110 年國家數位發展研究報告,我國就業者業務數位化比率為 53.6%,指工作時需要電腦或網路,抽出 53.6% 在工作時會需要使用電腦或網路。

3 月 23 日整個下午共計有 447 位公民全程出席兩場次的審議大會,隨機分派到 44 個公民審議小組,其中數位從業者有 12 組,一般公民小組有 32 組。

透過調查結果顯示,公民在審議後認為討論議題比原本認知和想像來得更為複雜,且更加了解到 AI 科技發展面臨的挑戰。對於政策方案的態度上趨向於謹慎,而非極端立場。公民審議後有八成五的公民認為大型平臺應該加強自律,為提高資訊完整性負起主要的責任,識別生成式 AI 技術可能帶來的風險;高達八成九的公民贊成大型平臺應該執行新技術,偵測平臺上是否某些特定內容是由 AI 生成的,審議後上升 2.6% 個百分點。對於 AI 產品與系統應增加資訊完整性的評測項目之方案的支持程度稍有增加,有 87.9% 的公民表示贊成。公民在審議後知識題組上的答對率提升,且對於公民審議大會表示正面評價。

本次調查以成對樣本 T 檢定分析,呈現各項議題在審議後的態度改變情形。問卷詢問議題面向中每一題(除知識題外)皆由 0-10 分的量表組成,10 分為最正向或最支持的答案,0 分為最負向或最反對的答案。以下係分別計算其前後測平均數並作成對樣本 T 檢定外,將原本 0-10 的分數重新歸納為不同意或不支持 %(0-4 分)、普通 %(5 分)和同意或支持 %(6-10 分),呈現其樣本分佈百分比;知識題部份答對得 1 分,答錯或不知道為 0 分,將其前測與後測加總後作成對樣本 T 檢定分析。

3.4.1 AI 對社會與個人的正面影響程度認知

以下三個層面同意比例皆為上升的趨勢

  • 「您的每天日常生活正面影響」在後測同意比例為 76.5%,上升 9.3 個百分點
  • 「您的工作環境」在後測同意比例為 71.3%,上升 11.5 個百分點
  • 「您的個人生活」在後測同意比例為 72.2%,上升 14.6 個百分點

3.4.2 AI 對社會與個人的負面影響程度認知

三個層面同意比例皆為上升的趨勢

  • 「您的每天日常生活正面影響」在後測同意比例為 76.5%,上升 9.3 個百分點
  • 「您的工作環境」在後測同意比例為 71.3%,上升 11.5 個百分點
  • 「您的個人生活」在後測同意比例為 72.2%,上升 14.6 個百分點

3.4.3 加強大型平臺業者自律,還是強化政府監管?

在應加強大型平臺業者自律,還是強化政府監管部分,審議後公民仍有高達八成五的比例表示同意

  • 大型平臺應該要為提高資訊完整性負起主要的責任,識別生成式 AI 技術可能帶來的風險,後測同意比例為 85.3%,下降 3.2 個百分點
  • 政府應該要為提高資訊完整性負起主要的責任,識別生成式 AI 技術可能帶來的風險,後測同意比例為 86.2%,下降 1.0 個百分點
  • 政府應針對大型平臺以錯誤或濫用 AI 的方式損害資訊完整性,應實施鉅額罰款後測同意比例為 85.5%,下降 4.4 個百分點
  • 政府應要求被發現違反資訊完整性標準的特定 AI 系統或演算法暫停使用,直到經過審核和糾正改善後測同意比例為 83.5%,下降 6.9 個百分點

3.4.4 大型平臺應如何運用 AI 幫助公民分析資訊完整性受到的新興威脅?

  • 有高達八成九的公民同意大型平臺應該執行新技術,偵測平臺上是否某些特定內容是由 AI 生成的,上升 2.6% 個百分點
  • 大型平臺應要求使用者提供標籤、浮水印,提醒閱聽人哪些資訊和影片是 AI 生成的後測同意比例為 89.7%,下降 2.5 個百分點
  • 大型平臺應自動偵測是否有些貼文含有 AI 生成的內容,如果有,則要標籤並告知閱聽人這些貼文可能含有 AI 生成的內容後測同意比例為 88.4%,下降 4.4 個百分點
  • 大型平臺應該對那些曾經接觸過不實訊息的使用者進行事後通知,並為他們提供正確的訊息以作為糾正後測同意比例為 82.1%,下降 6.7 個百分點
  • 大型平臺應使用 AI 檢測是否有使用者經常曝露在不實訊息,若是,則應要求該使用者辨認不實訊息的培訓課後測同意比例為 75.0%

3.4.5 大型平臺應如何運用 AI 幫助使用者維護資訊完整性

針對 AI 產品和系統評測中心應增加資訊完整性的評測項目,測驗 AI 語言模型是否符合標準,有 87.9% 的公民表示同意,平均數從 8.14 上升到 8.19

  • 針對 AI 產品和系統評測中心應增加資訊完整性的評測項目,測驗 AI 語言模型是否符合標準,有 87.9% 的公民表示同意,平均數從 8.14 上升到 8.19
  • 大型平臺的生成式 AI 在提供資訊時,應引用多元的資訊管道來源後測同意比例為 90.1%,下降 2.7 個百分點
  • 大型平臺的生成式 AI 在引用資料出處時,主要的資訊來源應該是國際認證的資訊後測同意比例為 83.7%,下降 2.9 個百分點
  • 大型平臺應將被發現嚴重違反資訊完整性標準的使用者暫時停權使用,直到經過審核和糾正改善後測同意比例為 86.9%,下降 4.9 個百分點

3.4.6 大型平臺應如何運用 AI 更好地提升資訊完整性標準?

四個面向均在後測有下降趨勢

  • 大型平臺應該有義務將用於內容和數據分析的 AI 演算法公開透明化後測同意比例為 55.6%,下降 27.5 個百分點
  • 大型平臺應在動態消息中提供含有預防內容的教育時段,教導使用者如何辨識訊息來源或 AI 生成內容後測同意比例為 82.7%,下降 9.3 個百分點
  • 大型平臺應該建立一個低門檻的管道,讓使用者可以簡單的針對內容進行檢舉,或對收到的檢舉通知進行申訴後測同意比例為 81.9%,下降 8.4 個百分點
  • 事實查證的機制應該交由一個獨立的、具人口組成代表性的公民監督團體來進行審核和評估後測同意比例為 79.4%,下降 4.3 個百分點

3.4.7 個人意見重要性

兩個面向皆有上升的趨勢

  • 我的意見在我的社區之重要性後測同意比例為 60.8%,上升 17.3 個百分點
  • 我的意見在社群媒體的重要性後測同意比例為 55.9%,上升 12.0 個百分點

3.4.8 對於各類對象的信任程度

  • 對政府權責單位(數位發展部)後測同意比例為 68.2%,上升 9.2%
  • 學者專家後測同意比例為 71.2%,上升 9.8%
  • 日常生活中社區的人們後測同意比例為 48.4%,上升 8.2%

3.4.9 知識增加

  • 前測平均數為 3.4774,後測平均為 3.9711,平均每個人多答對 0.5 題左右。由此可知民眾在會後較能正確答題。

3.4.10 公民會後評價

  • 受訪者對整體活動評價偏正向,平均分數落在 7.01-8.11 之間
  • 小組討論平均分數為 7.01
  • 主辦單位提供的議題簡介手冊平均分數為 8.00
  • 大場:專家與公民對談平均分數為 8.00
  • 整體的活動平均分數為 8.00

整體來說,本次受訪者對討論平臺看法之態度偏正向,多數題目平均分數落在 7.04-8.47 之間。其中線上審議平臺提供了每個人參與討論的機會平均分數為 8.47;小組討論中,每位成員相對平等地參與在討論平均分數為 8.12;討論平臺有盡可能地確保相反的意見被考慮到平均分數為 7.56;小組討論中,議題的重要層面都有被涵蓋到平均分數為 7.04。

整體來說,本次受訪者對會議的其他看法之態度偏正向,平均分數落在 7.62-8.50 之間,其中題項「我從其他跟我不同想法的參與者身上學到很多」、「關於他們以及他們的生活經驗」平均分數為 7.62。「討論後我了解更多關於其他人在這主題上的看法」平均分數為 7.98;「我從其他參與者身上獲得到一些截然不同的看法、知識和經驗」平均分數為 7.83;「我學到關於議題的更多主張立論,有助於我精緻化個人意見」平均分數為 7.99;「這個討論過程對我來說是重要的」平均分數為 7.90;「我想要這場審議活動如期舉辦,即使我可能無法參加」平均分數為 8.43;「這個審議過程提出和討論非常重要的議題平均分數為 8.50」。

整體來說,本次受訪者對會議對個人影響之態度偏正向,平均分數落在 6.22-7.56 之間;本次受訪者對增進討論主題的理解之態度偏正向,平均分數落在 7.58-9.52 之間。

關於會議對個人態度的影響,在經歷本次的活動參與討論後,請問您覺得對 AI 的知識是否增加了平均分數為 7.56。「在經歷本次的活動參與和討論後,請問您覺得個人對於 AI 議題的態度和立場,與還未參加之前相比改變了多少?」平均分數為 6.22。

關於討論主題的理解,了解生成式是什麼,平均分數為 7.58;大型平臺公司運用 AI 技術以促進資訊完整性,平均分數為 7.61;了解 AI 科技創新發展面臨的挑戰,平均分數為 9.52。

4 結論與建議

為促進數位發展部致力推動可信任 AI 及數位信任環境,為瞭解與宣導運用 AI 促進資訊完整性之重要性,透過線上「運用 AI 促進資訊完整性審議式民主活動」與專家學者與公民、社群和數位從業者討論運用 AI 來辨識和分析資訊的完整性等相關議題。

本次活動創造 3 大創舉,協助政策推動。另由於此活動辦理相當成功,獲民眾支持,後續亦將持續辦理,促使民眾以自身的需求與觀點,提供更多政策建議。

  • (一)以 111 政府簡訊鏈結民眾信任:

    透過 111 政府簡訊平臺發送,建立政府可信賴之訊息傳遞管道,強化民眾對於政府資訊信心,並且以公開透明的隨機抽樣方式,達成社會各階層參與之多樣性,以透過數位部 111 政府簡訊平臺鼓勵民眾參與。

  • (二)民眾關切議題旋即落實討論:

    國際大廠皆認同 AI 須具備可信任、準確性及安全等重要特性,並強化平臺的分析及辨別機制,包括已建立或即將導入的相關作法,包括 SynthID 等 AI 生成內容偵測技術、溯源標註及簽章、用戶檢舉機制,以及提醒用戶注意 AI 生成內容等作法。對於其開發中的語言模型,提供給 AIEC 進行評測皆持正向態度。

  • (三)民眾心聲促法案推動

    藉由蒐集與彙整民眾及 AI 國際大廠的意見,扣合行政院近期推出詐欺犯罪危害防制條例草案(打詐專法),草案內容涵蓋有其刊登或推播之廣告不得含有涉及詐欺之內容,藉以強化 AI 分析及辨別資訊能力,倘含有使用深度偽造技術或人工智慧生成之個人影像,應於廣告中明確揭露,以符合民眾的期待。

返回頁面頂端