深偽時代的選舉:AI如何重寫民主遊戲規則?
從去年到現在,世界各國選舉活動頻繁。2025年4月,加拿大選舉前夕,一張照片在X平台(前身為Twitter)上流傳:加拿大總理候選人馬克‧卡尼(Mark Carney)與惡名昭彰的金融掮客傑佛瑞‧愛潑斯坦(Jeffrey Epstein)並肩合影。照片中的兩人神情自然,似乎在某場私人聚會中交談。對政治人物而言,這是毀滅性的圖像聯想——它暗示著醜聞、金權等負面印象。幾個小時內,這張照片被轉發數萬次,儘管隨後被證實完全是生成式AI的造假照片,但對卡尼選情不無負面影響。
同樣的戲碼在波蘭重演:TikTok流傳一段川普「親自」為該國極右翼領袖斯瓦沃米爾‧門岑(Slawomir Mentzen)背書的影片,雖然後來被證實為AI深度偽造(deepfake),但其在特定社群的病毒式擴散仍顯著影響輿論走向。
最為驚悚的,則是羅馬尼亞。2024年總統大選首輪投票因AI操控資訊戰而被法院宣告無效,重選迫在眉睫。這是全球首個因AI資訊戰而直接推翻選舉結果的案例:俄羅斯支持的AI生成語音與假影片在TikTok上鋪天蓋地傳播,其中甚至出現川普語音克隆「痛斥羅馬尼亞政府正在摧毀民主」的假訊息。
這些案例凸顯一個新的現實:AI已從資訊操弄的輔助工具,進化為動搖民主基礎的「選舉幽靈」。
「真實幻象」:民主信任的崩解
假訊息在選舉中的影響並非新鮮事,但生成式AI的出現,將其推向另一個層次。傳統假訊息需要花費大量人力撰寫敘事、設計偽裝管道;而現在,一段仿真度極高的語音、一張精細的合成照片,就能瞬間製造可視、可聽、甚至可感的「真實幻象」。
這種幻象的危險,不僅在於誤導個別選民,更在於侵蝕民主社會最根本的共識:對事實可驗證性的信任。選民開始懷疑一切影像與語音的真偽;支持者可用「這是AI假造」為理由否認任何不利證據,反對者則選擇性地相信最符合自身立場的影像「證據」。這種「後真相效應」,使公共辯論從基於事實的討論退化為充滿情緒的立場宣示。
國際觀察也發現,這種「真實幻象」放大選民的既有偏見與社會裂縫。IPIE 今年的報告指出,生成式AI在德國、葡萄牙、阿根廷等地的選舉中,普遍用於強化對移民、經濟或安全議題的極端立場,尤其容易被極右派利用。
跨國政治操控的新武器
AI在選舉中的政治用途,不再只是一國內部政治鬥爭的產物,更成為跨國干預的新武器。羅馬尼亞的案例便是明證:俄羅斯相關帳號利用AI生成大量假影片與語音,煽動民眾不信任政府;摩爾多瓦在選舉前夕,也出現俄羅斯操控的假影片,聲稱總統桑杜(Maia Sandu)「親歐」;英國則有AI生成的「移民大排長龍」照片,挑動排外情緒。
這種跨國滲透的危險性在於,AI結合數位平台的全球性與匿名性,使干預行動幾乎無法追蹤。一場選舉不再只屬於該國選民的選擇,而是全球權力博弈的戰場。
民主為何如此脆弱?
從制度面觀察,民主社會在AI攻擊下顯得如此脆弱,至少有三個原因:
第一,公共討論的極化現象。AI擅長放大既有的政治對立。加拿大的造假照片事件之所以能迅速發酵,並非因所有人都相信其真實,而是它迎合原本部分選民對卡尼本的負面偏見。
第二,平台監管政策牛步。生成工具的門檻極低,社群平台的審查往往在假訊息擴散後才介入,即使後續移除,也難以挽回其短時間內造成的影響。
第三,法治工具的落後。大多數國家仍缺乏針對AI假訊息的明確法律框架,司法系統更顯無力。羅馬尼亞雖以司法途徑啟動重選,卻已反映現行制度在面對AI操弄時的左支右絀。
如何為民主「自救」?
在這場由AI所引發的信任危機中,民主國家依然存在自我挽救的契機。首要之務是推動跨國合作,建立有約束力的AI選舉安全規範。歐盟雖已透過《數位服務法》要求平台對假訊息承擔責任,為數位平台治理開啟先例,但若要真正應對AI生成內容的挑戰,仍需擴大至G7或OECD層級的協調機制,制定內容透明度的最低標準。
同時,技術手段難以獨自解決資訊真偽辨識的問題,使得媒體識讀與公共教育更顯迫切。唯有強化公民的批判性思維,才能在虛實交錯的資訊環境中做出明辨。以加拿大為例,其在選舉期間透過公共廣告提醒民眾「不輕信影像」,展現出國家層級的積極作為。
此外,面對AI可能取代新聞媒體作為「事實仲裁者」的趨勢,各國更需重建一個具備高度透明性與即時查核能力的公共媒體系統。唯有如此,才能在資訊失序的時代中守住可信賴的公共論述空間,維繫民主社會的認知秩序。
AI的迅速進化提醒我們:民主不只是依賴選票運作,更建立在「可共享的真實」之上。當影像與語音的真實性失去公信力,當選民習慣以陰謀論解釋一切,當外部勢力僅憑幾行代碼就能動搖選舉結果,民主的基礎將被侵蝕得比我們想像更快。
留言 0