2025全球名家瞭望/民主治理不能被 AI 影響

倫敦商學院院長古拉耶夫。(路透)

2024年是超級選舉年,佔世界人口近半數國家舉行大選,許多專家警告政治假訊息將氾濫成災。畢竟,生成式人工智慧(AI)興起,人人隨時隨地都可能製造栩栩如生的「深僞」圖片和影音。反民主惡徒從未握有如此強大的工具,得以破壞自由、公平的選舉。

有AI加持的假資訊顯然在線上滋長,但2024年並未嚴重打擊民主。也許社羣媒體使用者變得更明辨真僞,事實查覈者和數位平臺在遏制假新聞傳播上也做得更好,只是馬斯克的X平臺(昔稱「推特」)是明顯例外。

美國總統大選期間,兩邊陣營互控對方試圖壓制言論自由和民主。不過,關於AI擾亂民主過程的最糟預言並未成真。放眼全球,2024年選舉結果有好有壞,但崇尚自由和多元主義的政黨與候選人表現大多優於預期。

世界各地多數民衆偏好民主勝過其他治理模式,這正是爲什麼政治領導人迎合這種偏好而傾向舉行選舉,並容許一些獨立媒體。在許多國家,選舉不自由也不公平,但不民主的領袖也選擇辦選舉,足見投票仍廣受人民歡迎。同理,挺民主勢力的表現優異,應被視爲常態。

但民主論述難道沒被數位媒體侵蝕?2019年,紐約大學社會學家海特與散文家史托克威爾發表影響深遠的文章,標題是「社羣網路的黑暗心理」,文中對社羣媒體平臺「數位廣告導向的商業模式鼓勵引人注目的內容」示警。比起聳動的假新聞,真相平淡無奇,所以靠廣告支持的平臺有助長政治假訊息和兩極化的傾向。其他學者也紛紛指出,2010年代社羣媒體上的假資訊興起,遭反民主份子利用,與這種商業模式脫不了關係。

科技公司對此已採取行動。爲降低身爲假訊息頭號傳播者的名譽損失,多數社羣媒體平臺成立「信賴與安全」部門、投資內容審覈,並自我管理。他們訓練演算法程式辨識錯誤資訊(訊息不正確)與造假資訊(蓄意捏造誤導人的錯誤訊息),並把標註警告標籤的貼文通報獲認證的真人事實查覈者。

自2020年以來的隨機對照試驗顯示,上述措施似已奏效。儘管2018年一項調查發現,臉書使用普及導致政治兩極化且有損健康,2020年的類似研究卻未見到這類效應,或影響輕微。

其他研究分析人們處理、分享假新聞的做法。在公開評論黨派立場分明的訊息時,民衆更可能支持所屬政黨的立場,以示忠誠或想影響他人。但接受某種獎勵私下評估訊息真僞時,有黨派立場者更可能正確辨認錯誤訊息,而且避免轉發這種貼文。

社羣媒體平臺確實會傳播假訊息,有些甚至極具說服力,生成式AI平臺推出更引發新的顧慮。AI現已能生成取信於人、真假難辨的影音。

基於這種技術人人唾手可得,許多人擔心選舉會受到影響,可以理解。但截至目前爲止,惡犬會吠但不會咬。俄羅斯和其他敵國政府與民間惡徒,縱使在美國使出種種假資訊及干擾選舉的手段,卻無鐵證可證明生成式AI或深僞技術在左右選舉結果上扮演決定性的角色。

這或許是因爲政治特務尚未能駕馭這種技術,或針對生成式AI影響的研究還不夠透徹。也可能是,2010年代經驗讓社羣媒體使用者學會對線上內容提高警覺。尚待更深入的研究,但至少不必那麼恐懼公共論述和民主治理受AI影響。

(作者Sergei Guriev是倫敦商學院院長、Project Syndicate專欄作家/編譯湯淑君)