雜誌精選》生成式AI造成「更真的假世界」 扭轉需要全社會攜手
ChatGPT的誕生,爲人類社會帶來了許多積極影響,有助於推動科技和文化的發展,提高人們的溝通效率和知識水平,推動社會的進步和發展,」問世四個多月的聊天機器人ChatGPT,談起自己的存在,如此寫道。(圖/ 遠見提供)
ChatGPT爲人類生活帶來便利性,卻同時帶來難以避免的危害。當這股網路霸權加劇衝擊既有社會秩序,我們該怎麼辦?
ChatGPT的誕生,爲人類社會帶來了許多積極影響,有助於推動科技和文化的發展,提高人們的溝通效率和知識水平,推動社會的進步和發展,」問世四個多月的聊天機器人ChatGPT,談起自己的存在,如此寫道。
這段回答,顯得過於樂觀。歷經連番追問,它才終於承認自己將帶來的種種衝擊,並坦言,要做出改善,必須集結全社會的力量,長期持續努力,一切並不容易。
ChatGPT的「自知之明」,實際上反映了許多人的擔憂。
一如歷史上每一次科技突破性進展,在提升生產效率、加速進步的同時,往往爲原有秩序帶來顛覆性轉變,眼前這場AI技術革命,亦是所有人都無法迴避的社會革命。
ChatGPT新霸權,學者憂心
「簡單地說,我非常擔心。」國立政治大學新聞系教授劉昌德直言,ChatGPT加快訊息被生產及傳播的速度,加上人類往往會盲目認定新科技物中立客觀,這對謠言、假新聞的散佈,無疑形成更大的溫牀。
劉昌德還點出另一個微妙的心態,「大部分人並不是想要Google回答他們的問題,而是期待Google直接告訴他們怎麼做。」他引述Google前老董施密特(Eric Schmidt)的名言,強調人都有惰性,而相較搜尋引擎在輸入關鍵字後條列許多連結,如今ChatGPT則是直接「餵養」單一答案給使用者,大公司抓準使用者的痛點,也難怪許多人埋單。
這爲人類生活帶來許多便利性,但從另個視角出發,劉昌德擔憂,當AI背後的訓練資料集存在錯誤或偏見,可能爲個人帶來隱私及名譽的侵害;更進一步,還將形成一股「新霸權」,不斷重複主流意識形態,連帶使少數、非主流的小衆意見受到更嚴重的打壓,並不利於公民社會的正向發展。
國立清華大學通識教育中心教授林文源,也在親身多次實測後,有了相似體悟,「從它的用語可以看出,裡面大量使用中國資料。」
這意味着,若使用者並不清楚AI獲取資料的來源,將在無形中受背後意識形態所操控。尤其各國發展AI的資源落差極大,「市場的壟斷」更是對言論、生活方式,以及思想的進一步壟斷。
林文源舉例,過去社羣媒體演算法形成同溫層、操弄總統大選等現象已爲人詬病,生成式AI的訊息傳播方式、甚至造假能力,恐怕會讓網路上的「分衆」現象更加嚴重。若是個人無法意識這股霸權的存在,就可能陷入AI創造的、一個「更真的假世界」。
法律管得了人,管得了AI?
面對種種危害,讓法律介入監管的訴求受到關注,但另一個問題也油然而生:法律管得了人,但管得了AI嗎?
「我不認爲法律管得了AI,這個期待太難了,」前行政院政務委員、理慈國際科技法律事務所共同創辦人蔡玉玲指出,由於法律制定程序冗長,要應對快速成長、變化莫測的AI,可說是鞭長莫及。
除了立法不易,其二則是執行上的困難。
蔡玉玲在政務委員任內,曾負責處理Uber落地爭議,該次事件涉及Uber是否該在臺繳稅、納保,併爲人身安全負責,避免其打着「共享經濟」之名,爲臺灣社會帶來亂象。耗時多年,雙方纔終於達成共識,有條件開放Uber落地。
劉昌德則以知名的「施建新案」爲例。2008年,時任職棒米迪亞暴龍執行長的施建新無故被捲入打假球案,而後獲判無罪確定,但搜尋引擎上仍流傳其打假球的相關訊息,施建新於是主張「被遺忘權」向Google提告,全案直至去年6月,才獲二審勝訴。
這些例子,凸顯臺灣跟跨國大企業交涉耗時費力,套用在現下情境,也是如此。
此外,蔡玉玲以生成式AI引發的著作權爭議說明,目前法律上評判侵權與否的標準,包含是否爲合理使用、著作間的相似性,但目前AI生成內容的過程與資料來源並不透明,在既有法規框架下,根本難以做出判決。
企業展開對話,負社會責任
或許法律不完全管得了AI,不過林文源認爲,有些規範仍得建立起來。立法要求AI做出標示,便是其中一個做法。
「就像食品標示一樣,AI本身就要標註自己怎麼被生產出來、資料從哪裡來,」林文源解釋,「我們知道它的極限,纔不會以爲它無所不能,不會讓某些族羣因爲它的限制而受到傷害。」
劉昌德也同意立法規範AI標示來源,此外他建議,若AI如同搜尋引擎般侵害個人名譽和隱私,產生「被遺忘權」的爭議,還是應建立起補救措施,將傷害降到最低。
但,迴歸這股AI霸權的強大威力,微小的規範就算治得了標、也治不了本。劉昌德分析,問題並不出在科技本身,而在其背後的科技公司,若企業只以獲利爲目的發展AI工具,就容易忽視科技對社會文化造成的深遠傷害。
「我們要節制的不是AI的影響力,而是節制資本在這裡面的力量,」劉昌德點出關鍵,「企業不是不能獲利,而是必須負起社會責任,在AI即將快速成長的轉捩點,這是最重要的事。」
他認爲,這些跨國科技公司應和社會開啓兩層次的對話。首先,是與各地公部門和民間團體的對話,比如,當碰上有爭議的言論時,訓練者不應以「內容審查」的形式,直接告訴AI誰是誰非,反而該讓各方觀點有碰撞的機會,進而提供AI較適當的內容。
其次,則是與內容產製者展開對話。如同全球各地媒體積極向Google、Meta等集結媒體內容而獲利的平臺業者協商,AI公司也該負起責任,透過獎勵或補助機制,鼓勵業者產製優質內容,才能促成好的產業生態系,防止低劣內容一再複製、生成,加劇對社會的危害。
或許對話過程將耗時費力,但也唯有如此,才能在有朝一日,讓科技真正推動社會進展。
長期提倡「公共化AI」的林文源也指出,臺灣雖難以複製大公司打造ChatGPT的模式,卻具備活絡的公民社會及高素質的工程師,加上近年政府開放資料、資料治理的概念都逐漸成形,在這股浪潮之下,能期待AI進一步落地,帶來正向循環。
「解決AI帶來的負面影響,需要全社會共同努力。只有通過合作,才能實現AI的可持續發展,以及對人類社會和文化的積極影響。」對此,ChatGPT也是這麼說的。
本文作者:陳品融
(本文摘自《遠見雜誌4月號442期》)
《遠見雜誌4月號442期》