世界首部AI法案推手獨家專訪,他為何仍憂心AI監理的未來?
文/吳季柔、傅莞淇 攝影/張智傑
《歐盟人工智慧法案》這份世界第一部AI法案,於2024年8月誕生。制定過程幾經波折,定案後更爭議不斷。《遠見》專訪AI法案幕後推手馬齊尼,一揭爲何全球關注「布魯塞爾效應」?
青少年整夜未眠,與戀人談天說地,但對話窗裡的迴應者,卻是人工智慧(AI)。這並不是電影《雲端情人》中的幻想,事實上,AI已成爲許多人傾訴心事的對象。但負面效應也隨之出現,美國有一名14歲少年自殺,AI就遭指控,是間接造成憾事的幫兇。
距離ChatGPT橫空出世,在各行各業掀起濤天巨浪,已有兩年之久,許多人的生活早已與AI緊密相連。而當AI走進日常,巨大潛力的背後,也帶來難以忽視的科技雙面刃,AI幻覺、假訊息、侵權、惡意言論、偏見與歧視等爭議,紛紛席捲而來。
因此,各界開始思考如何管控、駕馭這頭科技巨獸,世界第一部AI法案——《歐盟人工智慧法案》(EU AI Act,以下稱AI法案)也應運而生,從正式提案起算,歷經三年,終於在2024年8月生效。
未來,服務歐盟市場的AI產品皆需遵守規範,此部法案有意在全球高速運轉的AI齒輪中,帶頭踩下煞車,樹立人類駕馭科技的歷史里程碑。
制定過程遇上ChatGPT問世
《遠見》專訪催生這部空前法案的幕後推手馬齊尼(Gabriele Mazzini),談談他催生法案的心路歷程。
若算進醞釀期,此部法案的催生歷程其實長達五年。過程中,馬齊尼與團隊沒日沒夜地埋首法規之中,但直至AI法案拍板,仍處處存在爭議,令他大失所望。帶着對法案愛之深、責之切的無奈,身爲歐盟AI法案提案、起草團隊負責人的馬齊尼,黯然選擇離開歐盟職位。
要了解法案版本如何架構,得從立法時空開始拆解,這其實也反映了AI發展的脈動。
2019年,哈佛法學碩士的馬齊尼奉歐盟執委會之命,着手準備制定AI法案,採用四層「風險分級」的橫向監管模式。隔年,團隊起草了第一份白皮書,然而,若與當前最終版本比對,大方向雖相同,卻仍有着不小的落差。
其一重要的轉折,正是2022年11月ChatGPT問世,大型語言模型具有廣泛應用特性,被稱爲「通用型AI」,挑戰法律草案原先聚焦「特定應用場景」的監管模式。
爲此,立法團隊不得不再多添加一整章法條。「如果沒有ChatGPT,通用人工智慧模型(GPAI)的章節也不會出現。」馬齊尼說。
隨後,2023年,非政府組織「生命未來研究所」(Future of Life Institute)發起近千人連署的公開信,呼籲暫停訓練比過往更強大的AI模型;同年10月,美國總統拜登(Joe Biden)簽署「AI行政命令」,納入針對基礎模型(foundation model)的具體規範。這些,進一步反映人們對AI風險的焦慮,也促使歐盟在AI法案中,加入「系統性風險」(systemic risks)的概念,即針對運算能力更強大、風險也更高的基礎模型,施加更嚴格的監管。
由此可見,立法團隊與時俱進,試圖追上光速發展的AI技術;最終加入規範通用模型的篇章,也讓AI法案得以和當前影響最深遠的AI應用接軌。
AI法案仍有諸多灰色地帶
然而,還是留下了一連串爭議,例如,規管對象偏重下游應用商,而非擁有更大權力與資本的模型供應商等。
此外,法律專長、中央研究院歐美研究所副研究員何之行指出,判定GPAI系統性風險的門檻相當弔詭,以當前規定的模型訓練運算量判定,GPT-4屬於具系統性風險的模型,需進行測試評估,爲何GPT-3.5卻不需要?
事實上法案模糊之處不僅於此。馬齊尼直言,在政治壓力與議會期程影響下,立法過於倉促與草率,最終版本複雜且偏離他最初設想。即便身爲法律起草者,熟悉法案內容如他,仍對部分內容困惑不解,「我正在寫AI法案的論文,重讀法條時,也不禁覺得『這怎麼可能合理?』」
例如,與歐盟《一般資料保護規則》(GDPR)這部現有法規之間,就存有衝突;當AI會自我學習,如何定義AI系統是否發生「重大修改」(substantial modification);產品「安全元件」的認定,也缺乏明確標準等。這些懸而未決的關鍵問題,不僅增加企業合規的難度,也爲未來AI監管帶來更多不確定性。
「監管機構的工作是制定規則,並保持明確,而非模糊不清,將權力留給自己。」馬齊尼多次強調,完善的監管並不會抑制創新,難以釐清遵守的法律纔會減緩投資速度,「AI法案有許多灰色地帶,這會讓中小企業、非法律專長的人們更難以適從。」
諸此種種,再度顯現制定AI法案難如登天。馬齊尼分享,他正式「登出」立法團隊的那天,恰巧與七年前加入歐盟執委會的日期重疊。如此巧合,讓他發文回憶這一路走來的風風雨雨,如何爲法案「取名」、反思與辯證其優缺點,以及與各方談判權衡。這段超乎想像的艱辛旅程,對他、對世界,都具有深遠的影響,「我仍然覺得,這是我職業生涯中,最具挑戰性、也最有影響力的一段經歷。」
學者不期望「布魯塞爾效應」
透過這套全球首見的AI法案,歐盟昭示符合歐洲價值的人工智慧治理及監管框架。可望透過歐洲市場影響力,再度發揮「布魯塞爾效應」,影響國際加強保障AI系統使用者的權益。
布魯塞爾效應(Brussels effect)指的是歐盟透過其市場規模和嚴格標準,影響非歐盟國家與企業的行爲方式,進而形塑全球性的監管標準。如GDPR便對個資保護標準產生了深遠影響。
但要讓國際參與者跟從,歐盟自己得先身體力行,證明這套法案既能完善運作,也能在風險監管與培植創新間取得平衡。
想達成目標,前方還有漫漫長路。從禁用情境指引、最佳實踐建議,到協調各會員國主責機關執行之一致性,預計聘僱140餘名員工的歐盟「人工智慧辦公室」,有着相當龐大且多元的任務量。專精法律的臺灣人工智慧學校基金會秘書長侯宜秀認爲,要在兩年內落地,任務相當艱鉅。
根據「生命未來研究所」彙整,接下來,歐盟執委會與人工智慧辦公室還有130項待處理任務。其中,甚至有39項需制定的次級法律!
侯宜秀進一步指出,AI立法本身就具有顯著難度。以基礎而論,AI技術正在全球迅速發展演進,光是要明確定義「人工智慧系統」便不容易,遑論是針對各種不同模型、輸出、應用場景設定明確規範。
其次,價值對齊與檢測的執行方式也有待發展。例如,法規要求AI模型的公平與不歧視,但這該如何進行量測?用什麼樣的工具進行?所謂的「公平」,又該採用哪一套價值觀定位?
目前,朝向通用型技術邁進的AI融入服務、產品的層次愈趨多元、複雜,已非過往專精於單一任務的「專才型」AI可比擬。當一件產品或服務部署多種模型、可以爲消費者協作執行橫跨不同風險層級的多元任務,這樣的產品或服務究竟該適用哪些規範?
諸多未明朗的模糊之處,讓侯宜秀直言「不期望這套法案產生布魯塞爾效應」。她透露,所接觸的歐洲專家也承認法案是27個會員國間折衝、妥協後的結果,不建議其他國家整套複製。
觀察歐盟AI法案的國際影響力,泰國孔敬大學經濟與國際貿易法研究所所長張粱(Taenrat Khunngern)認爲,東西方社會脈絡不同,歐盟觀點不一定適用他國。他指出,要說市場規模,亞太地區的人口比歐洲更多,消費力不可小覷。亞洲在AI治理面的選擇,也值得西方觀察。
周遊各國盼找出更完善解方
「AI是一個全球性議題,」張粱表示,「因此,各國的觀點都應該參與進來。」
曾於美國、澳洲、中國等地進行研究的張粱觀察,AI法律跟不上技術的進展,已是學界共識。他認爲,現階段來說,比起針對人工智慧立法,更好的作法可能是發佈指引,再輔以各國普通法。
但歐洲已經在AI立法上勇敢跨出第一步,如今全球都在觀察其後續表現。張粱表示,「歐洲擅長從0到1,亞洲擅長從1到1+。」如果歐盟AI法案運作良好,亞洲可從中學習、制定出更適合自己的立法框架。
這一方面需要時間。隨着AI相關判例增加,諸如智財權歸屬等議題的走向正在逐漸明朗。另一方面,諸如OECD、G7等國際組織也紛紛提供指引。未來亦可能出現獨立的國際性AI監管組織,負責調和各國規範。
要迎戰變化迅速的AI進展,治理框架勢必須更加靈活。爲打造更符合自身優勢與利益的國際治理框架,各國、各地區及各組織爭奪話語權的努力,方興未艾。
目前,馬齊尼持續周遊各國,與世界各地的學者討論AI法案,期待能找出更完善的解方。他也呼籲歐盟,應將資源集中在解決這些核心問題上,而非糾結於未經證實的風險,以確保AI法案真正造福歐洲,乃至於全球的AI產業和社羣。「AI法案是一個未知領域,我們必須創造全新的事物。問題還存在,但也充滿機會。」他說。
加布裡埃爾.馬齊尼 (Gabriele Mazzini)
學歷:哈佛大學法學院法學碩士、帕維亞大學的義大利法、比較刑法博士及米蘭天主教大學的法學學士
經歷:歐盟AI法案提案、起草團隊負責人,現任麻省理工學院媒體實驗室和連結科學(Connection Science)研究計劃成員
【本文摘自遠見雜誌1月號;更多文章請上遠見雜誌官網:https://www.gvm.com.tw】