AI風險管控/AI發展殿後 歐盟急推法案

歐洲議會去年6月14日以壓倒性票數,通過全球第一個人工智慧法案,今年8月正式生效。(路透)

"馬克宏說,相較於北京模式是由政府管理的創新模式,美國模式是由私人管理,歐洲模式將是結合公共與私人的中庸之道,是更理想的第三條路。"

歐盟人工智慧法案(AI法案)8月1日正式生效,是全球首部規範AI開發和應用的法律,歐洲理事會也宣佈「人工智慧與人權、民主、法治綱要公約(AI公約)」9月開放參與協商的各國簽署。歐洲AI發展落後美國和中國大陸,立法卻跑第一,法國總統馬克宏明言,歐盟AI法案用意之一是將監管措施化爲競爭優勢,盼歐洲AI發展迎頭趕上。

根據世界智慧財產權組織(WIPO)的數據,以當今AI領域最熱門的生成式AI而言,過去十年,大陸提交超過38000項專利申請,美國6276項,接着依序是南韓、日本、印度。

專利數目是重要指標,這個數字可以說明爲何美國要加強限制AI相關高科技產品銷往大陸,而AI專利前5名沒有任何歐洲國家。難怪馬克宏會承認,大陸與美國對AI的投資比歐洲多得多,「歐洲人有點落後」。他認爲,歐盟應建立自己專有的AI模型,和華府與北京平起平坐。

AI法案是歐盟的招數之一。法案由歐盟執委會於2021年4月提案,2024年3月由歐洲議會通過,5月獲歐盟成員國批准,8月生效。法案爲歐盟制定全面且一致的管理架構,目的是防範AI產生的負面影響。

AI依風險程度分爲四級

法案適用提供歐盟市場AI系統的企業和位於第三國的AI系統提供商,也就是美國和大陸的AI業者想在歐盟營運都要遵守。

法案依據風險程度將AI系統區分爲四級,若屬不可接受風險將被禁用,最小風險則幾乎不管理。

陸監控評分 遭AI法案禁止

在「不可接受風險」中,AI的應用若與歐盟價值、基本權利相悖,或威脅民衆生命和基本權利,一律禁用。例如,在大陸實施、以大數據和監控爲人民行爲打分數的「社會信用評分系統」,就被歐盟AI法案禁止。

對於高風險的AI應用技術,引進前即課以嚴格義務,包括適當的風險評估、減災系統、例行活動紀錄、人爲監督與網路安全等要求,被列入此等級的AI技術包括自動駕駛汽車、醫療設備、貸款決策支援系統、教育評分及遠端生物辨識系統。

有限風險的AI應用技術,因爲對公民的風險較小且容易控制,法案僅設立「透明性要求」,即企業負有告知義務,讓使用者明確知道正與機器互動,可決定互動是否繼續。

美國是目前大多數先進AI系統的建造與研發商,美國大型科技企業將成爲AI法案主要適用對象。大陸企業也必須遵守嚴格的數據隱私與安全標準,高風險AI系統將被要求提供詳細資訊數據,例如抖音透過「演算法」分析用戶行爲及偏好,可能受到嚴密監管。

如果企業違反歐盟AI法案,最高可能被處以3500萬歐元(約臺幣12.4億元)或全球年營業額7%的罰款。

歐盟執委會今年2月成立的AI辦公室,將負責該法案的監管事宜。法案給予企業過渡期,使其系統合乎法規,大部分條款要到2026年纔會正式上路。

美歐英公約 強調人權民主

除了AI法案,美國、歐盟、英國還簽署全球第一份針對人工智慧的公約,標榜具法律效力。這項由歐洲理事會發起的AI公約,強調人權與民主價值。

歐洲理事會於2022年設立AI委員會,起草並協商相關條文。經46個理事會成員國與美、英、日等11個非成員國的討論,於今年5月通過,9月5日開放參與協商國家簽署。

簽約國可選擇通過公約,或採取行政等方式實施公約。不過,非營利法律基金會歐洲中心的專家法努奇認爲,公約中原則與義務過於空泛,恐產生法律確定性與執行爭議。

與AI法案不同,AI公約旨在保障受AI系統影響者的人權,避免AI侵蝕歐洲傳統法治價值。

對於歐洲這些動作,法國總統馬克宏說,相較於北京模式是由政府管理的創新模式,美國模式是由私人管理,歐洲模式將是結合公共與私人的中庸之道,是更理想的第三條路。