歐洲議會通過人工智慧法 依風險高低管理AI應用

歐洲議會大會通過全球最早出爐的人工智慧法案。 路透

歐洲議會大會今天通過全球最早出爐的人工智慧法案,將根據風險高低來管理這項新科技,包括社會評分、透過網路或監視器抓取民衆臉部影像以建立人臉辨識系統等,都在禁止之列。

歐洲議會(European Parliament)在史特拉斯堡召開大會投票通過「人工智慧法」(AI Act),爲歐盟境內的人工智慧開發和應用建立規則。

在該法之下屬於最高風險而被禁止的AI應用方式,包括使用敏感的個人特症來建立生物辨識歸類系統,例如政治立場、宗教信仰、種族或性傾向;從網路或監視器(CCTV)蒐集不特定對象的臉部畫面,用以開發臉部辨識資料庫;在工作場所或教育機構進行情緒辨識;根據個人特性或行爲進行社會評分等。

社會評分、監看上課投入程度的情緒辨識及各種人臉資訊蒐集等,都是在中國發生的人工智慧運用現象。

不過,歐盟AI法另爲執法目的提供例外,包括爲了尋找綁架肉票等犯罪被害人、防範特定恐怖活動、搜尋定位重罪嫌犯等情況,可運用AI進行前述禁止行爲,但須事先取得法院同意並限定時間和區域。

該法也禁止將AI用來挖掘使用者的弱點,例如行動不便、年齡、社會經濟地位等,以及透過AI操弄人類行爲,使其失去自由意志。

此外,像是運用在關鍵基礎設施、教育、僱用、健康或金融服務等領域的人工智慧系統則被列爲「高風險」,系統開發經營者有義務評估並降低風險、透明化並確保系統運作時有真人在監督。

針對沒有特定使用目的之「一般用途型AI」(General Purpose AI),歐盟AI法要求須有一定透明度,包括公佈訓練模型所用到的內容,並遵守著作權法規。例如ChatGPT就屬一般用途型AI,可用於寫文章、編曲、作報告、當然也可能被有心人用來協助犯罪。

根據議會與歐盟部長理事會(Council of theEuropean Union)去年12月對此法案的初步意見,將責成歐盟執行委員會(European Commission)建立對一般用途型AI在資安、透明度和風險管理上的基本要求。

歐盟AI法試圖在防弊與興利間取得平衡,因此也設有各成員國可訂定爲鼓勵創新而暫免特定法律嚴管的沙盒(sandbox)等規定。

違反此法將可能被處以750萬歐元至3500萬歐元(約新臺幣2.6億至12億元)或企業全球營收1.5%至7%範圍內的罰款。

主責這套法案的議員圖朵拉齊(Dragos Tudorache)今天在記者會表示,該法只是「一段更長遠旅程的開端」,因爲AI技術持續發展,包括軍事領域等,人們進入一個全新的世界,而法律須跟上科技的演變。

此法案已在去年12月經議會與部長理事會兩個歐盟立法機構達成暫時性共識,議會今天投票後,尚待部長理事會正式同意、刊登公報後才生效。