人臉辨識技術歧視黑人?微軟/IBM工具誤差嚇死人

人臉辨識工具也存有種族歧視嗎?其實不然,稍微看慢一點來仔細瞭解箇中原因纔好。(達志影像/shutterstock提供)

Google相簿(Google Photos)在2015年曾鬧出將黑人女性自動標籤爲「Gorillas」(大猩猩)的事件,引發軒然大波,還被指出有種族歧視意味,對此,Google不僅急速修改演算法,更出面道歉。無獨有偶的是,近日有論文商用人臉辨識技術研究目標結果發現人臉辨識技術對黑人女性的辨識錯誤率最高,彷彿是Google Photos烏龍事件的重演

蘋果推出iPhone X之後,人臉辨識技術一時成爲顯學,市場討論度提升不少。爲了讓讀者更爲了解相關技術細節,《紐約時報報導了MIT媒體實驗室(MIT Media Lab)研究員Joy Buolamwini與微軟科學家Timnit Gebru共同合作的《Gender Shades: Intersectional Accuracy Disparitiesin Commercia lGender Classification》論文內容。論文中使用了微軟、IBM以及曠視(中國大陸一家專注於人臉辨識的新創公司)的人臉辨識API(應用程式介面),來了解這些技術在性別判定的準確性。論文結果發現,以上三家廠商的商用人臉辨識技術中,對於黑人女性的辨識錯誤率普遍都很高,高於白人男性

論文利用了自行蒐集的一組Pilot Parliaments Benchmark(PPB)資料庫進行測試,包含1270張人臉,分別來自三個非洲國家與三個歐洲國家。論文作者在進行研究後,有以下幾個發現:

1.所有分類器在辨識男性人臉的表現優於女性人臉(8.1%、20.6%的錯誤率差別)

2.所有分類器在膚色較白的人臉表現上,優於膚色較深的人臉(11.8%、19.2%的錯誤率差別)

3.所有分類器在膚色較深的女性人臉上表現最差(錯誤率在20.8%~34.7%之間)

4.微軟與IBM的分類器,在淺膚色男性人臉的表現最好(錯誤率分別是0%以及0.3%)。而曠視的分類器在膚色較深的男性人臉上表現最好(錯誤率0.7%)

在論文中的一組385張照片中,白人男性的辨識錯誤率最高僅1%。(圖/翻攝紐約時報)

在論文中一組271張照片中,膚色較黑的女性辨識錯誤率高達35%。(圖/翻攝紐約時報)

報導指出,論文作者之一的Joy Buolamwini乃是黑人女性,他在進行研究之前曾發現人臉辨識工具無法辨識她的臉,只有在她戴上一張白色面具纔可行。這讓她有了研究此議題動力。從論文的研究可以發現,確實作者有嘗試探討AI(人工智慧)技術是否存在種族歧視的情況