美媒文章 人工智能犯下的“災難性錯誤”

參考消息網7月10日報道 美國趣味科學網站6月16日刊登題爲《人工智能犯下的災難性錯誤》的文章,作者是約翰·洛普基,內容編譯如下:

人類對人工智能(AI)的擔憂顯而易見,甚至有一整個技術哲學流派致力於弄清AI可能如何招致人類的終結。本文不是要助長任何人的偏執妄想,而是列舉了人工智能引發——或是幾乎引發——災難的例子。

1.加拿大航空公司的聊天機器人給出的可怕建議

加拿大航空公司的一個AI輔助的聊天工具就如何獲得喪親票折扣提供了錯誤的建議,導致該公司被告上法庭。面對法律訴訟,加拿大航空公司的代表辯稱,機器人犯的錯不能算到他們頭上。

像這樣的情況除了可能造成的巨大聲譽損失外,還將損害已經面臨挑戰的飛機票購買業務。由於這次失誤,加拿大航空公司被迫退回了幾乎一半的票價。

2.紐約市網站的錯誤

歡迎來到紐約市,一個不夜城,也是一個出現了人們記憶中最大的一次AI錯誤的城市。人們發現,名爲“我的城市”的聊天機器人鼓勵企業主從事非法活動。據這個聊天機器人建議,你可以竊取員工的部分小費、不用現金、給工人低於最低工資標準的工資。

3.微軟公司機器人的不當推文

2016年,微軟公司推出了一個名爲“塔伊”的推特機器人,它的本意是作爲一名美國青少年與人們互動,一路學習。然而,它學會了分享極爲不當的推文。微軟公司將這一結果歸咎於其他用戶,認爲其他用戶一直在用各種不道德的內容轟炸“塔伊”。這個賬號和機器人上線不到一天就被取消。這成爲AI項目出問題的一個例子。

4.歧視性AI導致的大規模辭職

2021年,包括首相在內的荷蘭議會領導人辭職,因爲調查發現在之前的8年之久的時間內,有超過2萬個家庭因爲歧視性算法而被欺騙。此案涉及的AI本來是爲了通過衡量申請者的風險水平,重點找出可疑案例,來識別曾經欺騙政府的社會保障體系的人。但實際上最終的結果是,成千上萬個家庭被迫歸還他們迫切需要的育兒補貼。

5.醫療聊天機器人的有害建議

全國進食障礙協會宣佈用AI程序取代人類員工後引起軒然大波。不久後,用戶發現綽號“特莎”的聊天機器人在給有飲食障礙的人提供有害的建議。有人指責採用聊天機器人的舉動意在破壞工會的作用。此事也進一步證明,面向大衆的醫療AI如果沒有做好準備或者沒有能力幫助大衆,那將造成災難性的後果。

6.亞馬遜的歧視性AI招聘工具

2015年,亞馬遜的一個AI招聘工具被發現歧視女性。這個AI工具用過去10年的申請者數據進行訓練,由於之前的申請者大多數都是男性,因此這個機器學習工具對存在“女性”字眼的簡歷存在負面看法,而且推薦來自女子大學的畢業生的可能性更低。這一工具背後的團隊在2017年被解散,但招聘中基於身份的偏見——包括種族主義和殘障歧視——並未消失。

7.谷歌圖片的種族主義搜索結果

谷歌圖片在其AI軟件上搜索大猩猩時出現黑人的圖片後,曾不得不取消了這一功能。包括蘋果公司在內的其他公司也曾因類似指控面臨訴訟。

8.必應具有威脅性的AI

通常,談到AI的威脅時,我們是從生存的角度來說的——威脅我們的工作、數據安全或者對世界如何運轉的瞭解。我們通常不會預料到的是對我們自身安全的威脅。

剛上線時,微軟的必應AI迅速威脅一名前特斯拉實習生和一位哲學教授,向一位著名的科技專欄作家表達深深愛意,而且還聲稱它曾暗中監視微軟員工。

9.無人駕駛汽車帶來的災難

雖然一提到無人駕駛AI的好處和壞處,特斯拉往往佔據新聞頭條,但其他公司在製造交通傷亡中也有份兒。其中之一就是通用汽車公司的Cruise。2023年10月,Cruise在駕駛過程中導致一名行人受重傷。之後,這輛車繼續移動到路邊,拖着已經受傷的行人。

這還沒完。2024年2月,加利福尼亞州指責Cruise在調查人員調查事故原因和結果時誤導他們。

10.威脅戰爭罪受害者利益的刪除做法

英國廣播公司的一項調查發現,社交平臺正在利用AI刪除可能的戰爭罪行視頻,這些舉動可能會讓受害者在未來無法進行正當的追索。

社交平臺在戰區和社會動亂中發揮着關鍵作用,通常是那些面臨風險的人的一種交流方式。調查發現,儘管公衆感興趣的圖文內容可以保留在網站上,但有關在烏克蘭的襲擊的視頻會被迅速刪除。

11.對殘疾人的歧視

研究發現,旨在支持自然語言處理工具的AI模型歧視有殘疾的人。自然語言處理工具是許多面向公衆的AI工具的支柱。自然語言處理工具的這種問題有時被稱爲技術或者算法歧視,這種歧視會影響殘疾人找工作或者獲得社會服務的機會。將關注殘疾人的經歷的語言歸類爲更加負面——或者像賓夕法尼亞州所說的那樣,稱之爲“不良”——可能加深社會偏見。

12.錯誤的翻譯

AI賦能的翻譯和轉錄工具並不新鮮。然而,當被用來評估避難者申請時,AI工具並不能勝任這項工作。專家認爲,部分原因在於,在已經問題重重的移民程序中,人們並不清楚AI的使用頻率,而且很明顯AI導致的錯誤比比皆是。

13.蘋果面部解鎖功能的起起落落

蘋果公司的面部解鎖功能經歷過因安全問題產生的諸多起起落落,並隨之帶來了多次公關災難。2017年,有人覺得,這個功能可以被一種相當簡單的把戲所欺騙,而且人們一直擔心,蘋果的工具往往對白人來說更好用。據蘋果公司稱,這項技術使用的是一種設備上的深度神經網絡,但這並不能阻止許多人擔心AI與設備安全如此緊密地聯繫在一起所帶來的影響。

14.不受歡迎的人氣

政客們習慣於被認出來,但或許不是被AI認出來。美國民權聯盟2018年的一項分析發現,亞馬遜公司的人臉識別AI——亞馬遜網站服務的一部分——錯誤地將28名當時的國會議員認定爲已經被捕的人。這種錯誤在兩大黨的成員照片中都曾出現,男女都有,而且有色人種更容易被認錯。

雖然這並不是第一個對執法造成直接影響的AI犯錯的例子,但它無疑是一個警示信號,即用來識別犯罪分子的AI工具可能會產生許多錯誤的結果。

15.比“機械戰警”還糟糕

這是有史以來最嚴重的人工智能相關醜聞之一,影響了社會安全網。在這起醜聞中,澳大利亞政府使用自動系統迫使合法的福利領取者返還這些福利。2016年至2019年,有超過50萬人受到這種名爲“機械債務”的系統的影響。這一系統被認定爲非法,但在此之前有數十萬澳大利亞人被控欺騙政府。政府還面臨後續產生的其他法律問題,包括需要向受害者賠償7億多澳元(約合4.6億美元)。

16.AI的大量用水需求

研究人員說,訓練人工智能一年需要12.6萬升水——大約相當於一個大型後院游泳池的水。在一個水資源短缺越來越普遍的世界裡,隨着氣候變化在技術領域引起越來越多的擔憂,對供水的影響可能是AI面臨的更嚴重的問題之一。此外,據研究人員說,人工智能的耗電量每年增長10倍。

17.AI深度造假

網絡犯罪分子一直在利用AI深度造假來做各種事情,從模仿政治候選人的聲音,到製造虛假的體育新聞發佈會,再到製作從未發生過的名人活動照片,等等。然而,最擔心使用深度造假技術的是商業領域。世界經濟論壇2024年發佈的一份報告指出:“……合成內容處在一個行爲準則和信任不斷變化的轉型期。”然而,這種轉型導致了一些相當可怕的經濟後果,例如一家英國公司就曾損失2500多萬美元,因爲它的一名員工被通過深度僞造假扮他同事的人說服,轉了這筆錢。

18.年齡歧視

去年秋天,美國就業機會均等委員會與遠程語言培訓公司麥奇教育科技就一起訴訟達成了和解。該公司不得不支付36.5萬美元,因爲它對自己的系統進行編程,以拒絕55歲以上的女性和60歲以上男性的求職申請。

麥奇教育科技公司已經停止在美國運營,但它公然濫用美國就業法表明了AI與人力資源交叉帶來的深層問題。

19.干涉選舉

隨着AI成爲了解世界新聞的熱門平臺,一種令人擔憂的趨勢正在形成。根據彭博新聞社的研究,即使是最準確的AI系統,在用有關世界上的選舉問題進行測試時,仍然有五分之一的答案是錯誤的。目前,最大的擔憂之一是,深度造假的AI可以被用來操縱選舉結果。

20.在股市上製造羊羣效應

監管機構——包括英格蘭銀行在內——越來越擔心,商界中的AI工具可能在股市上鼓勵他們所說的“類似於羊羣”的行動。一位評論員說,市場需要一個“緊急停止開關”,以對抗奇怪的、應當遠非人類所爲的技術行爲。

21.對飛行來說的糟糕日子

至少在兩起案例中,AI似乎在涉及波音飛機的事故中發揮了作用。根據2019年《紐約時報》的一項調查所說,一個自動化系統被弄得“更加激進和冒險”,取消了可能的安全措施。這些墜機事件導致300多人死亡,並引發了對該公司更深入的調查。

22.政治噩夢

在人工智能引發的無數問題中,對政界人士的誣告曾帶來一些相當可怕的惡果。必應的AI聊天工具說至少有一位瑞士政界人士誹謗自己的同僚,說另一人蔘與企業間諜活動,它還聲稱一名候選人與俄羅斯的遊說活動有關聯。還有越來越多的證據表明,AI正在被用來左右最近的美國和英國大選。拜登和特朗普的競選團隊都在探索在法律環境下如何使用AI。在大西洋的另一邊,英國廣播公司發現,英國的年輕選民正在收到專門針對他們的、具有誤導性的AI製作的視頻。

23.谷歌的錯誤

2024年2月,谷歌限制了其人工智能聊天機器人“雙子座”(Gemini)的部分功能,因爲它根據用戶提交的提示問題給出了事實不準確的回答。谷歌對這個工具的迴應及其錯誤表明了一種令人擔憂的趨勢:商業現實中,速度比準確性更重要。

24.AI公司的版權案件

像Midjourney這樣的人工智能產品是否可以使用藝術家的內容來訓練它們的模型呢?現在已有法律案件涉及這一問題。一些公司,例如奧多比,在訓練其人工智能時選擇了一條不同的路線——從公司自己的許可證庫中提取。如果人工智能可以使用它們不擁有的藝術品來訓練一個工具,可能會進一步降低藝術家的職業安全。

25.谷歌無人機

軍事和人工智能的交叉是一個敏感的話題,但它們的合作並不新鮮。在一個名爲Project Maven的項目中,谷歌支持了人工智能的開發,以解讀無人機拍攝的畫面。雖然谷歌最終退出了,但它可能會給那些被困在戰區的人帶來可怕的後果。(編譯/劉曉燕)