算法是邪惡的嗎

3月24日,歐洲對於科技巨頭的監管靴子進一步落地。歐洲議會、歐洲理事會和歐盟委員會就《數字市場法案》達成一致,試圖找到對那些提供核心算法平臺服務的大科技企業的新的監管措施。除了打擊壟斷之外,法案的重點在於要求大科技公司對算法的工作方式保持透明。這承自2018年歐盟施行《通用數據保護條例》以來,歐盟一直在推進的“反歧視”、“透明”的“算法正義”的願景。

我們爲何需要“算法正義”?這是否因爲算法天然具有邪惡的屬性?作爲古老的工具,算法本身是客觀的,但其客觀中立在新的時代卻在“重複和鞏固世界上已經存在的不公正”。同時,科技巨頭們的崛起和壟斷地位帶來的社會種種領域的劇變,讓大衆開始畏懼起其作爲核心的神秘的算法“黑箱”。

不那麼新,不那麼惡:什麼是算法

雖然人類踏入信息時代已經快有半個世紀,但“算法”這個詞進入大衆場域並被熱烈的討論,也不過是近幾年的事情:2016年,算法在幾秒鐘內引發了英鎊的大跌;同一年,在社交網絡上根據算法創建的機器人,學習併發布了大量涉嫌種族、性別歧視甚至否認大屠殺的帖子。在中文網絡世界中,“算法”這個詞尤其顯得嶄新並且邪惡,很多人是在一篇描述外賣騎手如何在系統調度疲於奔命的報道中,第一次瞭解這個詞。

算法(Algorithms),實際上是指“解決問題或完成任務的逐步過程”。這樣說來,算法幾乎本就存在於萬事萬物之中。無論是要“烹小鮮”,還是“治大國”,都得逐步完成,而這方法路徑即是“算法”。人類社會依靠着“算法”,在千萬年的時間長河中組織運作並進化發展。

這也意味着,人類的發展史也正是一部“算法”的進化史。算法的進化則體現在對信息的處理方式的變革之中。這也是爲什麼當人類進入信息技術時代之後,算法的地位和力量在以一種驚人的速度成長。

在《算法的力量:人類如何共同生存?》(李大白譯,北京日報出版社·理想國,2022年2月)一書中,英國學者傑米·薩斯坎德回溯了這樣的歷史關聯。

公元前3500年,蘇美爾人使用那個時代最強大的信息處理系統,即楔形文字來記錄稅收、法律等相關行政文件。這些文字的意義並不在作爲記錄,而是當文字被髮明後,商業和官僚機構的存在才成爲可能。正如歷史學家們如哈羅德·尼斯所論證的,最古老的那些文明和他們的政治體制,例如埃及的君主制和羅馬的城邦制,“本質上都是文字的產物”。現代意義上的算法的真正出現,也建立在人們對社會信息系統的不斷升級上。IBM起源於1880年美國人口普查中被髮明的“打孔卡”和“製表機”系統,並在一百年後發佈了歷史上第一臺PC,將人類文明帶入個人電腦時代。

然而,在信息極度膨脹的大數據時代,算法的力量同樣在極度膨脹,並且變得神秘莫測。應用程序和搜索引擎產生了海量的用戶數據,大科技公司以數據爲資源、以算法爲架構成爲了龐然巨物。“本質上,當我們談論強大的科技公司時,我們談論的的是政治上強大的經濟實體。”薩斯坎德強調。很多大科技公司佔據着壟斷性的經濟地位,並“控制着影響我們核心自由之技術”:“審查手段和感知控制”已經影響到人們的日常生活決策,小到購物偏好、大到民主選舉(例如“劍橋數據門”)。此外,算法也在擺脫人類的控制,事實上,基於機器學習的算法已經成爲了“黑匣子”,人類觀察者已經難以理解算法如何通過海量數據計算出的結果背後的邏輯,“機器奴役人類”似乎並不是遙遠的科幻恐怖片。人們開始恐懼算法,並將之賦予邪惡的色彩。

可是,作爲工具的算法,根本無法如人類特質那樣用邪惡和善良來歸類。人們將算法視爲邪惡的,是因爲算法辜負了他們認爲計算機能夠做到人類無法達到的客觀中立的期望。但正如薩斯坎德所言,“中立的規則會重複和鞏固世界上已經存在的不公正”。他舉出了一個例子:谷歌算法將“爲什麼女人……”的問題自動補充爲“爲什麼女人說話那麼多”,是因爲有很多用戶曾搜索過這個問題,這顯然折射出了人類自身的偏見。

真實世界中少數羣體在大數據中的同樣“少數”,也導向了從中形成的算法的不公正。科學家們已經承認了“數據偏見”(DataBias)的存在,這種不公正在一些關乎人命的領域,例如醫療保健領域,會導致毀滅性的後果。例如,一款投資甚多終於開發出來的趨於完美的皮膚癌檢測人工智能算法,卻被發現無法檢測出深色皮膚的人種的癌症,僅僅是因爲訓練算法的數據來源的州大多數居民是白人。關於“數據偏見”對於少數羣體的不公正造成的危害,在《隱形的女人:揭露爲男性設計的世界中的數據偏見》一書中有更多的體現。

“像對待所有人一樣對待弱勢羣體,實際上會複製、鞏固甚至產生新的不公正。”薩斯坎德寫道。他認爲,對於算法的評判,不應該在意其“過程中立”,而應在意其產生的結果是否符合相關的正義原則。在這個意義上,編寫並維護算法的人,應該爲算法結果的“不作惡”付出更多的努力。

那麼大,那麼有力量:當算法屬於“巨頭”

很多現在已經成爲龐然大物的科技公司,往往懷揣着新技術能讓世界變得更好的極客初心。“不作惡”(Don'tbeevil),是谷歌公司最初也最出名的行爲準則,這迅速塑造了谷歌的內部精神,並催生了外部世界對科技公司的不明覺厲卻認爲其值得尊敬的認同感,還影響了後來的衆多科技公司。

對於2000年初的一家以搜索引擎爲核心業務的小型公司而言,“不作惡”是簡單的:搜索服務是開放和免費的,不應當向人們收費;不要讓搜索結果的首位被廣告商壟斷;橫幅廣告和彈窗廣告也不應該佔滿人們的屏幕。

但對於二十年後,擁有着數百種產品的超大型企業谷歌而言,“不作惡”顯然是困難和複雜的要求。

首先,作爲公司技術核心的算法“不作惡”就是困難的。正如前文所提到的,谷歌的搜索算法引擎在一定程度上重複和鞏固了不正義。巨大的算法力量也在向真實社會的政治、經濟乃至社會保障領域滲透。“作惡”能帶來的報償的誘惑同樣是巨大的。在政治方面,美國行爲研究與技術研究所的心理學家羅伯特·愛潑斯坦在2015年的研究發現了“搜索引擎操縱效應”(theSearchEngineManipulationEffect),人們已經將Google等搜索引擎的算法視爲”方便的權威來源”,帶有政治偏見的搜索排名可以將未決定選民的投票偏好改變至少 20%。

在經濟上,谷歌的壟斷性地位和龐大的體量已經讓它成爲了“巨頭”。自從美國在一個多世紀前好不容易通過了《反托拉斯法》扳倒了石油大亨們,成爲“巨頭”這件事天然地就具有某些邪惡的意味。2020年,美國司法部和幾位州檢察官對谷歌分別提起了三起反壟斷訴訟,指控谷歌正在利用自己在搜索和數字廣告技術方面的壟斷權在扼殺競爭。更別提,在歐盟對谷歌處以43.4億歐元的反壟斷罰款的2018年,谷歌悄悄地將“不作惡”移到了行爲準則的最後,似乎也意識到了“不作惡”不再是輕易的。

在大衆眼中,越來越多的西方大科技公司違背了他們許諾的道德願景,最明顯的是對社會保障的衝擊上。大量僱傭零工司機的Lyft,認爲自己幫助有色人種和城市邊緣的人們擺脫了拼車的時代,而人們更願意討論的是,零工經濟帶來了大量失去社會保障兜底的勞動者。同時,算法對社會保障更底層系統的衝擊體現在“算法越來越多地被用來確定重要社會產品的分配”,例如,工作名額、貸款額度、住房乃至社會保險。因此,薩斯坎德呼籲我們必須正視算法正在成爲一種“新的社會架構”,成爲經濟和社會生活的真正組織者。這雖不意味着科技公司將會掌權,但國家的角色將被迫迎來改變,薩斯坎德將之稱爲“增壓狀態”,國家的預測和監管能力將會發生重大的變化。

顯而易見的是,西方現有的針對大科技公司的監管已經瀕臨失靈,將大科技公司僅僅視爲商業“巨頭”所進行的市場監管收效甚微。

算法賦予科技公司的權力已經遠遠超越了市場,更深地涉及社會生活的底層架構,而西方目前基於市場進行的監管和反壟斷制度,顯然難以“充分監控算法的力量”。在薩斯坎德看來,構建未來監控應對之策的要點在於,人們必須要正視大科技公司不再僅僅是主導人們消費的龍頭企業,要在賦予大科技公司相應的權力的基礎上,去構思“嶄新的、大膽的監管提案”,從而保障人們能夠生活在更正義的算法分配系統中。

迎接新世界:“哲人工程師”和打開“黑匣子”

在《算法的力量》的序言部分,薩斯坎德講了一個發生在維多利亞時代的故事,政治家威廉·格拉斯通和科學家邁克爾·法拉第偶遇了。法拉第試圖向前者解釋自己在電力方面的開創性工作,格拉斯通始終無法理解,反覆地問:“這到底有什麼用?”法拉第的耐心最終耗盡了,他回答道:“有什麼用?先生,您可能很快就要對它徵稅了。”

和電力一樣,算法對於這個時代的大部分政治家和律師而言,有很大的可能不能完全明白。同時,正如我們前文所分析的那樣,作爲工具途徑的算法不能被期望能夠天然地實現正義。因此,薩斯坎德表示,通過收集數據、構建系統和應用規則來設計和調試算法的軟件工程師們,必須擔負起監控和防止算法造成社會生活不公正的“哲人工程師”的巨大責任。畢竟,與其寄希望於監管的介入,在設計算法時把正義作爲準則、並儘量規避人類的偏見對不公正的影響是更高效的措施。

“哲人工程師”是薩斯坎德對於萬維網發明人蒂姆·伯納斯-李(TimBerners-Lee)所提出的“哲學工程”(PhilosophicalEngineering)和柏拉圖的“哲人王”的概念的整合。伯納斯-李認爲,當軟件工程師每創建一個協議時,實際上在扮演上帝的角色,“定義一種新的哲學”,因此,軟件工程師必須對如何定義這種新哲學負起責任。“哲人王”則是柏拉圖在《理想國》中衆所周知的概念,這裡不再贅述。薩斯坎德認爲,我們需要一代“哲學工程師”,他們既精通算法,又能夠洞悉關乎社會正義的哲學,才能保證“歷史發展的弧線彎向正義”。

其他研究社會領域中算法的學者們則認爲,儘量打開算法的“黑匣子”,讓算法在社會領域中變得更加透明是更重要的。

哲學教授薩米爾·喬普拉(SamirChopra)在他的著作《自主人工智能的法律理論》中強調,我們需要對算法可理解的社會,在這個社會中,社會大衆儘可能地可以去了解算法的輸入和輸出過程,雖然在機器學習之下,算法變得越加難以理解,即使是設計算法的軟件工程師自身,但人們仍舊需要儘量奪回一些控制權。《黑匣子社會:控制金錢和信息的秘密算法》一書的作者,馬里蘭大學法學教授弗蘭克·帕斯夸爾(FrankPasquale)則將打開“黑匣子”的希望寄於社會中包括程序員在內的專業人士們的通力合作打造出的“算法問責制”:記者與計算機程序員和社會科學家合作,揭露新的侵犯隱私的數據收集、分析和使用技術,並推動監管機構打擊最嚴重的違規者;算法的研究人員和監管機構、檔案管理員、開放數據活動家、公共利益律師組成聯盟,以爲分析研究算法提供一套更加完整和平衡的“原材料”;社會科學家和大衆必須攜手同進,共同推進和確保算法的生成是公平的。正如帕斯夸爾總結的,這樣的“算法問責制”將是個相當巨大的工程,卻是一項非常緊迫的全球事業。

但不管是強調軟件工程師必須承擔起“哲人”責任的薩斯坎德,還是強調要打開算法黑匣子和提高算法對社會的透明性的喬普拉和帕斯夸爾,他們都在強調人類不可推卸自身對於算法的主動性。正如數學家兼科普作家漢娜·弗萊(Han-nahFry)在她的《你好,世界:如何在機器時代當人類》(HelloWorld–Howtobehumanintheageofthemachine)一書中指出的,人類在與算法系統交互時,扮演着“至關重要的角色”,我們必須“質疑算法和大科技公司的決定,審查他們的動機,承認我們的情緒,要求知道誰將從中受益,讓他們爲自己的錯誤負責並拒絕自滿”。一言以蔽之,正如弗萊所強調的,在任何過去的時代,人類自身從未像在算法時代一樣重要。

李佩珊經濟觀察報編輯

觀察家部門編輯採訪並報道一切關於社會的文化思考,比較關注經濟學和社會學及電影、小說領域。郵箱:lipeishan@eeo.com.cn