赫拉利看到了硅幕之下人類岌岌可危的未來丨《智人之上》書評

今天,人工智能已經成爲最熱門和最具爭議的話題,投資者們看到了風口,科技大企業摩拳擦掌,一些傳統企業和普通打工者充滿擔憂,而尤瓦爾·諾亞·赫拉利則在本月全球上市出版的書《智人之上》給出了一個很好的概括:“我們所有人在未來幾年所做的選擇,將決定召喚這種非人類智能究竟是個致命的錯誤,還是會讓生命的演化翻開一個充滿希望的新篇章。” 人工智能將會帶給我們什麼,在未知、不確定的未來中,這本書給我們提供了一些有價值的洞察。

未來並非如此樂觀

日常生活中,以AI算法爲基礎的平臺數據已經提供了我們許多的便利,一些持有天真的信息觀的人就樂觀地主張通過大數據,獲得越多的個人信息,理由是大規模網絡能夠更好地瞭解醫學、物理學、經濟學等諸多領域,促進人類的進步。例如,製藥和醫療公司獲得更多信息,就能夠提供更好的藥物。同理,人們獲得足夠多的信息,就能得到真理和真相,越多的真相則產生更多的力量和智慧。

臉書的總裁扎克伯格就鼓吹說,臉書的目標是“幫助大衆分享更多信息,讓世界變得更加開放,以及促進人與人之間的理解。” 而谷歌則宣傳“整合全球信息,使人人皆可訪問並從中受益。”美國的投資人馬克·安德森則宣稱人工智能最終能解決人類所有的問題,鼓吹人工智能沒有危害,反而是人類要發展,承擔起對自己、後代和未來的道德責任。研究者庫茨維爾在《奇點臨近》中也認爲,人工智能可以幫助人們應對各種迫在眉睫的挑戰,包括克服疾病、貧窮、環境退化,以及人類的所有弱點,而我們就該負起道德上的責任,實現新技術的承諾。

與這些明顯在AI技術浪潮中獲益的鼓吹者不同,不少國家的政府、科學家甚至企業家同時也擔心,人工智能可能會摧毀人類文明。2023年底來自中美英以及歐盟等30多個國家和地區的代表簽署《布萊切利宣言》,警示“這些人工智能模型所具備的最重要的功能可能會造成嚴重甚至是災難性的傷害,無論是有意的還是無意的。”同樣,《智人之上》對人工智能也採取了一種謹慎的態度。作者赫拉利指出,未來可能並不會出現科幻大片中的末日景象或者機器人對於人類的造反這種讓人感到濫熟的橋段,事實上我們真正需要擔心的是以下兩種情況:

首先,人工智能的力量可能會大幅加劇人類既有的衝突,讓人類形成內鬥。正如同冷戰時代的鐵幕,21世界的硅幕可能會區隔出不同的敵對勢力,產生新的全球衝突,也就是人與人之間的敵對。比如,信息壟斷造成的企業帝國——2023年穀歌在全球市場的搜索市場佔有率是91.5%,而因此它掌握的數據和算法,可能天然形成了壟斷,從而影響到弱小國家的政治格局。在這種新的數據殖民主義下,科技大企業會通過控制數據來操縱遙遠的國家,現實的例子就是臉書、YouTube等美國社交媒體就爲了追求利潤,曾經導致緬甸、巴西的政治動盪。對比他們所鼓吹的企業文化,就顯得非常諷刺。

其次,未來的狀況可能是人類歷史上都不曾出現的,硅幕所分隔的或許不是彼此敵對的人類,而是一邊是所有人類,另一邊是新產生出的人工智能霸主,“不論在哪裡生活,我們都可能被一張看不透的算法大網束縛,控制着我們的生活,重塑着我們的政治和文化,甚至是去改造我們的身體和思想,但人類卻再也無法理解這些控制着我們的力量,更別說加以阻止。”

當下孕育了未來

赫拉利帶我們回顧了人類社會的發展歷史,一定程度上,人類社會的發展就是信息網絡聯結形式的發展,也就是在真相和秩序之間進行平衡的發展。事實上,人類共同體是靠信息-故事編織成的共識性敘述所構成的。法律,宗教,貨幣,教會,他認爲都是這種存在於主體間的現實,儘管它們原本並不一定真實,但是在共識形成之後,就有了力量。作者指出人類社會正是因爲創造這種主體間的故事,彼此聯結,定義身份認同和利益。他採用了一種馬基雅維裡主義的視角來闡釋,真正讓人成爲社羣維繫在一起的往往是虛構的故事,關於神衹、貨幣和國家,相比於真相,虛構的故事更容易讓人團結起來。

長久以來人類一直面臨着兩難的困境,爲了追求生存和繁榮,人類的信息網需要在真相和創造秩序之間進行平衡。然而真相有時會破壞秩序,導致混亂;有時,秩序也爲了維持自身而壓制真理和真相。著名的例子就是達爾文的演化論,這個理論增進了人們對於各種物種起源和生物學的理解,但是也破壞了許多社會賴以維繫的核心神話,因此當演化論出現時就遭遇到了歐洲各種權力機構和教會的壓制和禁止。因此,赫拉利得出一個結論:“我們實在沒有辦法說人類信息網絡的歷史是一場進步的勝利遊行。雖然人類網絡的力量一代比一代強,卻不見得越來越明智。如果某個人類網絡把秩序看得比真相更重要,它可能掌控着無比強大的力量,卻會不明智地使用這種力量。”

顯然,這並非杞人憂天。計算機技術這個推動信息革命的基礎,和過去的一些技術有着本質上的不同。首先,相比於過去的技術如蒸汽機,它能夠自己做決策;其次,它也能夠創造出新的想法。這些性質都改變了我們當下的社會關係網絡。甚至社交媒體的算法,已經在很多社會中散播仇恨,破壞社會的凝聚力。赫拉利列舉了臉書在2016-17年如何助長了緬甸涉及到羅興亞人的暴力衝突的事例。在緬甸進行改革開放之際,臉書也作爲海外投資進入到緬甸,然而,隨着政府放松管制和審查制度,社會種族之間日趨緊張。佔多數的信仰佛教的緬族人和佔少數的伊斯蘭教的羅興亞人之間衝突不斷升級,最終導致7000-25000名平民被殺,18000-60000名男女被強姦和虐待,73萬名羅興亞人被驅逐出緬甸。在這場衝突中,臉書的算法起了決定性的作用,它決定了要推廣哪些帖子,而這些帖子恰巧強化和煽動了針對羅興亞人的暴力仇恨和歧視。甚至聯合國的事實調查團在2018年的調查中也指出,在散播仇恨內容的過程中,臉書扮演了“決定性的角色”。

臉書辯稱自己只是中立的工具和技術平臺,關鍵在於使用者,充其量只是被動的不作爲;然而事實是,這些算法平臺和過去的技術是完全不一樣的, 因爲,它並不是被動地被使用者所使用,而是主動選擇性地讓特定的內容進行傳播。事實上是臉書自身的算法決定了推薦極端內容給觀衆,例如在緬甸這場事件中,有53%的視頻是由算法自動播放給民衆。

作者指出,臉書的商業模式決定了用戶的參與度至關重要,提升用戶的參與度就會吸引更多的投資人,從而推高臉書的股價。換句話說,流量越大,臉書越有錢。因此,算法的目標就是提高流量和用戶的參與度,而對此,傳播憤怒,遠比傳播其它信息更爲有效。2019年12月臉書內部流出的文件就指出,“病毒式傳播不同於我們和好友或家人的溝通,而是一種由我們帶到許多生態系統之中的新事物……這種事之所以發生,是因爲我們出於商業目而刻意去推動。”該文件承認,通過數據,“我們的排序系統包括了各種具體的獨立預測,不僅預測你可能參與哪些內容,還預測你可能傳播哪些內容。遺憾的是,研究顯示,讓人感到憤慨的內容與錯誤信息更有可能像病毒那樣傳播。” 這種算法鼓勵了更偏激和極端的表達,正如赫拉利所指出,“臉書與YouTube的算法也通過獎勵人性裡某些基本本能,同時懲罰人性裡某些善良的部分,而創造出了互聯網噴子。”

我們當下的關係、情感、甚至社會的整體偏好,也因此被社交平臺通過算法重塑。赫拉利寫到,“當下歷史的重大進程,有一部分是由非人類智能的決定推動的。正因如此,計算機網絡的易錯性才變得如此危險。計算機犯錯原本不算什麼,但當計算機成了歷史推動者時,這些錯誤就可能帶來災難。”

比取代工作更爲糟糕的事情

很大的可能,人工智能浪潮遠不是取代我們的工作那麼簡單。除了近幾年社交媒體流行的“困在算法裡的打工人”那樣的敘事,赫拉利指出,人工智能帶給我們的可能還有更多的問題。

首先,各種算法可能強化了我們現有的社會偏見、歧視和不平等。2016年3月23日,微軟推出的智能聊天機器人Tay,通過機器學習,已經表現出厭女和反猶主義傾向。原因是訓練這些機器的數據來源就是如此,如果現實中本身就存在各種的偏見,那麼這些AI不僅可能不會消除這些偏見,更有可能學習、深化這種偏見。赫拉利甚至構想出一個有趣的例子,如果算法基於現實數據創建“好員工”模型,極大的可能是老闆的侄子,因爲過去的數據表明,老闆的侄子普通能夠通過就職要求被錄用,並且績效考覈更優,而且很少被解僱,那麼算法如果負責人力資源部門,可能就會認定老闆的侄子是好員工。這並非只是笑話。現實中也確實發生過同樣的情況,比如亞馬遜在2014-18年實驗求職申請算法時,發現女性和女子大學都會被系統性扣分,原因在於,女性更容易遭受職業歧視,所以現有的數據表明此類的求職者被錄用的概率更低,從而讓算法也對女性產生了偏見,最終亞馬遜不得不終止了這個項目。

其次,未來可能會將多數人都困在算法中,形成堅固的社會固化。比如,保險公司通過大數據認爲一個年輕人在50歲會患上疾病,通過這套算法,更多需要救助的人實際上需要付費更多。當然最糟糕的情況可能不止於此。若未來人們一切的社會評估體系都採用算法,“鹹魚翻身”或“機遇”就不可能被人們所期待。歐盟在2021年的《人工智能法案》中已經意識到了這個問題,從而提出完全禁止人工智能類型的社會信用體系評估,因爲這會“導致歧視的結果,使某些羣體遭到排斥”,以及“可能侵犯人類擁有尊嚴與不受歧視的權利,違反平等與正義的價值。”

此外,人工智能還可能導致頻繁的失業和社會的動盪。工業革命儘管讓工廠自動化,使得一些人失業,但是也創造了更多的服務業工作。而在人工智能時代,一些新的職業會被創造出來,但人們無法預測哪些工作與任務會消失。這種不確定性,甚至導致學校不知道該傳授什麼樣的技能給學生,特別是大學校園裡的學生。隨之而來的一個問題,“未來的就業將極不穩定。我們的大問題並不是人類真的沒有工作可做,而是面對不斷變化的就業市場,我們該如何進行再培訓與調整適應。”這可能產生一系列問題,如果人們失業,如何在他們過渡時期提供社會保障,如何克服此時的心理難關等等。而且新舊工作的迭代可能會非常迅速,甚至會造成社會的動盪。

最後,無人能夠監管人工智能網絡。相比於過去任何的官僚制度,計算機網絡是全天候不休息,赫拉利擔心這會迫使人類過着這樣一種 “永遠連線,永遠受到監控”的生活。因此,我們必須阻止計算機網絡全面控制我們的社會,這不僅是爲了讓人能夠有閒暇和休息的時間,還爲了有機會能夠修正網絡中積累的錯誤,否則甚至連網絡中的錯誤,人們都來不及修正。儘管計算機比人有效率,但並不代表它一直正確。“信息並不等於真理與真相。一套全面監控的系統對世界與人類的理解可能極爲扭曲。計算機網絡可能並不會找出關於世界與人類的真理與真相,反而是利用它龐大的力量,創造出一套新的世界秩序,並逼迫人類接受。”

實際上,此時的人工智能可能就如同神一樣的存在,赫拉利不無擔心地描繪“計算機能適應不斷變化的情景,也能向我們解釋它們的決定與想法。因此,有人或許會認爲:我們終於成功找到了一種無懈可擊的信息技術,計算機就像一部神聖的宗教經典,這部經典不但能與我們對話,還能進行自我詮釋,完全不需要任何人類機構介入。”

怎麼辦?

如今,只存在於科幻小說中的人工智能的橋段已經闖入到我們的日常生活中,無論樂觀還是充滿擔憂,都成了人們不得不面對的現實,《智人之上》是我認爲今年所出版的有關人工智能的書中,既有深度也有更廣闊視野的一本,它給了我們一個重要的提醒:

“過去的人類社會無論是怎樣的組織結構,關鍵的一點是,都是依靠碳基的人腦來處理信息,進行決策,然而,在目前新的信息網絡,這種硅基計算機處理和運行的方式卻完全不一樣,因爲過去碳基有基生物受到的種種生物性限制都被突破,那麼對於人類社會造成什麼樣的後果是值得我們考慮的。”

(文章僅代表作者觀點。責編郵箱:yanguihua@jiemian.com。)