爲什麼AI圈那麼多人都不喜歡馬斯克?

編者按:本文來自微信公衆號“新智元”(ID:AI_era),來源:inverse.com,作者:Joe Carmichael,譯者:劉小芹 弗格森,36氪經授權發佈。

在人工智能圈,馬斯克可謂是一位怪咖:他一邊對 AI 的未來憂心忡忡,認爲發展AI 就是在“召喚惡魔”,一邊又在特斯拉、OpenAI 甚至是DeepMind進行投資。在公開場合,不管是接受採訪或者自己的社交媒體賬戶上,馬斯克經常有驚人語錄,這也讓他在AI圈內引來了許多批評者。艾倫人工智能研究院的CEO Etzioni 在接受 Inverse 採訪時直言:“我從未聽任何人說過馬斯克的半句好話,可能有人說過,但我沒聽過。不感興趣。” 馬斯克爲什麼會那麼招人討厭?但是又同時擁有那麼多追隨者呢?

埃隆·馬斯克 (Elon Musk) 向來以極端化的形象出現在公衆面前。他曾經承諾要使用他的兩家公司——自動駕駛電動汽車 Tesla 和火星移民計劃 Space X ,將全人類從對石油燃料的依賴中解放出來,並在無形中減少車禍致死率,以及最終將人類帶離地球。馬斯克對於人類未來的願景是光明的。只要你別讓他談人工智能。

當他開始談論 AI,你就得留心別被洗腦了。他會談起“天網”(Skynet),把其稱爲“我們生存的最大威脅”,並說,發展 AI,“我們就是在召喚惡魔”。這些說法確保了馬斯克和 AI 佔據着各大媒體的頭條,讓公衆覺得 AI 的危險已經成爲不容忽視的存在。但是,如果不是大多數,至少也是很多 AI 領域的專家都對這位頻頻搶風頭的男孩表態是不太高興的。

當被問及馬斯克的愛好時,艾倫人工智能研究所 CEO Oren Etzioni 說:“馬斯克非常的不負責任,又虛僞,我真是不明白爲什麼他要做那些事。”Etzioni 在 AI 圈子裡是有聲望的人物,對圈內人也很熟悉。他在接受 Inverse 採訪時說:“我從未聽任何人說過馬斯克的半句好話,可能有人說過,但我沒聽過。不感興趣。”

並不是說 Etzioni 覺得憂心 “惡意AI”(malevolent AI)的人全都不可理喻。在他看來,“惡意 AI ”是“50年後、100年後再去思考的東西”。比如說,他欣賞 Nick Bostrom 在人類未來研究院(Future of Humanity Institute)的工作,該機構研究如何爲潛在的存在風險(existential rists)做好準備——儘管他不同意 Bostrom 的許多結論。他說:“Nick 是個哲學家,哲學家在非常長遠的時間維度上思考問題。他建了一個認真做研究的中心,我認爲這些研究確實是有價值的,當然我是指從理性的角度,在合理的時間範圍內思考。”

但是,當研究變得不切實際,追求純理論的思辨而忽略了實際、緊迫的問題,Etzioni 就開始反感了。“(馬斯克)對 AI 的投資非常多,不僅僅在特斯拉,他還投資了許多其他的公司。”Etzioni 解釋說,“而同時他卻毫不留情地攻擊、駁斥這個領域。所以說,我真是不明白。”

馬斯克確實促進了 AI 的進步,以他的特斯拉 ,OpenAI 和其他個人投資。特斯拉的自動駕駛汽車利用其內部的,“狹義的” AI (narrow AI)技術——只把一項任務做得非常好的 AI。馬斯克認爲我們只需要擔心通用 AI(general AI),或者超級智能(superintelligence),它們或許將具有完全自主的推理和行爲能力。馬斯克正在盡其所能阻止這樣的 AI 實體出現——至少在人類還沒有做好必要的保護措施時別出現。

2015年底,馬斯克(與 Y Combinator的總裁 Sam Altman 一起)投資創建 OpenAI,OpenAI 是一家非盈利性 AI 研究機構,致力於在發展 AI 的同時確保 AI 的安全,有益,以及無惡意。同年,他與其他許多著名人士(包括 Etzioni 和 Bostrom)聯名簽署了一份公開信,承諾支持有益的 AI。在2014年,馬斯克投資了谷歌的DeepMind,並宣稱只是爲了留心觀察 DeepMind,監控其不可避免的發展。(他再次提到《終結者》。)

馬斯克在推特140個字符的限制之外的地方詳細闡述他對 AI 的擔心時,他表現得並不像一個煽動者,他只是想讓 AI 民主化,以確保不會出現專制的機器。“並不是說馬上就會面臨,但我們應該關心這些,”他在 Reddit 上寫道,“在 AI 的安全性方面,我們需要做更多的工作。”一個專制的 AI,或者說由少數權力統治的超級智能,似乎會讓人類的未來遭大難。馬斯克只是希望未來更美好。

Bostrom 認爲,馬斯克在盡最大的努力試圖在複雜的情況中形成導向。“這個問題需要有人提出來,然後人們才能認識到問題的存在,這對研究來說很重要,然後纔有人把資金和人才注入這些研究。” Bostrom 解釋道,“除此之外,我認爲拉響警鐘是恰得其反的。你不會想疏遠 AI 研究這個圈子,因爲不管開發什麼安全的技術,這些人才是最終實現這些技術的人。”雙方需要耐心合作。那些希望人們爲不可避免的世界毀滅做好準備的人“需要非常小心,避免引起公衆的反抗、危言聳聽或發狂。”同時,AI 圈也必須承認這些煽動者的擔憂並非完全沒有根據。Bostrom 說:“AI 是很強大的技術,對於它將把人類社會引向何方,我們需要討論;但假裝這項技術絕不會出錯是沒什麼好處的。”

這些討論正在進行,而其結果可能改變我們的人類全體的命運。AI 研究圈子傾向於讓它取得的進步開放可得:例如,AI 圈內兩位大玩家 Facebook 和 Google 的常規做法是與世界共享開源代碼。但這種開放性可能導致兩種結果:個人或組織能夠無成本地開發一個強大的 AI,可能帶給美好的未來一記重錘。更別說有許多監管機構、公益機構的干涉。

Etzioni 認爲競爭是好事,他說:“我衷心覺得我們真正受益於這樣一個生態系統。我認爲大公司,以及政府對 AI 的巨大投資是件好事,沒有國防高級研究計劃局,以及其幾十年來致力於自然語言處理的研究,我們不會有 Alexa。”

Etzioni 採取了兩個行動,證明對AI 的擔憂是杞人憂天,或者是很久、很久以後的事情。他先是設置了一個獎金 50000 美元的挑戰賽:讓 AI 在八年級科學考試的一部分題目中及格。8000多名開發者都只得了 F。然後他調查了 AI 領域領先的專家,向每個人提問他們認爲什麼時候會出現超級智能。在80名受訪者中,92.5%回答說永遠不可能出現,或需要超過25年。

不管怎麼說,前行的道路需要用金錢和腦力來鋪設。Stephan Bugaj 是專注於 AI 驅動的類人機器人公司 Hanson Robotics 的創意副總裁,他說馬斯克代表了一種令人不安的趨勢:富有的人和大公司在“引領着未來”,同時他們也是最擔心 AI的一羣人。“馬斯克那樣的傢伙到處都有,那些大亨都說我們應該害怕機器人” Bugaj 在接受 Inverse 採訪時說,“我就說,爲什麼我們要害怕機器人?他們造出了讓我們恐懼的機器人嗎?沒有吧?那他們瞎嚷嚷什麼?要我說,我們是在爲我們自己創造未來,我們不會造什麼讓人恐懼的機器人。”

“馬斯克說人類沒有能力做倫理道德方面的決定,所以我們需要一個正確的 AI 未來。” Bugaj 說。但他和 Etzioni 認爲人類能夠勝任此任務。不可否認,AI 將改變我們的世界,但沒有理由認爲未來將是“天網”。

馬斯克無疑將繼續他的討伐,而他的追隨者也會樂意附和他的言論。AI 圈子也將繼續發展無害的 AI,繼續懷疑馬斯克的預言。