剛剛!Deepmind 首席執行官獲 2024 諾貝爾化學獎,談到 AI 時他說:有過度炒作,但仍被低估

今年的諾貝爾獎,要被 AI 包圓了。

剛剛出爐的諾貝爾化學獎,由 David Baker,John M. Jumper,Demis Hassabis 三人共同摘得——最後一個名字,大家應該不陌生了,正是 Deepmind 創始人。

不久前,Demis Hassabis 做客 DeepMind 的播客頻道,面對 Hannah Fry(英國數學學會旗下應用數學研究所新任所長),他不僅解釋了團隊對於蛋白質結構的研究,還深入了 DeepMind 的工作、對 Gemini 和 AGI 的展望,以及更重要的:在技術越來越強大時,如何變得更加平衡。

以下爲對談節選,內容有所編輯。

Hannah Fry:歡迎來到 Google DeepMind,我是主持人教授 Hannah Fry。當我們在 2017 年第一次開始考慮製作這個播客時,DeepMind 是一個相對較小、專注人工智能的研究實驗室。他們剛剛被谷歌收購時,在倫敦一段距離的地方開展自己的項目研究。上一季度,Google 重新配置了整個結構,將人工智能團隊置於其戰略的核心。

現在,我與 DeepMind 的聯合創始人、現首席執行官 Demis Hassabis 正在一起——我應該稱呼您爲 Hassabis 爵士嗎?

Demis Hassabis:別別,絕對不要(笑)。

Hannah Fry:好的,非常感謝您的到來。我想知道,現在公衆對 AI 的興趣爆炸式增長,你的工作是更容易還是更難了?

Demis Hassabis:我覺得這是雙刃劍,對吧。確實更難了,因爲在整個領域裡有太多的審視、關注和相當多的噪音。實際上,我更喜歡那個人少,能更專注於科學的時候。但現在也很好,因爲它表明技術已經準備好,以許多不同的方式影響世界,並以積極的方式影響人們的日常生活。所以我認爲這也很令人興奮。

Hannah Fry:你會不會對 AI 如此迅速地就吸引了公衆,而感到驚訝?雖然我猜你也預料到了。

Demis Hassabis:是的,確切地說,在某個時候(已經有預料了)。我們這些人已經爲此工作了很多年,甚至幾十年。所以我想在某個時候,每個人都會意識到 AI 的重要性。但看到這一切真正實現,仍然是相當超現實的。我猜這是聊天機器人和語言模型的出現,畢竟每個人都使用語言,每個人都可以理解語言。因此,這是一種讓公衆理解並可能判斷 AI 所處位置的簡單方式。

Hannah Fry:我聽到你形容這些聊天機器人「不合理的有用」,我真的很喜歡。等一下我們會討論 transformer 技術,我猜是這個重大突破爲我們提供了這些工具。但是,現在我想先問,你所謂的「不合理的有用」是什麼意思?

Demis Hassabis:我的意思是,我想如果一個人回溯到 5、10 年前,說我們將要做點事情,將要採取的方式是,比如建立一些驚人的架構,然後從那裡開始進行擴展,而不是從某些概念或抽象開始建設——這是我們在 5 年、10 年前會進行的辯論,我們是否需要一種特殊的抽象方式?因爲大腦似乎確實這樣做了。

但不知何故,如果你給系統足夠多的數據,比如說整個互聯網,它們似乎確實從中學習和歸納了,不僅僅是死記硬背,而是真的在一定程度上,理解它們正在處理的內容。而且它在某種感知上,有點不合理地有效果,我認爲五年前沒有人會想到它的工作方式。

Hannah Fry:是的,像概念理解和抽象這樣的事情,竟然自然出現了而不是(被設計出來)。

Demis Hassabis:對,我們之前討論了諸如概念和 grounding 之類的事情,將語言建立在現實世界的經驗中,可能是模擬環境中,可能是在具身智能機器人中,這對於真正理解我們周圍的世界是必要。當然,這些系統還沒有實現。它們犯了很多錯誤,也並沒有真正的世界模型,一個好的世界模型。但是僅僅通過從語言中學習,它們已經得到了比人們期望的更多的東西。

Hannah Fry:我們可能還是要爲不瞭解的觀衆,解釋一下 grounding 是什麼。因爲這是個很重要的概念。

Demis Hassabis:當然,這是在八九十年代的時候,經典的 Al 研究體系在像麻省理工學院這樣的地方成立的原因。你可以把它們想象成連接其他單詞的巨大數據庫。問題是,你可以說在「一隻狗有腿」的確存在於數據庫中,可是當你展示一張狗的照片時,它並不知道像素的集合指向的是那句話。這就是 grounding 工作要面對的問題。你有符號這種抽象的表示,但在現實世界中——混亂的現實世界中——它真正意味着什麼?我們試圖解決這個問題,但永遠不會完全正確。

當然,今天的系統並不是這樣,它們直接從數據中學習。所以在某種程度上,它們從一開始就在形成這種聯繫。但有趣的是,如果你僅僅從語言中學習,從理論上講,應該會缺少很多你需要的基礎。結果事實證明,其中很多都是可以推斷的。

Hannah Fry:爲什麼是理論上的?

Demis Hassabis:這種 grounding 是從哪裡來的?這些系統,至少第一個大型語言模型,之前在現實世界中並不真正存在。它們沒有連接到模擬器,它們沒有連接到機器人,它們甚至沒有對互聯網的訪問權限。它們一開始也不多模態,它們沒有視覺能力或其他任何什麼的,只是純粹生活在語言空間中,一個抽象的領域中,所以相當令人驚訝的是,它們可以從中推斷出一些關於現實世界的事情。

Hannah Fry:如果人們參與進來,與這個系統互動,並明確說「這是一個垃圾答案」,「那是一個好的答案」,那樣才能提供感知。

Demis Hassabis:沒錯,所以可以肯定的是,如果它們出錯了,部分原因是由於早期的版本缺乏 grounding。比如說,你問狗的吠叫方式,它回答不正確,然後反饋那就回糾正它。反饋的一部分來自我們自己的知識,通過這樣的方式慢慢滲透到模型當中。

Hannah Fry:我記得看到過一個非常好的例子,關於「穿越英吉利海峽」與「步行穿越英吉利海峽」。

Demis Hassabis:對,正是這類的事情,如果它回答錯了,你就會反饋給它是錯了,然後它就必須得去弄清楚,你不能靠走的穿過海峽。

Hannah Fry:我有點想問:你認爲我們現在所處的階段,(也就是)此刻,事情是被過度炒作還是被低估了?還是說在一個錯誤的方向上被炒作?

Demis Hassabis:我認爲更多的是後者。我會說,在短期內它被過度炒作了。有號稱可以做各種不能做的事情;有各種各樣的創業公司和風險投資瘋狂追逐,但它們還沒有準備好。另一方面,我認爲它仍然被低估,我仍然不覺得人們已經完全理解,當我們到達 AGI 和後 AGI 時會發生什麼。那將是多麼宏大的一件事,因此也要明白那種責任。所以,這兩者都有點誇張,我認爲我們正在經歷這樣一個週期。

Hannah Fry:相比所有這些潛在的初創公司和風險投資而言,你們(團隊)已經在 AI 研究裡,生活和呼吸了幾十年,可以很好地發現哪些是現實的目標,哪些不是。但對於其他人來說,他們如何區分什麼是真實的,什麼不是?

Demis Hassabis:我認爲,顯然,你必須進行技術層面的盡職調查,對技術和最新趨勢有一些瞭解。我認爲還要看看說話的人,背景如何,他們的技術性如何。他們是去年纔開始看 AI 的嗎,在去年之前搞的是加密貨幣?這些可能是一些線索。

當一個地方突然吸引注意力時,錢隨之而來,每個人都擔心他們錯過了什麼。這創造了一種機會主義的環境,這與我們這些幾十年來一直以一種深度技術、深度科學的方式工作的人有點相反。

Hannah Fry:是的,我們的一個重要話題是 Gemini,它就來自那種非常深入的科學研究方法。Gemini 與其他實驗室發佈的其他大型語言模型,在哪些方面有什麼不同?

Demis Hassabis:從一開始,我們就希望 Gemini 是多模態的。它不僅可以處理語言,還可以處理音頻、視頻、圖像、代碼,任何形式。我們想要這樣做的原因是,首先,我們認爲通過這個方式,才能讓這些系統真正理解周圍世界並建立更好世界模型。所以這實際上還是迴歸到了剛纔說的話題,我們仍然在建立基礎,只不過這次是在語言之上。

然後我們也有了這樣的願景,即擁有一個通用助手,並原型了一個叫做 Astra 的東西,我相信我們會談論它,它不僅能理解你輸入的內容,還能理解你所處的環境。

如果你想象一下一個個人助手或數字助手,它理解的上下文越多,能提供的幫助就會越有用。我們一直認爲那樣的系統會更有用。因此我們從一開始就將多模態性內置了進去。這是其中一方面——天生的多模態。而且當時這是唯一能夠做到這一點的模型。現在其他模型都在試圖迎頭趕上

然後,我們在記憶方面也有一些重大創新,比如長上下文,現在可以記住一百萬或兩百萬個令牌(token),你可以把它們大致理解爲類似於記住一百萬或兩百萬個單詞。你可以把《戰爭與和平》這樣的作品交給它,甚至因爲多模態性,現在可以交給它一整部視頻、一整部電影或講座,然後讓它回答問題或在視頻流中找到你需要的內容。

Hannah Fry:我記得你舉了一個例子,比如 Astra 可以幫你記住眼鏡放在哪裡。不過我很好奇這些技術的發展脈絡,這只是那些舊款 Google Glasses 的高級版本嗎?

Demis Hassabis:當然,Google 在開發類似 Glass 設備方面有着悠久的歷史,實際上可以追溯到 2012 年左右。所以他們在這一領域遙遙領先,但可能缺少的就是 Astra 所代表的這種技術。通過這種技術,你可以真正理解一個智能代理或智能助手,它能夠理解它所看到的東西。我們對這種能夠伴隨你、理解你周圍世界的數字助手感到非常興奮。當你使用它時,確實會覺得這是一個非常自然的用法。

Hannah Fry:好的,我想稍微倒回一下 Gemini 的源起,它來自兩個不同的部門對吧。

Demis Hassabis:是的,實際上去年我們將 Alphabet 旗下的兩個研究部門合併了。也就是說,將原來的 DeepMind 和 Google Brain 合併爲一個超級部門,將我們公司內、整個 Google 內的所有頂尖人才匯聚到一起,將所有研究中最好的知識結合在一起,尤其是在語言模型方面。我們有 Chinchilla 和 Gopher 等項目,它們構建了像 Palm 和 Lambda 這樣的早期語言模型,這些模型各有優劣。我們把它們全部整合起來,形成了 Gemini,這是合併後的團隊推出的第一個燈塔項目。另一件重要的事情是,我們還將所有計算資源整合在一起,以便進行真正大規模的訓練,並將計算資源集中起來。所以我想這真的是非常棒的。

Hannah Fry:我想很多方面 Google Brain 和 DeepMind 的重點有不同,這樣說對嗎?

Demis Hassabis:確實如此。我認爲兩者都專注於 AI 的前沿領域,雖然在個別研究人員層面已經有很多合作,但可能在戰略層面上還沒有那麼多。現在,合併後的 Google DeepMind,我把它形容爲 Google 的「引擎室」。我們在工作方式上其實有更多的相似之處,而不是差異。我們繼續保持並加倍發揮我們在基礎研究方面的優勢。比如,下一代 Transformer 架構會來自哪裡?我們希望去發明它。顯然,Google Brain 發明了前一代架構,我們將其與我們開創的深度強化學習結合起來。我仍然認爲未來需要更多的創新,而我相信我們能夠做到這一點,就像我們過去 10 年間所做的一樣,這是令人興奮的。

Hannah Fry:那麼還是回到 Gemini 本身,它對比其他模型,究竟有多好?

Demis Hassabis:我認爲有些基準測試(說明了它的能力),但並不是問題所在,問題在於整個領域需要更好的基準測試。目前有一些衆所周知的學術性基準測試,但它們現在有點趨於飽和,無法真正區分不同頂級模型之間的細微差別。我會說,現在有三個模型處於前沿位置:我們的 Gemini、OpenAI 的 GPT 以及 Anthropic 的 Claude。當然,還有其他一些不錯的模型,比如 Meta 和 Mistral 以及其他公司開發的,它們在不同領域各有所長。取決於你的需求,比如編碼可能 Claude 更強,推理可能是 GPT,而在記憶處理、長上下文和多模態理解方面,那就是 Gemini。當然,我們都在不斷改進我們的模型。所以,考慮到 Gemini 這個項目纔剛一年,但我認爲我們的發展軌跡非常好。下次我們談論這個話題時,希望我們能夠處於最前沿,因爲確實如此。

Hannah Fry:看來還有很長的路要走,我的意思是這些模型仍然有一些不太擅長的事情。

Demis Hassabis:是的,肯定的。實際上,這就是現在的大辯論。所以這最後一組東西似乎是從 5、6 年前發明的技術中出現的。問題是,它們仍然缺少噸東西。所以它們,事實上,你知道,它們會產生我們所知道的幻覺。它們還不擅長規劃。

Hannah Fry:它們在計劃什麼感知?我的意思是。

Demis Hassabis:沒錯,這正是眼下辯論所在。最近這一系列的發展實際上是基於 5、6 年前發明的技術。然而,問題在於它們仍然缺少很多東西。比如它們的事實準確性問題,我們知道它們會出現幻覺。此外,它們在規劃方面也還不夠好。

Hannah Fry:「規劃」具體是指什麼?

Demis Hassabis:比如長期規劃方面,你給它一個目標,它們還無法在現實世界中爲你執行操作。所以它們還是非常被動的問答系統。你需要通過提問來激活它們,然後它們給出某種迴應,但它們無法真正爲你解決問題。

如果你想讓它作爲一個數字助手,你可能會想說‘給我訂一個去意大利的假期,還要安排所有的餐廳、博物館等等’,即使它知道你的喜好,但它無法真正去預訂機票和處理這些事務。所以它目前做不到這些。

但我認爲這是下一個時代——那些更具代理行爲的系統,我們會稱之爲代理系統或具備代理行爲能力的系統。這正是我們擅長的領域。這是我們曾經在所有遊戲 agent、AlphaGo 以及我們過去談論的其它項目中所做的工作。我們正在將這些已有聲望的工作,與新的大型多模態模型結合起來。我認爲這將是下一代系統的發展方向。你可以把它看作是將 AlphaGo 與 Gemini 結合起來。

Hannah Fry:是,我認爲 AlphaGo 已經非常好了。

Demis Hassabis:是的,它非常擅長規劃,當然只是在遊戲領域。因此,我們需要將其融入日常工作和語言等通用領域。

Hannah Fry:你剛纔提到 Google DeepMind 現在是 Google 的引擎室,這是一個相當大的轉變,在幾年前我也問過,谷歌是否在進行一場相當大的賭博?

Demis Hassabis:是的,我認爲如此。我覺得 Google 一直都理解 AI 的重要性。Sundar 在接任 CEO 時就說過,Google 是一家以 AI 爲先的公司,我們在他上任初期就討論過這個問題,他看到了 AI 作爲移動互聯網之後的下一個大範式轉變的潛力,甚至比這些還要大。但我認爲,在過去一兩年裡,我們真正開始踐行這一理念,不僅僅是從研究角度,也包括產品和其他方面。這非常令人興奮,我認爲這是我們協調所有人才並盡最大努力推進的正確選擇。

Hannah Fry:那從另一個角度來說呢?因爲我想,從 DeepMind 來看,擁有強大的研究實力,現在成爲 Google 的「引擎室」是否意味着你們必須更加關注商業利益,而不是純粹的科學研究?

Demis Hassabis:我們確實需要更加關注商業利益,這是現在的職責之一。不過,有幾件事可以談談。

首先,我們依然在繼續我們的科學研究,比如 AlphaFold, AlphaFold 3 最近發佈了,我們在這方面的投資也在加倍。我認爲這是 Google DeepMind 的一個獨特之處,甚至我們的競爭對手也把這些當作 AI 帶來的「普世財富」來看待。這些方面進展非常順利。我們還擴展了 Isomorphic,用於藥物發現,這一切都非常令人興奮。我們會繼續推進這些工作。

除了構建大模型、Gemini 等,我們還在建設一個產品團隊,將所有這些驚人的技術帶到 Google 的各個平臺上。這在某種程度上是一種不可思議的特權,我們發明了什麼,可以立即對十億人產生影響,這真的很有激勵作用。

實際上,現在在開發用於產品的 AI 技術和純 AGI 研究所需的技術之間的趨同性更強了。五年前,你可能需要爲一個產品構建一些特殊的 AI。現在仍然需要做一些產品特定的工作,但也許這只是 10% 的工作量。所以,現在在開發 AI 產品和構建 AGI 之間的緊張關係已經不存在了,我會說 90% 的研究計劃是相同的。

最後,當然,如果你推出了產品並將其投入到實際應用中,你會從中學到很多東西。用戶的使用可以揭示很多與你內部判斷不完全匹配的地方,這樣你就可以更新和改進研究,這非常有幫助。

Hannah Fry:完全同意。我們在這個播客中,更多地討論那些通過將 AI 應用於科學領域而取得的突破。但我想問一下,關於何時將成果發佈給公衆之間的問題。在 DeepMind 內部,這些工具,比如大型語言模型,更多地用於研究,而不是作爲潛在的商業產品來考慮,對吧。

Demis Hassabis:是的,正是如此。我們一直非常認真地對待責任和安全,從我們在 2010 年開始的早期階段就已經如此,Google 也採納了我們的一些倫理章程,融入了他們的 AI 原則中。因此,我們一直與 Google 保持高度一致,作爲該領域的領導者之一,致力於以負責任的方式部署技術。

現在開始將帶有生成式 AI 的產品推向市場確實很有趣。我們正在快速學習,這很好,因爲目前的技術還處於相對低風險的階段。隨着技術變得越來越強大,我們需要更加小心。學習如何測試生成 AI 技術對產品團隊來說非常重要。這與普通技術的測試不同,因爲生成 AI 不一定總是做同樣的事情。它幾乎像是在測試一個開放世界遊戲,你可以嘗試的東西幾乎是無限的。所以,如何進行紅隊測試(red teaming)就變得很有趣了。

Hannah Fry:在這種情況下,紅色的團隊是在與你們自己競爭?

Demis Hassabis:是的,紅隊測試(red teaming)是指設置一個與開發團隊獨立的團隊來進行壓力測試,嘗試以各種可能的方式破壞技術。實際上,你需要使用工具來自動化這些測試,因爲即使有成千上萬的人蔘與,仍然無法與數十億用戶的實際使用情況相比。當技術發佈後,用戶會嘗試各種操作。因此,將這些學習經驗應用於改進我們的流程,以確保未來的發佈儘可能順利是很有趣的。我們需要分階段進行,首先是實驗階段,然後是封閉測試,再到逐步發佈,就像我們以前發佈遊戲一樣。每一步都要進行學習。

另外,我們還應該更多地利用 AI 本身來幫助我們進行紅隊測試,自動發現一些錯誤或進行初步分類,這樣我們的開發者和人工測試人員就可以集中精力處理那些複雜的情況。

Hannah Fry:有一個非常有趣的地方在於,你們現在處於一個更加不確定的空間。如果發生某個事情的概率非常小,但只要嘗試足夠多次,最終就會出問題。我想可能確實已經有過幾次公開的錯誤。

Demis Hassabis:是的,這就是爲什麼我提到產品團隊正在適應這種測試方法。雖然他們對這些系統進行了測試,但它們具有隨機性和不確定性。因此,很多情況下,如果是普通的軟件,你可以說我測試了 99.99% 的情況,然後推斷說這樣就足夠了。但對於這些生成系統來說情況不同,它們可以做出各種意想不到的、超出預期的、從未見過的反應。

如果有人聰明或具有對抗性,像黑客一樣決定測試並推動它的極限,這可能會很難辦。由於生成系統的隨機性,即使是之前你對它說過的所有內容,它們也可能在某種特殊的狀態下,或者它們的記憶被某些特定信息填滿,這樣它的輸出就會出現異常。所以這確實有很大的複雜性,但不是無限的。雖然有辦法應對這些情況,但比起傳統技術的發佈,這要複雜得多,更多是細緻入微的。

Hannah Fry:我記得你說過,我們需要認爲這是一種完全不同的計算方式,從我們完全理解的確定性計算,轉向這種更加混亂的、充滿概率性和錯誤的計算方式。你認爲公衆是否需要稍微調整一下對我們所做的計算類型的思維方式?

Demis Hassabis:我覺得是的。也許我們在發佈某些東西之前,可以考慮發佈一份原則文件或類似的東西,來明確系統的預期是什麼,設計目的是什麼,適用場景和無法完成的任務是什麼,這很有意義。我們需要教育用戶,比如在某些情況下你可以這樣使用它,但不要嘗試這些其他事情,因爲它可能無法正常工作。我認爲這是我們需要在這個領域中做得更好的地方,用戶也需要更有經驗。其實這是很有趣的。

這可能就是爲什麼聊天機器人有點出乎意料地出現的原因。即使是 ChatGPT,OpenAI 也感到驚訝。我們有自己的聊天機器人,Google 也有。在看它們的時候,我也注意到它們仍然有許多缺陷,仍然會出現錯誤、幻覺等很多問題。但是我們沒有意識到,即使這樣,聊天機器人仍然有很多非常好的使用場景,人們發現這些使用場景非常有價值,比如文檔總結、寫電子郵件、填寫表格等。這些使用場景,即使存在一些小錯誤,人們也不介意,因爲可以輕鬆修正,並且節省了大量時間。這就是人們在將這些技術交給大衆使用時發現的意外之處,儘管這些系統存在許多已知的缺陷,但仍然存在有價值的使用場景。

Hannah Fry:這樣的話,我想接下來要問的問題是關於開源的。因爲當技術在大衆手中時,正如你提到的,確實會發生一些非常了不起的事情。我知道 DeepMind 過去開源了許多研究項目,但感覺隨着時間的推移,這種情況有所變化。

Demis Hassabis:我們一直非常支持開源和開放科學。正如你所知,我們幾乎開源併發布了我們做過的幾乎所有研究項目,包括像 transformer 和 AlphaGo 這樣的項目,我們在《自然》和《科學》期刊上發表了這些成果。AlphaFold 也是開源的,就像我們上次討論過的那樣。

確實,分享信息是科技和科學快速進步的方式,所以我們幾乎總是認爲這樣做是有益的。這是科學進步的普遍方式。唯一的例外是當涉及到強大的 AI 或 AGI 時,我們面臨的是雙重用途技術的問題。

因此,問題在於你想要支持所有良好的使用場景和那些善意的科學家、技術專家,鼓勵他們基於這些想法進行構建、批評等。這是社會進步最快的方式。但是,問題在於如何同時限制惡意行爲者的訪問,他們可能會將這些系統用於不良目的、誤用或轉化爲武器系統等。

這些通用系統確實可以被這樣,換個法子利用。今天這樣做尚且無礙,因爲我認爲目前的系統還不夠強大。但在兩三年後,特別是當你開始獲得類似自動化的代理系統或代理行爲時,如果這些系統被某些人或甚至某些流氓濫用,可能會造成嚴重的危害。因此,我認爲作爲一個集體,我們需要思考這對開源意味着什麼。

也許前沿模型需要更多的檢查,可能在它們發佈一到兩年後再進行開源。這是我們目前遵循的模式,因爲我們有自己的開源模型,比如 Gemma,它們較小,所以不是前沿模型。儘管它們的能力在當前階段已經被充分理解,但它們對開發者仍然非常有用,因爲它們也可以輕鬆地在筆記本電腦上運行。總之,這些模型的能力仍然很有價值,但不如最新的前沿模型(例如 Gemini 1.5 模型)那麼強大。因此,我認爲我們最終可能會採取這種方法,我們將有開源模型,但它們會滯後於最前沿的模型一年左右,以便我們可以真正評估這些模型在開放環境中的表現。

Hannah Fry:最新最前沿的模型能力,確實可能踩到邊界。

Demis Hassabis:我們可以看看這些模型的能力和邊界。開源的問題在於,如果出現了問題,你是無法撤回的。對於專有模型,如果惡意行爲者開始以不良方式使用它,你可以關閉訪問權限。在極端情況下,你可以完全關閉它。但是,一旦開源了某些東西,就無法撤回。這是一個單向門,所以在開源時應該非常小心。

Hannah Fry:那是否有可能將 AGI 控制在一個組織的範圍內呢?

Demis Hassabis:現在還不知道如何做到這一點。尤其是涉及到 AGI 級別的強大人工智能,即類似於人類水平的 AI。

Hannah Fry:在你描述的理想生態中,機構的位置如何呢?如果我們達到 AGI 支持所有科學研究的階段,那麼傳統的機構,是否仍然有存在的價值?

Demis Hassabis:我認爲機構仍然重要。在達到 AGI 之前,必須在公民社會、學術界、政府和工業實驗室之間進行合作。我真的相信,這是我們達到這一階段的唯一途徑。

Hannah Fry:計算機科學家斯圖爾特·拉塞爾(Stuart Russell)曾告訴我,他有些擔心,一旦我們達到 AGI,可能會出現一種情況,即我們都像舊時代的王子一樣——那些並不需要登上王位、也不做任何工作的人,只是過着無拘無束的奢華生活,沒有任何目標。

Demis Hassabis:對,這是一個有趣的問題,也許這不僅僅是 AGI,更像是超級人工智能(Artificial Superintelligence)或其他一些概念,有時候人們稱之爲 ASI(Artificial Superintelligence)。在這種情況下,我們可能會經歷一種根本的豐盈狀態,只要我們確保公平和合理地分配資源,我們將能夠擁有更多的自由來選擇做什麼。

那麼,意義將成爲一個重大的哲學問題。我認爲,我們將需要哲學家,甚至神學家,社會科學家來開始思考這一點。是什麼帶來了意義?我仍然認爲自我實現很重要。我不認爲我們都會只是坐在那裡冥想,可能會玩電腦遊戲,誰知道呢?但這是否真的不好呢?也許我們還需要重新定義什麼纔是「好」的生活。

Hannah Fry:我想舊時代的王子,不會覺得有什麼不好。

Demis Hassabis:你看那些極限運動的人,比如攀登珠穆朗瑪峰,都是對人類極限的挑戰。這些活動背後的動機可能與追求意義和自我實現有關。正如你提到的,儘管目前對這些問題的討論可能還不夠深入,但它們將極大地改變我們的世界。

即使是最先進的科技帶來了極大的變革,比如治療疾病、解決能源問題、應對氣候變化等,我們仍然面臨「意義」這一深層次的問題。這種意義的探尋不僅僅是技術層面的,更涉及哲學、心理學、甚至是文化層面。我們需要思考,在未來的技術繁榮之下,人類的存在和行爲將如何重新定義。