專訪黃鐵軍:大模型時代下,人工智能如何連接技術和產業?

人工智能發展至今,已經成爲全球新一輪科技革命和產業變革的核心驅動力。當前,利用大數據加大算力、加強算法形成超大規模智力模型,已成爲新一代人工智能生態的核心,將是我國人工智能發展的重大應用基礎設施,是實現我國2030人工智能總體領先戰略的基礎平臺。

以"大變局下的經濟安全與可持續發展"爲主題的博鰲亞洲論壇全球經濟發展與安全論壇首屆大會,將於10月18日-20日在湖南長沙舉行,旨在探討應對全球經濟風險和結構性問題,將就智能製造、技術革命等議題共商共議。

針對大模型時代下,人工智能發展方向及應用前景等話題,北京商報記者近日專訪了北京大學信息科學技術學院教授、計算機科學技術繫系主任黃鐵軍。

北京商報:大模型被稱爲新一代人工智能生態的核心。能否簡單介紹一下,什麼是大模型?將解決哪些問題?

黃鐵軍:大模型是把智力賦予各種應用的一個基礎性共性模型。總的來說,是從海量大數據中學到蘊含在數據中的知識、規律,凝練到神經網絡上變成大模型,爲各種通用智能任務提供服務的基礎性平臺。

比如移動互聯網上,雲服務廠商可以有很多服務能力,但是如果沒有App這樣一個載體,用戶就很難得到各類雲服務。這麼來看,App本身就是一個產業生態。其實大模型目前也需要解決類似的問題。

大模型是輻射性很強、技術性很強的公共性服務。各行各業將來都會有一些特定的需要,中間需要一些企業開發大模型的轉化和定製的接口。

北京商報:大模型將如何連接人工智能技術生態和產業生態?人工智能下一個信息領域的應用方向將會是什麼?

黃鐵軍:很多行業對人工智能的認識和應用還處在一個探索的階段,這中間存在一定的距離。如何把這個接口接上,其實需要有一批企業,能把大模型的能力轉化成各行各業所需要的內容。

要預測下一個信息領域的應用是什麼,難度很大。我覺得現實中,文案、信息處理等工作將要被人工智能所替代,或者大部分被人工智能的大模型所解決,這會帶來一個極大應用的可能性。

搜索引擎的各種應用,歸根結底是信息組織挖掘使用。比如收集資料做一些信息處理,個人可以通過搜索引擎,而現在大模型解決了收集海量數據的問題,它的數據不是任何一個人或者羣體人力所爲的,而是把所有數據收集進來,並且反過來服務各種文案的信息處理應用。可能最後的出口還是人,但是背後大部分任務由人工智能完成。這個應用方向的可能性是巨大的。

北京商報:人工智能技術是如何發展到大模型時代的?相比以往有哪些區別?

黃鐵軍:人工智能發展到大模型,是人工智能技術發展的基本規律所決定的。人工智能有兩派觀點。一派認爲,人工智能背後的科學機理、理論、數學、算法,這個東西很重要;另一派認爲,人工智能總的來說是一門技術,構造一個智能系統,再理解智能系統的機理。後者是人工智能的主流觀點。

構建人工智能的過程中,一開始是少數科研人員的工作,後來有企業逐步參與進來,未來,則將由產學研、全社會力量共同構造一個模型。爲什麼要這麼做?其實道理很簡單,一個人工智能系統或者模型,如果學習的數據不夠全、不夠及時,很難相信它的智能模型能力很強。所謂大模型,就是把社會可能的各種數據資源,最強的算法以及算力整合在一起變成公共的,大家都能用的基礎平臺,這是我們構造人工智能系統必然要走的一個方向。

在這個過程中,大模型的能力強了,反過來就會對社會方方面面發揮作用。發揮了作用,就有更多人建設它,它是良性迭代作用。

實際上,人工智能的潛力決定於它能獲得的數據,就像人"讀萬卷書行萬里路",人工智能也類似。物理世界乃至宇宙如此廣闊,如果都能轉化爲數據、變成信息,讓人工智能來學習,這個空間將會非常大。

大模型的能力會否超出所有人,我不敢說,但至少任何一個人沒有獲取過這所有的信息,對於發現背後規律就更無從談起。我們每個人的肉體和生命週期決定了我們能獲取的數據還是相對有限的。

北京商報:大模型發展過程還存在哪些挑戰需要克服?未來的發展路徑是怎麼樣的?

黃鐵軍:訓練大模型現在已經有一套技術和算法,但是是否有更好的算法,學界和業界還在不斷的尋找和探索中。目前來說,需要很大的碳排放才能訓練出一個智能模型,將來則可能需要更少的碳排放就能訓練出一個模型。我認爲有一天,人工智能訓練的代價可能比人還要少,這就是另一個里程碑。

所以說,隨着人工智能接觸的數據越來越多,隨着學習、訓練效率越來越高,它的結果就是一個大模型,未來則可能是超大模型、極大模型,並不斷迭代下去,這條路徑已經很清楚了。

但它的上限到底在哪裡,現在還沒有任何依據。目前來說,越大越好是對的。可能擴大到一定地步之後就不會是簡單的線性提升了,也有可能到一定程度之後,增長就開始變緩了,但是這些目前還都是猜測。

北京商報:在大模型的研發過程中,如何考慮一些安全和倫理問題?將如何去避免?

黃鐵軍:人工智能的安全和倫理問題不是一蹴而就的。比如信息安全問題是隨着信息的發展不斷出現的,出現之後我們就要去解決。

在大模型的發展過程中,也存在一些本身就存在的風險,比如模型學習的知識有哪些是不符合倫理和原則的,這些風險可以預先控制;但也存在一些風險,是技術不斷進步所帶來的,那它的解決方式也需要通過技術手段來不斷地解決,"解鈴還須繫鈴人"。如果因爲存在潛在的一些問題就不發展這個技術了,是不符合科技發展規律的。

北京商報記者 陶鳳 王晨婷