張亞勤:將價值觀放在技術之上擁抱AI

來 源:清華大學智能產業研究院,原載於《互聯網週刊》2023第15期

張亞勤:

將價值觀放在技術之上擁抱AI

今年以來,人工智能(AI)爆 出個超級大網紅ChatGPT。 它上知天文,下 知地理,博古通今。 它才思敏捷,吟詩作畫,編程寫論文,無所不能。 它與其他大模型不同,開放了用戶界面,普通人可以像用手機或電腦一樣,直接應用。 因此,它圈粉無數,短短兩個月吸引上億用戶,且無廣告,完全依賴用戶口碑,掀起全球AI颶風,堪稱史上最受歡迎的產品。 在ChatGPT橫空出世的幾個月裡,它成爲許多會議的當然主題,知名度和影響力史無前例,其幕後推手Open AI也大沾其光,迅速出“圈”,被業界外的人津津樂道。 如果說2016年AlphaGo戰勝人類圍棋最強手的影響力還侷限在中國和亞洲,那麼ChatGPT則是席捲全球,深入各個領域各個層次。

PC互聯網呈現網景時刻,移動互聯網閃亮iPhone時刻,ChatGPT的影響力堪比互聯網,因此,有人稱之爲ChatGPT時刻。

ChatGPT究竟是何方神聖能全球吸睛?它將給AI時代帶來什麼?它給人類驚喜的同時,又存在哪些隱患?中國將面臨怎樣的機遇和挑戰?在清華大學智能產業研究院(AIR),清華大學“智能科學”講席教授、中國工程院院士張亞勤院長,娓娓道來他的人工智能觀。

1978年12歲的張亞勤,從山西考入中國科大少年班,是當年全國最耀眼的一名大學生,成爲20世紀七八十年代十年寒窗苦讀者的集體偶像,更是家長眼裡“別人家的孩子”。1985年,年僅19歲的他從中國科大研究生畢業,赴美國喬治華盛頓大學深造,1989年獲得博士學位。1999年回國出任微軟中國研究院首席科學家,一年後擔任微軟中國研究院院長。2001年微軟中國研究院升格爲微軟亞洲研究院,張亞勤擔任首任院長。2004年他擢升微軟公司全球副總裁,2007年執掌微軟中國公司(董事長),兼任微軟亞太研發集團主席。2014年出任百度公司總裁,2019年從百度公司退休後,來清華創辦AIR。

張亞勤從事AI研究數十年,是數字視頻和AI領域的世界頂級科學家和企業家,擁有60多項美國專利,發表500多篇學術論文,出版11本專著。他發明的多項圖像視頻壓縮和傳輸技術成爲國際標準,廣泛地應用於高清電視、互聯網視頻、多媒體檢索、移動視頻和圖像數據庫領域。

張亞勤是中國工程院院士(外籍)、美國藝術與科學院院士和澳大利亞國家工程院院士(外籍)。他也是美國國家發明院(NAI) 院士,歐亞科學院院士和中國人工智能學會會士。1997年31歲時被授予IEEE Fellow,成爲歷史上獲得這一榮譽最年輕的科學家。

AI時代的操作系統

張亞勤認爲,過去30年,IT行業最重要的變革是實現數字化。人工智能的三要素:算力、算法和數據,過去10年算力增加了10萬倍,遠超摩爾定律。數據是新一代AI,特別是大模型的基石。數字化經歷三個發展階段,數字化1.0是內容數字化,包括文本、音樂、圖片、視頻、語言,直接產物是消費者互聯網;數字化2.0是企業數字化,即企業信息化,如ERP、CRM、商務智能、企業智能等,直接產物是雲計算;現在是數字化3.0時代,信息、物理、生物世界的數字化,比如車、機器、城市、道路、家庭、大腦、身體器官、細胞、分子、基因都在數字化。1.0到2.0是從原子到比特,3.0是比特和原子分子的相互映射,直接產物是海量數據,數據比1.0和2.0時代大很多數量級,這是AI發展最重要的基石。

AI的鼻祖是圖靈。圖靈測試可驗證人類是否能夠分辨出交互對象是人還是機器。ChatGPT是人類第一個通過圖靈測試的智能體。之前很多年所做的聊天機器人屬於分析式、決策式、預測式、鑑別式AI,在專有領域如智能客服等方面表現很好,但跨領域效果一般,因爲還不是通用類生成式AI。ChatGPT走向通用AI。大模型用不同的微調策略,執行不同的任務。因此,從產業方面講,GPT+等各種大模型是AI時代的“操作系統”。

鍾秀斌(下文簡稱鍾):張院長好!好久不見,您還像當年一樣精神抖擻,沒什麼變化。我看過您近期關於AI和大語言模型ChatGPT的一些演講,受益匪淺。我們多數人沒有AI背景知識,特別期待您這樣的權威學者科普一下,如何認識ChatGPT這一現象級的新事物?

張亞勤(下文簡稱張):ChatGPT及其所引領的大語言模型和生成式AI,不是橫空出世的,而是隨着人工智能技術發展進化而來的。大基礎模型 Foundation Model (FM)正在成爲人工智能時代的操作系統。

說到操作系統,人們自然想到 PC時代的Windows,移動互聯網時代的安卓和iOS。現在有兩種操作系統,一種是在雲平臺上,一種是在用戶終端上。GPT所代表的大模型是雲平臺裡的操作系統。雲平臺有IaaS(基礎設施層)、PaaS(中間層即平臺層)和SaaS(軟件服務層)三層。GPT可以理解爲MaaS(Model as a Service),模型即服務,屬於PaaS層。

雲和端的說法比較形象。在端這邊,是一個更小的系統,會具體到手機、機器人、無人車等物體上。這個系統較小,建立在現有的體系之上,比如手機終端建立在安卓和iOS上,或建立在機器人操作系統 Ross之上。

操作系統會撬出一個大的產業生態,包括硬件(芯片)、軟件和服務體系。大語言模型是AI時代的平臺級技術,將形成比移動互聯網規模更大的產業生態。

移動互聯網產業生態比 PC時代要大一個數量級,ChatGPT爲核心的AI產業生態比移動互聯網還要大一個數量級。現在的AI芯片不同了,芯片早期是 CPU x86,後來是ARM,現在AI芯片多是GPU、ASIC等。AI時代,大模型的算法也不同,整個計算架構完全變了。

馮諾依曼架構過去60年一直是計算機架構的主體, 目前需要新的計算架構。大模型需要大計算,無論GPU,還是數據中心,其內部通信功能很強而形成大連接大計算。深度學習算法需要大量的向量Tensor運算,稀疏矩陣和布爾代數邏輯。數據處理的這些變化,需要新的芯片架構、新的指令集、新的框架、新的工具鏈,在此之上的應用也得重寫。比如從電腦到手機,手機上的APP是新的,各類平臺上有APP store,商業模式同樣發生變化。這是我從產業方面理解所帶來的新體驗與新變化。

AI三大要素算力、算法和數據變化了,基於ChatGPT或者FM上的應用和產業模式也隨之改變。因此,它在成爲AI時代的操作系統。

人們現在感受還沒那麼深。就像我們所經歷的互聯網發展一樣,剛開始只在行業內擴散,然後走向通用,在各個垂直領域裡深入融合。ChatGPT也是這麼一個過程。現在爲什麼ChatGPT的震撼這麼大,因爲它有用戶體系,界面有接口,用戶可以直接應用它。過去大模型基本都有API(應用程序接口,Application Programming Interface),像Windows一樣呈現一個界面,用戶直接用,但後臺複雜的計算處理,用戶不知道。

ChatGPT像Office一樣,用戶可以直接用。目前尚是一個最簡單的接口,今後它會發展成橫向通用模型,會有各種垂直模型,應用在toB(行業)的垂直領域,機會非常大。

鍾:從計算機到人工智能,工具或者技術能力越來越強大。比如1998年IBM深藍計算機打敗國際象棋高手,2016年AlphaGo戰勝人類圍棋高手,2021年AlphaFold成功預測了人體蛋白質結構,意味着AI開始攻克生物科學和醫學領域的重大難題。這些成果令人驚歎,AI在計算和邏輯方面比人更具優勢。ChatGPT完全可能融會貫通人類有史以來的所有知識,它是否會突然“涌現”出一種新的能力和價值來,比如在數學、物理、化學、生物等基礎研究,甚至在藥物研發、蛋白質解析、基因編輯、智能駕駛等應用領域,有較人類更出色的能力,去解決人類未曾解決的難題?

張:AI生成式大模型正在朝這一方向走,這些都是未來必然的發展趨勢。深度學習AI可以分成兩個階段,第一階段是解決專用問題,比如說AlphaGo下圍棋,AlphaFold解析蛋白質,已經超過人類。無人駕駛其實也已超過人類,只是大規模商用還需要點時間。語音識別、人臉識別能力AI超過人類。AI在每個專業任務的能力基本上與人類差不多,過去的5年AI發展很快,在每一個垂直領域和解決某一類問題的能力還會繼續提高。

ChatGPT開始具備一定的通識能力,把人類的知識融合在一塊,變成生成式AI大模型,它就可以寫文章、作畫、編程序。目前也能做些簡單的數學題,考試和人類平均水平差不多,甚至更強。但是要在數理化領域做基礎科研,它還需要更大的數據,培養更多的能力。爲什麼ChatGPT能寫程序?是由於Open AI把Github等開源社區上10億行代碼,拿來訓練後而形成的能力。今後,如把所有的數學知識(包括數學公式)都訓練之後,ChatGPT數學肯定做得很好。只要有足夠的物理學數據,它經訓練之後,物理水平也能很高。有家公司在訓練ChatGPT,嘗試批閱高考試卷,據說批得還挺準的。

可能有很多公司在每一個垂直領域去做AIforScience這些事。5年之後AI數理化做題水平都會超過人類。它可以證明人類有些證明不了的數學、物理公式或猜想。它不僅可幫人類證明數學題,還可能發明新公式,它每天都在學習,會不斷進步。甚至瞭解各種化學反應後,會推導新的化學反應式。人的精力和能力是有限的,而AI不一樣,它學會了數理邏輯和各種定律後,綜合能力完全可能強過人類。

當然,人類有些能力AI是沒有的。如果把人的能力分成三個層次,第一層感知能力,像聽說交互或圖像識別,AI和人類差不多,甚至比人還強;第二層邏輯能力,AI的推理、判斷能力,將來發展和人類也差不太多;第三層情感和意識能力,AI沒有。人的感情和意識,AI雖然可能會學習,但是我們目前並不知道人類的情感和意識是怎麼產生的。因此,人可能會對AI有情感,但它對人可能並沒有情感,或者不是真正的情感。對於通用AI或者超智能體,大家可能覺得它們會有自我意識。就像好萊塢科幻電影裡的機器人,最後控制了人類。我覺得這不太可能。

鍾:您能肯定AI不會有情感,對人類也不會有情感?

張:我覺得有時候這是一種哲學或者是一種信仰,我也不肯定,因爲這是個悖論。人類情感和意識是怎麼產生的?到底這是碳基生命的特點,還是比如說人類記憶力達到一定程度,或者推理能力達到一定程度之後就有意識了?我們並不知道。既然不知道,我們只能選擇相不相信。我是選擇不相信。因此,這沒有對錯,而是每個人的判斷或者信仰問題。

像對待覈武器一樣重視AI風險

2019年張亞勤到清華大學創建AIR,出任掌門人。幾十年來引領AI研究的他,將目光聚焦在應用研發上,致力於AI與產業融合。他給AIR立了規矩——做負責任的AI,提出3R原則,即通過Responsive(積極響應)、Resilient(適應發展)、Responsible(堅守價值)三大準則,來推動AI賦能行業發展。

如何做負責任的AI?張亞勤認爲,要了解不同行業的底層基礎,分析技術將產生的影響和後果,通過技術創新,國際合作和治理,廣泛應用AI推進第四次工業革命。因此,AIR選擇智慧交通、智慧物聯、智慧生命作爲主攻的三大方向,以人的生存環境、生命健康和人的價值爲主題,發揮AI效能,造福人類。

張亞勤多年領導世界頂流公司和頂級研發團隊,比常人更深諳技術的兩面性。他熱愛AI,擁抱AI,他確信AI將給人類帶來無法限量的價值,是人類第四次工業革命引擎。同時,他深信AI存在尚未爲人所知的不確定性風險,因此,當國際上有學者將AI風險和核戰爭、新冠疫情相提並論,需要引起人類高度重視時,他和老東家比爾?蓋茨在第一時間迴應,並在這份聲明上簽名,表明心跡:一定要把人的價值、價值觀和責任放在技術之上。

鍾:人類科技史表明,一項新技術人類使用到一定程度後越用越熟練,效用也越大。反過來,一旦失控,它也可能對人類傷害越大。比如核能技術,既能綠色應用,也能製造核武。現在的社交網絡成爲人們生活的標配,可網絡詐騙層出不窮。基因編輯可以在醫療上造福人類,但同樣也可在科學倫理不允許的地方犯錯。化學造福人類滿眼皆是,但也有人爲了牟利,往食品添加不宜食用的化學品。正因爲AI的超能表現,令人不免想到如何使它與人類的價值觀和目標對齊的問題。您如何看這一問題?

張:這一問題我20年前就開始談了。每當AI有進展,這個問題就會回來。這也自然,任何技術能力越來越強時,它的風險也會越來越大。早期人們不太相信AI的能力,好多人覺得像是吹牛。現在看起來,當年科幻電影裡的AI場景和內容,現在已越來越近了,正一步步成爲現實。

人類擁有兩種智慧:發明技術和控制技術走向,二者要均衡,目前後者稍微落後了些。要解決AI和人類價值觀對齊問題,第一,做技術的人要把技術和研究放到對齊上面,先要讓機器理解人的價值,追隨人的價值。對齊(alignment)這個詞很好,其實這不僅僅是倫理的問題,還有如何實現的問題。做技術和研究的人要致力於實現對齊任務,不能只開發能力,不着力對齊問題,這是相當重要的問題。現在有門新學科AI Security Research,即AI安全研究,就像航天有門學科RocketSafety Engineering,專門研究火箭安全工程。AI也需要有人專門研究安全問題。

第二,要制定和堅持一些基本原則。20世紀50年代美國科幻作家阿西莫夫定義了機器人和人類的三原則。2017年一批科學家又制定了《阿西洛馬人工智能23條原則》(Asilomar AI Principles),我認爲這是人和機器的基本原則。機器永遠是從屬體,人類是主體。不管機器、軟件,或是機器人也好,它是從屬的,其主體可以是人,也可以是公司,或者我們目前的實體。

因此,機器產生的任何行爲,主體要負責任,並從法律層面明確主體責任。比如說無人車出車禍,用戶和製造無人車軟件的技術公司,加上保險公司等主體共同承擔主體責任,就像現在司機出車禍,可能是司機問題,也可能是車的問題,由用戶或車廠和保險公司承擔事故責任。AI也一樣,今後也得購買保險。總之,AI本身不能獨立成爲主體。

第三,AI不能有自己獨立的倫理和價值系統。它服務人的系統,它的價值就是人的價值,它的倫理體系就是人的倫理體系。我們要讓它服從這一體系,實現這一體系。此外AI要可信任,具備安全性和可控性,這點也非常重要。

這類問題涉及技術、倫理道德和法律層面。當前人們在這方面所做工作還不多。最近歐洲剛簽署一個新規則,中國網信辦起草了《生成式人工智能服務管理辦法(徵求意見稿)》,工信部出臺《工業和信息化領域數據安全管理辦法(試行)》。技術研發、道德倫理、立法監管等合力並進,才能讓AI發展更健康。

我們歡迎政府立法監管,監管才能使AI方向正確。哪怕走得慢一點,也需要監管,以確保方向正確。有時政府政策法規出臺相對慢些,就像互聯網一樣,剛開始野蠻生長,發展到一定程度,才能出臺法規加以規範。因此,正如我之前所說的兩種智慧要平衡,技術往前跑,監管來規範。信息社會技術發展快,人的意識形態、政策法律體系仍然按工業時代的節奏,自然會滯後些。

問:信息時代面臨的互聯網治理問題越來越突出。比如個人隱私信息保護,類似健康碼、行程碼,在特殊時期,人們爲公共價值而讓渡一些個人權利。但如果國家相關立法沒有跟進,這類工具就可能被濫用。現在網購已成爲人們日常生活的一種方式,但一些平臺利用大數據算法,可把用戶瀏覽過的一些物品,無限地推送給用戶,干擾用戶購物體驗。

AI時代類似的問題肯定不會少。人們在享受AI帶來的便利的同時,也必然會受到負面影響。正如您所說的,技術發展和風險控制要平衡,齊驅並進。如何讓主導技術發展的科學家和工程師們有清醒的認識和堅定的原則,哪些是要鼓勵發展的應用,哪些是要時刻警惕的技術?如何培養他們科技爲善的價值觀?

張:我在清華大學智能產業研究院(AIR)強調,做研究或者做技術,一定要把人的價值、價值觀和責任放在技術之上。因此,AIR選擇了在未來五年十年AI具有巨大影響力的三個方向,研究課題(包括與公司合作項目)都與這一理念相關。一是智慧物聯,面向雙碳(碳達峰碳中和)的綠色計算、小模型部署到端等,節能減排。物聯網應用廣泛,可以做許多東西,但AIR選擇圍繞雙碳做文章。二是智慧交通,機器人和無人駕駛,安全第一。無人駕駛安全性增加10倍以上,現在90%交通事故都是人爲事故。AI駕駛可以排除人工駕駛中的失誤,大大增加安全性。同時,低碳節能減排,各種應用無縫銜接,效率高。三是智慧醫療,AI新藥研發、生物技術,服務人的生命健康。

清華AIR的選題圍繞人的生命健康、生存環境和人的價值,基於計算機學科基礎ABCD(Artificial Intelligence, Big Data, Cloud, Device),面向世界科技前沿、經濟主戰場、國家重大需求和人民生命健康的方向,開展相關研究工作。這是AIR社會責任所在。我們要有這樣的認識,但確實存在挑戰。這一挑戰不僅僅是人工智能,而是面對所有的技術。

每項技術就如核技術,如果人類有選擇,也許最好不去找像鈾或鐳這些放射性物質。核磁共振醫學應用造福人類,而核武器卻可以毀滅人類。像化學和生物,早先有生物戰和化學武器。後來因爲世界大國之間達成共識,立法禁止使用生物化學武器。核武器出現後,也就相應立法禁核。現在的基因編輯技術,世界各國也有明確的立法,不能用於改變物種,尤其是針對人類。

需要有一些清晰的基本規則,來規範和約束技術的發展與應用。AI,尤其現在到大語言模型程度之後,由於具備生成式能力,具有不可預測性,它能生成什麼人們並不能完全預知。

過去AI工作主要幫助人做分析、決策和預測,但現在它完全可能創造出新的東西,不加控制,未必是好事。尤其是銀行金融或者具有關鍵使命的系統,應用AI時,小心保守些爲好。AI有些能力的因果關係目前人類還不清楚,比如說智能有限問題、AI怎麼達到智能、黑盒子問題或者透明性問題,人們並不明晰它的因果關係。

我們有時瞭解what而不太清楚why,可能瞭解what百分之三四十就可以做,知其然不知其所以然。其實Why很重要,我們現在不清楚AIWhy的情況下,所以在應用到物理系統或關鍵使命體系時,更得小心保守。

問:今天處於AI時代,人們不得不面臨如何確保AI與人類價值觀和目標對齊的問題。您作爲權威AI科學家,見過世面,稟賦異人,更能感受控制技術風險的重要性和迫切性。

張:現在越來越感受到問題的重要性,越來越多地討論這些類問題。以達沃斯論壇爲例,我十多年前參加達沃斯論壇的時候就在討論AI對第四次工業革命或者社會變革的深刻變化和深遠影響。但從2018年開始,達沃斯論壇的議題開始主要談論AI發展所帶來的風險及其管控,在剛剛閉幕的天津夏季達沃斯論壇上,80%議題都談風險控制。早年我參加達沃斯論壇時,大家多在探討AI的能力,對它具有什麼特別功能並不確信,認爲人工智能就是個軟件,所能做的事情有限,不可能對產業有什麼深遠影響。

之後人們越來越多地談論AI相關話題。先是談數據,擔心掌握大數據會形成數據壟斷大公司。我2019年以百度總裁的身份參加達沃斯論壇。當時有二三十家大公司CEO都在討論大公司大責任大擔當的話題。特別是當時臉書(Facebook)數據泄露和操縱選舉事件發生後,人們覺得公司掌握數據越多,AI能力越強,需要承擔的責任也更大。這幾年大家的風險意識增強。之前國內媒體很少談論AI風險,像你這樣問我的人很少,一般都是關注AI怎麼改變產業,投資機會在哪裡,中國和美國企業如何競爭等等。

我們擁抱AI,希望它走得更好。但目前對於AI可能的風險問題,已經引起越來越多的人關注和擔心。最近關於AI風險有兩份著名的公開聲明,一份由特斯拉創始人、SpaceX公司CEO埃隆?馬斯克(Elon Reeve Musk)和美國未來生命研究所(Future of Life Institute)創始人、《生命3.0》作者邁克斯?泰格馬克(Max Tegmark)發起的,呼籲暫停訓練比GPT4更強大的AI模型至少6個月。

另一份由劍橋大學助理教授戴維?克魯格(David Kreuger)發起,包括多倫多大學教授傑弗裡?辛頓(Geoffrey Hinton)和深度學習之父、圖靈獎得主、蒙特利爾大學教授約書亞?本吉奧(YoshuaBengio),比爾蓋茨、OpenAICEO(主導ChatGPT)山姆?奧特爾曼、谷歌 DeepMind 首席執行官戴米斯?哈薩比斯(Demis Hassabis)等多位頂級研究人員、工程師和CEO,就AI對人類可能構成的威脅發出最新警告,超過350位相關領域人員共同簽署了這份只有22個單詞的聲明:“減輕AI帶來的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險,一起成爲全球優先事項。”把AI可能帶來的風險,用了十分顯眼的詞——滅絕風險。AI風險等級和核武器、流行病相提並論。

第一份聲明我沒簽名,因爲我覺得科研很難停得下來。一個企業可以暫停研發,其他企業未必會暫停;或者一個國家可以暫停相關研究,但並不能阻止另一國家繼續。第二份聲明我簽名了,我認爲做人工智能研究要是沒有這樣的風險意識,就不會重視,如果AI研究一旦失控就會帶來災難性的風險。有了風險意識之後,政府、企業、研究院校、社會各方就會像對待覈武器、新冠疫情一樣,時刻警惕,強化監管,使技術走在正確的道路上,從而達到發展和風險的平衡。

AI時代的中國機會與挑戰

在越來越不確定性的今天,中國發展面臨着更爲複雜的國內外環境。自2018年中美貿易戰爆發以來,世界兩大經濟體展開了曠日持久的國力博弈,影響到社會經濟各個領域,甚至出現“卡脖子”現象。作爲中國高科技產業鏈上的明珠,AI也未能倖免。

張亞勤清醒地認識到現實的嚴酷性,但他依然一如既往地樂觀。這樂觀的底氣來源於他經歷了中國互聯網從無到有、從有到強的過程,來源於他洞悉中國改革開放幾十年高速發展的要素積累,來源於他對中國融入世界,世界需要中國的人類命運共同體的歷史自信。他認爲中國的人才積累和產業基礎,已爲今後AI發展鋪開路,只是現在逆風跑要多比順風跑時多費點力而已。

鍾:在工業時代,通過工業革命,人類解放了手腳和體力,使人類可以扛得更重、走得更遠,探索更廣袤的物質世界。在信息時代,通過AI,人類逐步解放和延伸了大腦,處理更爲複雜的問題,瓦解之前的許多困惑,使人類抵達更加自由的精神世界。從哲學角度看,AI讓人類變得更加自由,進入更高的精神狀態,這是人們可以樂觀地擁抱AI,造福人類。科學家、工程師和企業家已有共識,AI風險在一定程度上是可控的。其實,AI最大的風險還在作爲AI主體的人類自身。如果人類是可控的,那麼AI的風險必然大大降低。就像您一樣,將AIR定位在都與人的價值和福祉緊密相關的應用領域。如果人們都往人類的共同目標着力,那麼結果應該增進福祉。AI發展與人類命運緊密相聯,因此它更值得人們關注。在中國當前環境下,AI發展面臨怎樣的機會和挑戰?

張:中美關係走勢影響AI產業發展,中美關係面臨三種可能。一是完全解耦或脫鉤。這種情況下,AI發展沒什麼捷徑,要做芯片、光刻機,技術週期比較長,得堅持。但是我認爲這種概很小,基本上不存在。美國大芯片公司想和中國做生意,一是中國的市場大,30%-50%的需求都在中國,二是產業鏈已經互相咬合在一起。即使一些政客講來講去,也不會真正脫鉤的。也許一些高端芯片暫時過來慢一點,需要費點時間等待。我們自己,比如百度在做芯片,芯片可能效率稍低一點,但是可用。

中國大語言模型公司可以整合一下,集中算力資源。當芯片不夠時,大家自我調整,加強合作,整合芯片資源,共同做些研究。

雖然完全脫鉤的可能性不大,但是要像過去10年前那樣全球化已不大可能,需要時間來修復。今後四五年我們還能拿到芯片,可能芯片會有代差,落後一兩代。但我們仍能繼續研究、創新、做產品。之前我們是順風跑,現在就像逆風跑,需要克服阻力大點,要多花點勁,相對要辛苦一些,但還是能跑。

現在中國的人才積累不少,中國的產業已有基礎。經過了 PC互聯、移動互聯之後,中國數字化程度高,數據量大,O2O線上線下連接能力,供應鏈體系、移動網絡設施、數字支付等AI時代重要的基礎設施都已建好。因此,我們沒有什麼藉口做不好,在逆風中也是可以跑的。

早在PC時代,咱們什麼都沒有。經過二三十年的努力,已有了相當基礎。在Windows時代,我們在應用層做了許多開發,取得不少成績。當年國內有人致力做操作系統,其實通用操作系統既然已有,再要替代必然困難。即便在美國,也無法再做另一個操作系統。但在產業平臺變更時,就有新的操作系統替代。比如移動互聯時代的安卓和iOS,操作系統換了,其上的應用生態也都要改變。現在AI是個機會,人們有機會開發出新的操作系統來匹配。如果我們這一代來不及,下一代還可以繼續做。

做基礎研究或者應用開發也好,要瞄向未來五年十年的發展趨勢。這需要有一批人,能夠看到更遠的方向和機會。

如果中美脫鉤,有的東西就得我們自己做,比如雲或者大模型,大模型是基於雲上的應用。

美國有多個雲,中國也有多個雲。兩國的雲各自獨立,並不直接相互競爭。雲在每個地區有它的特點,不同政策、不同用戶、不同習慣、不同數據,包括我們的互聯網也是如此,所以我覺得機會還是挺大的。

鍾:大模型的訓練,需要海量數據。中文數據比英文的數據量要小,那麼是否會影響大模型功能開發?

張:當年互聯網剛剛開始時,基本上沒什麼中文數據。經過這麼多年發展之後,全球中文的數據量僅次於英文的。不必擔心數據不夠,這不會成爲咱們AI發展劣勢。

首先,許多公司所用的中文數據,並沒有用全。百度、阿里也一樣,數據量很多卻未能充分利用。其次,咱們也能用英文數據。訓練模型時可用英文數據,很多英文數據也是開放的。國外能用中文數據,我們也可用英文數據。最後,目前大模型剛剛開始,以後多模態大模型,可以使用各種各樣的數據,包括視頻圖像、物理數據、行車數據等等。未來這些數據很多,而每個垂直行業裡,又有海量的行業數據。

當然數據選擇很重要。ChatGPT有1/3時間花在數據清洗上。數據有許多問題,比如互聯網數據裡有大量假數據和有毒數據,許多人爲製造的假數據假信息。社交網絡上的評價數據,一些罵人或者暴力的內容,就是有毒數據。如果用這些數據去訓練大模型,肯定會有問題。因此要篩選數據或清洗數據,確保數據儘量是真信息。

大模型訓練會自動過濾一些信息。一是數據本身的質量問題,二是人類反饋強化學習,有很多人幫它和人對齊,特別是一些敏感詞。

在美國,比如種族歧視、性別歧視、年齡禁忌等,十分敏感。我可以說太太開車水平差,但不能說女司機開車差,哪怕是開玩笑,這在國內人們不會太介意,但在美國肯定犯忌。不同地區不同時間不同文化,因此選擇數據時要特別注意,要和人類價值觀對齊。

中國AI可以做得起來,尤其是應用開發,大模型在垂直領域的機會很多。當時我在微軟做過分析,操作系統每賺1元,在操作系統生態上的合作伙伴賺18元,具有很強的產業輻射效應。移動時代,無論to C或to B,Android和iOS平臺上面的應用機會更多了。

鍾:因爲操作系統不是我們自主研發,有無可能被關掉而導致不能使用大模型?

張:我們自己做的大模型,別人關不掉。就像我們的雲一樣,是獨立的,沒人能關掉而不可用。我們現在沒有引進ChatGPT,而是大家重做的大模型,百度做,阿里做,國內還有幾十家公司也在做。今年3月百度發佈文心一言後,現在還在測試,包括適應監管政策,估計還需要一些時間。

我們中國公司,用自有數據,做自己的模型,大模型建在雲端上,外界沒法關掉你的雲,這點不像Windows。目前這些系統,包括服務器、芯片、雲都在國內,因此,雲端上的大模型不必擔心脫鉤的影響。即便在極端情況下,百度雲、阿里雲都可以用,大模型的訓練方法,包括一些開源的算法,可能會受到點影響,但是大模型設施都在這裡,一般應用沒有問題。我認爲不可能出現極端情況,基於過去40多年改革開放全球化進程的經驗,我對此比較樂觀。

保持好奇心,做永恆的學習者

張亞勤少年天才,青年精英,壯年成爲全球企業和學界的雙棲領袖。外人看來一路順風順水,但他卻謙遜地認爲自己幸運地踏在大時代的發展節點上,每一步都能聽從內心的召喚。他出生在史無前例的動盪年代,父親早逝,從小在外祖母、祖母、母親和親戚家之間輾轉,讓他一直感到不穩定——不知道下個學期要去哪座城市,能在哪裡上學?直到12歲考上大學,纔算穩定下來。童年罹遭厄運,所幸親人們都很愛他,母親的教誨令他終生不忘。他說小時候不能靜心做事,浮躁而易放棄。有一次,母親特別生氣,罰他站在牆角,大聲責問:“你有一技之長嗎?你能自食其力嗎?你靠什麼生存?”振聾發聵的三問,這麼多年來縈繞在心。每當遇到困難時,無論是作爲學生、工程師、教授,還是總裁,這個聲音總在耳邊:“你的一技之長是什麼?”

另一件事也令張亞勤記憶猶新。小時有一好友,一起讀書,一起玩耍。有一天,他對母親說,好友很笨,簡單的題都不會做。母親嚴肅地批評他:“任何時候都不能在背後說別人的壞話……要學會善待別人。”後來,這成爲他做人和管理的一個原則,不在背後說別人的壞話,也不喜歡別人在背後講別人壞話。這個原則讓他學會善待別人,也避免了90%的辦公室政治,讓他的世界和管理方式變得簡單和乾淨。

如今進入人生3.0階段的張亞勤,放下職場要務,轉戰清華教書育人,欲將學識、經驗和智慧,傳承給年輕人。6月25日,他在清華大學經管學院2023屆畢業典禮上致辭,提醒即將走出清華的莘莘學子,在AI時代,有些產業和工作或將消失。任何重複性和流程性的腦力和體力工作將被機器取代;任何可描述的、有固定規則的、有標準答案的問題,機器都會超過人類……他要求學子們保持對世界的好奇,做永恆的學習者。因爲AI時代,機器在學習,人類更要學習!

鍾:2019年您從百度退休後,爲什麼還來清華當教授?

張:這是我計劃的人生3.0,退休後希望能做些科研和培養人才,做慈善做公益,能增強中國科技界和國外的交流, 也能更多陪伴家人,來清華純是機緣巧合。現在比預想的要忙得多,只是沒有在企業時責任那麼大。在學校的好處是自己考慮問題可以更長遠,包括培養學生和研究課題。其次,時間相對自由。不過,這點我沒做到令自己滿意,前兩天我還向朋友請教怎麼管理時間?怎麼高效行動?這幾年受疫情影響,出行走動比較麻煩。

在清華總體感覺挺好的。我現在帶15個學生,每年5個博士生,3個學術博士,2個工程博士。我還帶了3個碩士生,清華碩士生少,主要是國際碩士生。我平常不上課,只是給研究生開些講座。

鍾:當企業家和當教授,您更享受哪一種身份?

張:我都挺習慣的。可能不同階段從事不同的角色,更能豐富人生。我博士剛畢業時,像現在這樣做研究。之後在微軟做企業研究院,後來又管研究、管技術、管產品、管市場,什麼都管過。

現階段我還是希望做現在的事。不同的人生階段做不同的事情,我都挺用心。由於過去我在公司做事,包括中美學習工作經歷和管理大團隊經驗,因此,我對技術的看法會有一些新視角,思維方式也可能不一樣。如果過去一直學術界,一直做研究,沒有產業經驗,那麼對產業發展的感覺就會不一樣。無論做企業,還是現在做研究,我一直與技術和產業關聯,從來沒有遠離過技術和產業。清華AIR也是圍繞產業發展做研究,我們做的東西要對社會、對產業有用。做的時間可以三年五年甚至十年,但做的東西最終要應用而不是純粹的理論研究。這是我對自己的一個定位。

無論是憑藉好奇心驅動去探索,做象牙塔式的基礎研究,還是以解決現實問題爲導向的技術應用,都是我們社會所需要的。基礎研究和應用研究都有用,無用之用方爲大用。這兩種研究對學術和技術發展都重要。只是我們強調所做的研究最終要成爲未來看得見的應用,能夠產生社會效益或者帶來產業機會。

鍾:您12歲考上中科大少年班,是我們一代人的偶像。從少年學霸,到企業領導,最後成爲學界領袖,這是成功人生的典範。您對剛剛參加完高考的孩子有什麼樣人生建議?

張:我剛在清華經管學院畢業典禮做了一個演講,談到我上學、出國、做企業,然後又回到清華的經歷。我很幸運,每一步都踏在大時代發展的節點上。AI時代我給即將畢業的學子幾點建議:

要保持對世界的好奇,做永恆的學習者。因爲機器在學習,人類更要學習。

要有獨特的觀點和倫理價值判斷,不要隨波逐流,不要失去個性和棱角,AI越來越強大,ChatGPT可以比任何人更圓滑和更全面,能夠生成很多觀點。但唯一無法生成的,就是你獨特的觀點。

要將倫理和人文精神放在心中,雖然技術是中立的,但創新者有使命。技術是工具,要爲人類服務。要重新審視人類與AI的關係,讓AI和人類價值和目標對齊,降低不確定性風險。

要培養自我選擇的能力。在探索人生的過程中,要大膽嘗試,找到適合自己的道路,做自己的選擇。沒有最好的選擇,只有你的選擇;沒有最完美的人生,只有你的人生。

對於馬上要上大學的孩子,上大學後別那麼在乎分數。高考前沒辦法,沒有好分數,上不了喜歡的大學。上大學後,要學自己有興趣的課程,要學到再學習的能力。現在信息噪聲很多,大學要着重提高信噪比,去除噪聲,培養找到有效信號源的能力。孩子要有辨別對錯的判斷力,清楚自己的想法,找到關鍵點,主動學習。■

入羣瞭解更多經濟學觀點與前沿動態