微軟的Copilot + PC 是革命性產品嗎?

2023年3月,微軟推出第一款生成式AI意義上的Copilot(副駕駛)——面向CRM(客戶關係管理)、ERP(企業資源規劃)的Dynamics 365 Copilot。此後,一系列基於原有產品的 “副駕駛”接連發布,令人眼花繚亂:Microsoft 365 Copilot、Windows Copilot、Microsoft Security Copilot、Power Platform Copilot……從命名規則看,主次分明,Copilot是輔助存在。

現在,這場聲勢浩大的改造運動燒到了PC(個人電腦)本地端。今年5月下旬,在一年一度的Bulid開發者大會前一天,微軟定義了PC新形態——Copilot + PC。慣常作爲後綴存在的Copilot被提格至前端,是微軟對於副駕駛作用前所未有的強調,透露着以人工智能接管PC的雄心。

難言驚豔:技術和硬件的簡單演化

首批發布的兩款Copilot + PC——Surface Pro 11、Surface Laptop 7,將大模型落地PC本地端,能夠實現實時“讀屏”、“召回一切”,以及相對常規的文生圖、翻譯等AI功能。

部分功能讓人眼前一亮,但從產品概念及功能形態的角度,其實難言驚豔,更多的是基於現有技術及硬件的簡單演化。

根據現場演示,新款PC中的Copilot能夠“看懂”屏幕上正在顯示的遊戲畫面,並可基於自身理解實時提供操作建議,這相當於在電腦中內置了一個永遠不厭其煩的遊戲專家,而且所能提供的建議是開放式的,遠遠超出了只有固定劇本的NPC(非玩家控制角色)概念。這樣的功能確實令人耳目一新,但這是Copilot搶先接入雲端OpenAI GPT-4o的結果,本質上其實只是GPT-4o的最新用例。

相比之下,可以召回一切的“Recall”是Copilot 本地原生功能。它的原理是在電腦運行期間,每隔幾秒鐘捕捉一次屏幕快照,並持續堆積至電腦硬盤,以備你在以後某個時間根據模糊的記憶找到它們。由於有PC本地端大模型的加持,召回的過程超越了常規精準檢索,從而更加便捷高效。不過,在產品概念層面,Recall與Windows 過去放棄的“時間線”並沒有本質不同,只是實現方式上加入了AI技術。而Mac平臺上的部分第三方應用如Rewind,同樣也能實現相似功能。

爲了將AI能力本地化,微軟爲Copilot + PC配備了強大的AI芯片——高通驍龍 X Elite和驍龍 X Plus,它們集成了CPU、GPU、NPU三大處理器模塊,總算力達到75 TOPS,其中專門用於AI計算的NPU算力即達到45 TOPS,甚至高於競品芯片的總體算力,比如英特爾去年12月發佈的Meteor Lake,提供34 TOPS的AI整體算力。

但這並不是PC設備首次搭載AI芯片,也不是微軟首次爲旗下PC產品配備AI芯片。去年12月,與英特爾發佈Meteor Lake同步,聯想已推出兩款搭載該芯片的PC產品,而今年3月,微軟同樣跟進發布配置該芯片的新款PC——Surface Pro 10商用版和Surface Laptop 6商用版。不過,按照微軟的定義,兩個月前的這兩個版本不屬於Copilot+PC,因爲它們的AI芯片的算力沒有達到40 TOPS。

但按照業界的基本共識,硬件性能的差異並不構成AI PC的真正區隔,判斷一款PC是否是AI PC的終極標準,是能否提供基於本地端的大模型的AI服務。

市場研究機構IDC在《AI PC產業(中國)白皮書》提出,AI PC的發展是一個不斷演進的過程,應分爲AI Ready和AI On兩個階段。其中,AI Ready階段是硬件準備階段,主要對應PC端芯片計算架構的升級以及由此帶來的AI算力的提升,主要體現爲集成了 NPU 計算單元的 CPU 陸續推向市場,以更高的能效比實現計算速度的提升,並在運行過程中具備更高的穩定性和可靠性,爲大模型落地本地端打下基礎。AI On階段是大模型開始在PC本地端運行,並與雲端大模型高效協同,在覈心場景提供劃時代的 AI 創新體驗,甚至能夠基於個人數據和使用歷史,在邊緣私域環境下實現個人大模型的微調訓練,最終實現個性化的AI服務。

Copilot + PC將大模型落地至PC本地端,突破了以往PC僅能通過雲端大模型獲取AI服務的侷限。這對於微軟旗下PC產品而言,無疑是劃時代的。但這同樣不是大模型首次落地PC本地端。今年4月,聯想發佈6款AI PC,其中內置了基於阿里巴巴70億參數大模型開發而來的個人助理“聯想小天”。這些產品在微軟發佈Copilot + PC前一天已正式開售。

但與聯想作爲全球第一大PC廠商內置單一大模型不同,微軟作爲全球第一大PC操作系統廠商,選擇的則是多模型方案,Copilot + PC內置的大模型數量多達40個。這或許纔是微軟此次重新定義AI PC的最大看點。整機廠商與系統廠商被認爲是推動AI PC演化的關鍵力量,兩者在落地大模型範式上的分野,或將產生深遠的影響。

背離夢想:40+小模型的拼盤

在保護個人隱私之外,加速大模型從雲端落地終端的另一大驅動力是成本。雲端大模型普遍千億級的參數,意味着高昂的推理成本。將推理環節下放至終端,則相當於讓終端用戶平攤成本,其中包括服務器成本和電力成本。

但落地終端同樣要考慮成本,其中真正的難點,在於如何在用戶可接受的硬件價格之內,實現具備吸引力的AI體驗。這就要求在保證大模型AI能力的前提下,儘可能縮減模型的參數規模。目前市面上有兩大實現路徑,其一是通過萃取將大參數模型壓縮,比如聯想的方法是,先對大模型中的關聯子結構進行識別,並評估其重要性,然後按照重要程度進行裁剪和量化。高通此前將文生圖大模型Stable Diffusion裝進手機端,也用了相似的方法,高通CEO安蒙(Cristiano Amon)認爲,如果模型訓練良好,準確率就不會隨參數減小而同等幅度下降。

另一種方案是從頭訓練小模型。爲了在小參數體量的情況下提升模型的能力,不同的科技公司採用了不同的策略,比如Meta選擇“加量”,持續打破大模型訓練的 Scaling Laws,給模型投餵了更多的數據,在訓練80億參數的Llama 3 時,Meta把訓練數據提升至15 萬億 Token(15 萬億個詞),作爲對比,Google 70 億參數的 Gemma模型用了6 萬億 Token。

而微軟則更注重“提質”。去年6月,微軟首次發佈了輕量級語言模型Phi-1,並提出了“教科書是你所需要的一切”(Textbooks Are All You Need)的數據篩選原則,據媒體報道,它甚至使用GPT-4 生成的高質量數據來訓練自己的小模型。今年4月,微軟將這款語言模型更新到Phi-3,按照參數規模分爲三個版本,分別是38億的Phi-3-mini、70億的Phi-3-smal、140億的Phi-3-medium。5月份,微軟在Build大會上又發佈了參數量爲42億的Phi-3-vision,該版本是基於語言模型Phi-3-mini開發的多模態模型,增加了執行圖像任務的能力。

但微軟並未將這四個版本直接用於Copilot + PC,而是另外開發了一個輕量級模型Phi-Silica,用於新版PC的智能搜索、實時翻譯、圖像生成和處理等任務。而Phi-Silica只是Copilot + PC中附帶的多達40個端側AI模型中的一個。

這表明,儘管微軟早在去年6月即開始押注更適合終端部署的輕量級模型,而且實現了快速迭代,但截至目前並沒有開發出可以獨立承擔PC端AI功能的小模型,而爲了實現微軟所認爲的AI功能,需要引入多達40個模型。

當然,這並不意味着現存輕量級模型真的沒有一款可以獨挑大樑,微軟選擇採用拼盤的模式,或許是希望將關鍵技術攥在自己手中,畢竟這些模型需要深植於Windows內部,未來將成爲其核心。但作爲目前市佔率高達70%的全球桌面操作系統廠商,微軟的拼盤戰術,無疑將產生巨大影響。

微軟重新定義的AI PC獲得了主流PC製造廠商的支持,在微軟的發佈會上,聯想、宏碁、華碩、戴爾、惠普等紛紛響應,宣佈推出對應的Copilot + PC產品。首批產品包含20多款型號,將於6月上旬陸續出貨。與此同時,微軟在Build大會上還推出了"Windows Copilot Runtime"工具套件,支持開發者利用Windows內建的40多個AI模型,催生出全新的應用程序體驗。未來隨着Copilot + PC逐步放量,一個基於拼盤模式的AI生態也將逐步建立。

然而,這種基於“拼盤”的生態,或許正在背離微軟的夢想。在剛剛過去的微軟 Build 2024 開發者大會上,微軟 CEO 薩蒂亞・納德拉(Satya Nadella)說,三十多年來,微軟對於計算機一直有兩個夢想,首先是讓計算機理解我們,而不是我們去理解計算機。在發佈最新款Copilot + PC時,他又強調,微軟做的不僅是可以理解我們的電腦,更是可以預測我們想要什麼的電腦。

充分理解進而精準預測的前提,毫無疑問是獲取全面的用戶行爲信息,然後再根據這些個性化的數據對個人大模型不斷地進行微調訓練。某種意義而言,這需要大模型具備上帝視角,它可以俯瞰用戶的一切。但如果是調用多達40個模型來提供服務,那麼必然意味着用戶的數據信息將散佈在40個模型之中,隨之而來的則是,每個模型對於用戶的理解和預測都將是片面的。

從這個角度來看,微軟目前選擇的策略,或許只是大模型落地PC端的權宜之計,是在端側大模型獨立性能欠佳的現狀下,不得不採用的過渡策略。而隨着大模型落地端側的潮流持續推進,它最終會被取代。但也有可能,它將成爲一種範式,從而奠定了AI PC模型端的基本架構。一切還要靜等潮流繼續演化。