AI與雲廠商的捆綁遊戲:債務、利潤與生態的博弈

19世紀中後期,貪婪的歐洲各國對古老而又原始的非洲垂涎三尺,一擁而上將其瓜分殆盡。

120多年後,冉冉升起的AI新星也逐漸走入了雲廠商精心設計好的“陷阱”。

故事的開頭很美好,一方慷慨大方奉上錢和算力;另一方感激涕零,做出來的“ChatGPT”式的新貌震驚四座。然而,當初的山盟海誓轉瞬即逝,嫌隙漸生,回過神來的AI公司才發現,歸來已是一身負債。

截至目前,世界上主要的雲廠商已通過合作、投資的方式與AI公司綁定CP。國外,微軟與OpenAI,亞馬遜與Anthropic。國內,阿里獨坐莊家,提前鎖定了智譜、月暗、零一萬物、Minimax,行業內的“AI五小虎”。

OpenAI最新66億美元融資註定會成爲一個分水嶺。新一輪融資關閉後,OpenAI進一步公佈了財務模型和利潤規劃表,這相當於宣告了大模型的盈利時刻,“還債”指日可待。

環伺在OpenAI周圍的微軟與VC們已經開始蠢蠢欲動,尾隨其後的亞馬遜、谷歌也盯上了各自的獵物。

回到中國,操作簡單粗暴,對照OpenAI打打折,也給AI六小虎(指智譜、月暗、零一萬物、Minimax、階躍星辰)能賺多少錢估個預期,制定個deadline。

或許是預感到了即將到來的壓力,近期的AI公司相繼呈現出了收縮的趨勢,“開源節流”逐漸成爲後期的主線任務。

根據國內外AI公司所簽訂的協議,一(雲)對多(模型)的代理人機制下,模型公司淪爲了雲廠商的“打工機器”。既要支付算力賬單,爲其年終業績賬單記上一筆。待未來盈利,還要按照投資股份所佔比例,被瓜分利潤。

大模型公司焦慮瀰漫,競爭內卷,背後隱藏的莊家漁翁得利。投遍AI潛力股的阿里雲、騰訊雲這回要“躺着”賺錢了。

雲,大模型的“信用卡”

雲計算,是大模型時代堪比黃金的“硬通貨”。

OpenAI與微軟的百億美元“聯姻”一度是AI圈的佳話,不過,據外媒報道,截至去年9月,OpenAI僅收到“一小部分”。其中“很大部分資金”用以購買雲服務資源,而非現金形式支付。

在國內,阿里也借鑑了微軟的投資方式,並在其基礎上靈活改造。同樣用雲給AI五虎“刷卡”,預支使用雲的“信用額度”,比如投資月暗的8億美元中,雲的信用額度就佔了近一半。在此基礎上,阿里的投資未直接轉給AI公司,而是被存放在一個代管賬戶,所劃掉的雲額度可重新計入其收入。

由此,雲其實承擔了兩重角色。初期,得益於算力和大模型的依賴性關係,雲成爲了叩開大模型投資的砝碼。後期,雲成爲了“提款機”,源源不斷地從AI公司方支取利潤。

收益主要來自兩部分,一部分是對雲的消耗,AI公司從模型訓練到後期API調用,都會在信用卡上劃一筆,計入到雲廠商的AI收入中。典型如微軟與OpenAI的關係,GPT模型訓練和ChatGPT產品運行都在微軟雲上,通過Azure向客戶提供的ChatGPT相關服務也需再次計費。

即使是大模型上雲產生的收入,很大一部分也流入了雲廠商的口袋裡。國外有調查顯示,當客戶在亞馬遜Bedrock調用Claude,或在微軟Azure調用GPT時,每支付一美元推理費用,約有超過50%的收入支付給了雲服務提供商,用以支付基礎設施成本和毛利潤分成。

實際反映到收入上,阿里更有說服力,畢竟國內一半以上的大模型公司都上了阿里雲。財報顯示,2024財年第三季度,阿里雲營收280.66億元,增長3%,經調整EBITA利潤增長86%至23.64億元。可以看出,即使是短期內,AI“大戶”們的消耗對雲廠商也產生了正向拉動效果。

對此種現狀,雲廠商們半夜躺着都能笑開花,但這可愁壞了AI公司。算力額度雖是剛需,但更像“空頭支票”,日常經營、各項成本開支還得靠賬上的流動資金,也難怪OpenAI在最近一輪融資前三令五申,“至少支付 2.5 億美元現金”。

另一部分則是參與AI公司的利潤分配。據最新消息,OpenAI未來的利潤分配主要分爲三層,第一、二層都用於償還給投資者和微軟,等到分配完畢,才能真正屬於OpenAI公司。包括OpenAI在內的AI公司處境一目瞭然:欲談獨立,先還債。

在國內,雲廠商的話語權更大,特別是阿里,信用卡漫天撒,終於熬到了“討債”階段。相比於OpenAI,此類絕對頭部的大模型公司,中國AI六小虎的生存環境更爲艱難,如何產生收入是關鍵問題。

在國外,已經分化出了兩條道路,向左To C,代表是OpenAI;向右To B,代表是Anthropic。從雲廠商中“虎口奪食”需具備前提,即基本模型和產品能力要顯著超越雲大廠。OpenAI之於微軟,Anthropic之於亞馬遜皆是如此。以此來審視國內,該前提基本不成立。到現在爲止,雙方未能拉開明顯差距,反而大廠在流量、生態、客戶市場等方面更勝一籌。

AI公司在雲廠商面前更顯弱勢,“綁定”有程度深淺之分。如果只是透支未來算力而產生費用,總有還完債的一天。但是,雲廠商並不甘於此,有的在雲上又加築了一層“專供芯片”,有的用客戶綁定,有的買斷技術未來。還有許多中間地帶,例如雲廠商對模型的訪問權,用戶數據的所有權等等。

大模型的最佳“賞味期”

現階段,雲生態的鎖定價值大於通用模型本身,這一事實放之國內外皆成立。“雲+大模型”本質上在給雲做加法,做厚雲的價值。而單一大模型具有“賞味期”,一旦過了最佳食用期,其價值就會大打折扣。

從去年到現在,整個行業無時無刻不在變化之中,大模型英雄榜隨時被揭,“史上最強模型”稱號以月爲單位易主。GPT系列模型從最初的3.5進化到了如今的o1,其競爭對手Claude系列模型也一路追趕到了3.5 Sonnet。

儘管這屬於正常的技術迭代路徑,但從模型使用角度來看,新模型使用頻率最高的一定是剛發佈的幾個月,後面總會有更強性能的模型替代。比如在編程這一領域,後來居上的Claude模型打敗了GPT-4,成爲了更多編程軟件的選擇。隨着時間的推移,我們清楚地看到,模型本身的價值在不斷降低。

此前,行業內曾討論過“大模型是否能成爲商品”這一話題。到現在爲止,似乎沒有看到確定性的答案。

通用大模型被集成的趨勢正在加強,一部分被雲廠商集成,一部分被應用產品集成,多模切換調用越來越被採納。光子星球也注意到,國內很多創業公司在運用該技巧,提前測試各家模型的免費額度,在產品運行時及時切換來降低成本。當然,還存在另一種情況,根據用戶調用不同功能來切換模型。

在沒有哪家大模型可以獨霸天下的情況下,雲與大模型融合能夠加快產品化進程。衆所周知,GitHub雖然是最大開源社區之一,但由於“被微軟收購”這層關係,也被迫與“Azure+GPT”生態進行了綁定。其中,GitHub Copilot直接採用了GPT模型。儘管GitHub也推出了相關模型產品,允許支持OpenAI之外的模型,但僅限與微軟生態不產生直接競爭的模型,生態自帶的排外性不言而喻。

由雲到大模型再到產品,雲廠商的觸角在不斷延伸。大模型公司爲雲廠商生態做“嫁衣”,即使處於最佳“賞味期”也能無延遲地享用最強性能大模型。此外,繞過OpenAI們的收費牆,在生態系統應用中也能嚐鮮部分功能。

在國內,雲大廠的“藩籬意識”更強,AI公司幾乎難以觸達到他們生態體系中的產品。就算是以API形式輸出,雲廠商也是極其吝嗇。這既有競品存在的顧忌,也有出於數據安全的考慮。藩籬之內,雲廠商通過自建模型完成了產品升級。藩籬之外,才能存在站臺、共同服務客戶、投資等友好形式。

雲廠商的領地主義,間接地爲AI六小虎關上了生態入口。他們無法像OpenAI一樣,在擁有規模化的用戶數量和成熟的產品中獲得曝光、反饋。於是,自建入口和主動試探藩籬邊界成爲了不得已而爲之。

新的價值

“雲+大模型”的組合並非無懈可擊,MaaS所提供的仍然是標準化的服務,相當於提供了統一的錘子、釘子套裝,怎麼錘、釘在哪裡取決於使用工具方的能力。能力越強、經驗越豐富的人運行大模型的效果自然越強,這就解釋了,阿里、百度等廠商爲什麼花費大力氣去打造大模型行業標杆。

雲、大模型到應用存在着巨大的溝壑。To B靠多對一的個性化解決方案來填補,To C目前還處於拓荒階段。引用近期紅杉報告的一句話,在雲和大模型之外,新的價值誕生於“將模型的原始能力轉化爲引人入勝、可靠的端到端的商業解決方案”,這需要大量工程化工作。

不可否認,大模型殺死了部分應用,持續升級的能力覆蓋掉了創業公司的項目,以至於很多人強調“要站在OpenAI射程外”。多數情況下,行業中不是缺乏最強的模型,而是沒能釋放模型的最強能力。

AI編程應用Cursor 的大火一定程度上說明了開發模型能力的重要性。如同上述所言,Cursor 的思路不是提供趁手的工具,而是代替用戶去試錯,基於對代碼編輯、處理速度、處理數量、長上下文本等能力要求,在測試完了市面上前沿模型後,找到了最匹配的模型 Claude Sonnet。

Cursor 在採訪中強調了一點,可能是當下過分追求模型性能羣體所忽視的問題,“最好的不一定是最適合的”。在Sonnet之後,他們也在第一時間測試了OpenAI的o1模型,得出的結論是,“推理能力很強,在某些問題上可以做得很好,但仍比不上Sonnet”。

這從側面回答了一個問題:當擁有了最厲害的模型後,爲什麼還沒有誕生Killer App?面對大模型,以前創業公司的課題是做選擇,而現在變成了做優化組合。

或許,到了現在的時間節點,大模型行業才真正進入到了“應用誕生時刻”。