科研版AI搜索來了!知乎直答接入正版論文庫,一手實測在此

人在知乎,正經搞科研,這事兒越來越有譜了(doge)。

想了解下學術熱點,直接一搜,AI不僅一步到位給出總結,連參考文獻都列好了。

想要進一步跟大模型探討論文內容,也無需跳轉,將論文一鍵選入暫存區,就能愉快開聊。

最新消息,知乎版AI搜索知乎直答,已正式上線“專業搜索”功能。

並且,是國內首家提供AI搜索與正版論文庫一站式解決方案的那種:

引入維普、知乎精選等超過5000萬篇中英文高質量文獻數據,同時提供資料查詢、上傳和專業解讀等一系列功能。

此前,就有不少知友推薦過知乎直答的學術用法,表示基於知乎的專業屬性和知識分享環境,用它來跟蹤熱點、尋找思路頗有優勢。

現在,知乎進一步接入國內外正版論文庫,還加強了對論文的解析和問答能力,對科研黨來說,屬實是:

這不,已經有第一波嚐鮮的網友發出感嘆:專業搜索終於讓知乎直答發揮出了獨特價值。

話不多說,我們第一時間,上手實測。

寫論文,真的可以先上知乎了

知乎直答的入口,就在首頁頂部,也可以從單獨的網址https://zhida.ai/進入。

在原來通用搜索的基礎之上,新版本更新了“專業搜索”按鈕,在提問之前,可以勾選不同的公開知識庫,包括中文論文庫、英文論文庫和知乎精選。

比如把範圍限定在知乎精選,大模型就會根據答主們的高贊回答來總結生成內容。

而把範圍限定在論文庫,則可以找到更多相關的原始論文鏈接。

值得一提的是,知乎直答專業搜索背靠5000萬+中英文高質量文獻數據,覆蓋的專業範圍很廣。像“深度學習如何提高地質儲層屬性預測的準確性”這樣的問題,也能回答得有理有據,並且同樣能溯源到原論文。

看樣子檢索這一步,知乎直答可以說是做到了全、專、精,並且充分利用了自身作爲知識分享社區的高質量內容積累。

那麼接下來,讓我們進入讀論文環節。

如果是維普收錄的中文論文,想要詳讀很方便:無需跳轉,點擊論文標題下方的“預覽文件”即可。

實測中,我們發現更實用的功能是,對於所有參考來源,都可以點擊“暫存”將它們設置爲暫存文件,在進一步與大模型的問答交互中作爲新的參考範圍。

也就是說,當你想對某個研究方向、研究課題進行更深入的瞭解時,不用費勁下載論文、跳轉其他AI工具,直接就可以指定參考鏈接,跟知乎的大模型展開細節討論。

比如從介紹Mamba的三篇文章中,總結出Mamba跟FlashAttention的關係:

對此,某不願透露姓名的測評志願者只想說:

另外,知乎直答專業搜索還支持上傳本地文件。不使用搜索功能,直接拿它當個讀論文工具也是OK的。

當然啦,作爲一個以人類交流爲核心的知識分享平臺,在這樣的AI產品中,我們發現知乎還是保留了一些傳統藝能。

比如,如不滿意,還可以一鍵向知友提問(doge)。

簡單總結一下,知乎直答的這個專業搜索功能,相當於能把科研黨們瞭解科研方向、收集相關文獻、撰寫文獻綜述這一套流程給一站式包辦了。

技術細節:主打“靠譜”

量子位還了解到,針對科研AI搜索最大的挑戰——幻覺問題,在技術方面,知乎直答採用了稀疏檢索(Sparse Retrieval)+稠密檢索(Dense Retrieval)的混合檢索方案,有效保障了召回過程的高效性和內容的高相關性。

並且基於知乎在知識問答領域的深厚積累,系統在召回環節融入了大量內容質量信號,如內容可信度、答主專業度和回答完整性等,以進一步提高生成結果的可靠性。

與此同時,在模型能力上,知乎直答專業搜索融合了多種前沿技術,來提升模型對複雜問題的分析、解決能力:

多智能體協同系統

基於定製大語言模型的函數調用能力,通過多智能體的協同工作,實現對信息查詢、內容分析、數學計算等多種功能的支持。

簡單來說,就是這些不同環節的功能是由一系列專用模型和工具分工負責的,好處是,能以較低的成本和延遲爲用戶提供高質量回答,同時能更靈活地滿足用戶的多樣化需求。

基於推理的意圖理解

能否深度理解用戶意圖,對於AI搜索的體驗而言至關重要。

知乎直答融合知乎多年積累的自然語言理解技術,結合大語言模型強大的推理能力,對用戶的上下文和提問進行深入分析,能多角度、多層次地召回多樣且高質量的內容。

思維鏈提示詞工程

爲了提升模型在複雜問題上的表現能力,知乎直答採用了思維鏈和少樣本學習等提示方法。

通過在提示中加入思維過程示例,模型能夠更好地模擬人類的思考方式,提供更具邏輯性和解釋性的回答。

自適應上下文重排

針對召回的文檔,知乎直答採用動態文本切片算法進行內容分塊。

通過訓練的重排序模型(Reranker)對分塊後的內容進行評分和排序,並採用智能組合策略將多個相關的文本塊有機組合在一起,爲複雜問題提供更完整、更豐富的上下文。

自適應的上下文重排機制能提升回答的連貫性和信息量,滿足用戶對內容深度和廣度的需求。

除了可靠性,對於AI搜索產品的用戶體驗而言,響應速度同樣關鍵。

爲此,知乎直答採用了基於前綴緩存(Prefix Cache)和分塊預填充(Chunk Prefill)等技術,來降低首個標記和解碼的時延,提升服務吞吐量和響應速度。

做AI搜索,知乎場景優勢和專業性突出

有一說一,隨着大模型推理價格的下降,近來AI搜索的市場競爭,屬實有些激烈。

一方面作爲目前最有可能盈利的AI應用,AI搜索市場反饋良好,數據蹭蹭上漲——比如行業標杆Perplexity,7月的月查詢量達到了約2.5億個問題,達到了2023年全年查詢量的一半。

另一方面,在創業公司摩拳擦掌的同時,Google、OpenAI等新老巨頭也紛紛下場,親身開卷AI搜索產品。

知乎做AI搜索,入局時間不算最早,體量也不算最大,但就成效而言,顯然已經在國內市場逐漸建立起了屬於自己的優勢。

知乎直答今年6月底上線,7月就已經在各大AI產品榜單上嶄露頭角了。

根據量子位智庫數據,其7月總訪問量增長達到了430%。

SimilarWeb的最新數據顯示,其9月訪問量達到470萬,相較於8月份數據增長超過180%。

從訪問量增長的趨勢來看,知乎直答在一衆AI搜索產品中,頗具競爭力。這實際上與知乎做AI搜索的天然優勢不無關係:

知乎本身是國內最大的在線知識分享社區,積累了大量問答形式的專業、深度內容。無論是用戶的使用習慣,還是平臺的內容質量,都與AI搜索的產品形式相契合。

知乎CEO周源在與騰訊新聞的最新對話中也提到,知乎在成立初期就認爲,提問跟搜索非常接近:搜索是搜索已經產生的信息,如果現有信息不能滿足,那麼就可以提問,用提問去連接還沒產生的信息。

從這個角度來看,大模型技術的發展恰好進一步打破了“搜索”和“提問”的邊界,使這種產品設計變得更爲自然。

而正如不少知乎網友在專業搜索上線後的反饋中所提到的:

知乎直答的此番更新,有那麼點進一步突出核心競爭力的意思。

在更好地滿足用戶在專業領域的信息搜索和查詢需求的同時,標誌着知乎在如今火熱的AI搜索賽道中,正在朝向更強調專業性、實用性的方向佔據屬於自己的生態。

作爲普通用戶,值得期待的是,隨着AI搜索產品的進一步落地和競爭,知乎直答專業搜索這樣的更新迭代,意味着深度搜索需求開始有市場化產品來滿足了。

從中可以觀察到的是,專業、深度知識獲取的成本正在大模型時代進一步降低,而無論是對科研方法,還是對商業模式而言,新的可能性已開始在此中醞釀。

— 完 —