“國外一開源,國內就創新?” 阿里巴巴提供AI治理新範式

本報記者 李立 北京、上海報道

當人工智能(AI)掀起新一輪技術浪潮,如何讓經濟與社會享受技術紅利,同時對技術實現有效駕馭與安全治理,正在引起學術界、行業頭部公司以及職能部門的高度重視。

“網上有一個說法:‘國外一開源,國內就創新。’隨着人工智能的研發和應用持續推進,大模型發展從量變到質變還存在多重挑戰。”日前北京市互聯網信息辦公室副主任潘鋒,在阿里巴巴主辦的“大模型技術發展與治理創新研討會”上表示,國內大模型發展還面臨原生程度不足、內生安全不足與重生能力不足三重挑戰。

《中國經營報》注意到,阿里巴巴集團現場發佈的《大模型技術發展及治理實踐報告》集中披露了AI技術帶來的治理與安全方面的重要挑戰。

據阿里研究院院長袁媛介紹,Hugging Face社區上,目前全球開發者基於阿里巴巴自研“通義”開源模型二次開發的衍生模型已經突破8萬個。“通義”比肩美國Meta的LlaMA,影響力穩居全球開源模型的第一陣營。如何在AI飛速發展的同時,實現發展與治理並舉,作爲跑在前面的平臺公司,阿里巴巴正在嘗試給出通用解決方案。

機遇與挑戰並存

人工智能是近兩年來當之無愧的最熱領域。據此前發佈的《全球數字經濟白皮書(2024年)》,截至2024年第一季度,全球AI企業近3萬家,美國佔全球的34%,中國佔全球的15%。

截至目前全球人工智能大模型有1328個(包含同一企業、同一模型的不同參數版本),美國大模型數量位居全球第一,佔44%,位居第二的中國大模型數量佔比爲36%。

其中北京在國內大模型產業中居頭部地位。據潘鋒介紹:“今年以來,北京推進第八批、第九批生成式人工智能大模型通過備案並上線,備案大模型數量達到105個。北京的頭部大模型企業佔全國一半以上,已經賦能超過1.4萬家企業,輻射帶動的能力和作用凸顯。”據瞭解,過去一年,AI大模型的行業應用步伐加快。中國一汽、聯想、微博等30多萬家企業已經接入通義大模型。

不過,潘鋒認爲,國內大模型距國際頂尖水平具有一定差距,從量變到質變存在三重挑戰。

一是原生程度不足。大量國產模型基本上採用國外開源架構進行訓練。網上有說法,“國外一開源,國內就創新”,自主創新基礎不牢。由於國外原生創新是用國外大量的語料進行培訓的,再加上高質量的語料和高性能算力供給不足,導致國內大模型距國際頂尖水平還有一定差距。

二是內生安全不足。傳統大模型安全保障主要採用安全圍欄方式,依靠過濾、打補丁等方法來限制模型的輸入輸出,沒有從訓練語料和模型架構方面真正解決內生的安全問題,需要充分發揮行業的支撐作用,進一步研究大模型的相關機制,完善治理體系。

第三是重生能力不足。潘鋒認爲,在當前AI行業的“百模大戰”背景下,不少企業還沒有找到可盈利的商業模式,面臨比較大的生存壓力。“在對話搜索場景面臨競爭紅海的同時,自動駕駛、辦公、教育、醫療等垂直領域加速釋放潛能,但還沒被充分挖掘。”潘鋒表示,“政府部門將建立健全大模型研發、上線、運行等全生命週期管理體系,統籌推進算力、數據等基礎要素供給,協同各方夯實人工智能發展的基礎。”

發展與風控並行

如何在火熱的賽道上發展“負責任的技術”,發展與風控並行?

阿里巴巴現場發佈的《大模型技術發展及治理實踐報告》指出,大模型技術特徵可能帶來新的安全風險:輸入方面,訓練數據中的不當內容進入模型仍是主要風險;模型方面,幻覺問題爆發帶來誤導用戶的風險;此外在應用方面,超長技術引發全新的誘導攻擊;輸出方面,生成內容越發逼真加劇誤用、濫用、惡意使用風險。

AI怎樣更好地兼顧發展和安全?中國社會科學院法學研究所網絡與信息法研究室副主任周輝認爲,發揮好基礎模型平臺的自我治理或者平臺治理作用,有特殊重要性。

“在全球領域可以看到圍繞基礎模型的治理,更多還是在基礎模型平臺自身。圍繞風險最高質量的論文,不是來自於大學和研究機構,而是來自於Open AI這樣的AI企業內部的科研人員。”周輝指出,一些具體治理實踐比如治理架構的搭建,谷歌、阿里巴巴等已經搭建了相對成型的治理體系。

除了提供通義大模型,持續搭建安全架構,阿里巴巴也在創新治理思路與解決方案,實現發展與治理並舉。

據阿里巴巴集團副總裁錢磊介紹,阿里巴巴堅持雲和AI協同發展,過去一年高強度投入人工智能基礎設施建設,推動算力成本持續降低,“通義千問”API調用價格一年間下降了97%。與此同時,阿里巴巴努力提高自研基礎模型“通義”系列的能力,堅持全尺寸、全模態開源,促進技術創新,讓用戶能夠分享到雲+大模型的技術紅利。

“圍繞着大模型研發、應用全生命週期,阿里巴巴全面部署了安全保障措施。”據錢磊介紹,具體分兩步走:一是提高模型內生安全能力。在數據採集、處理階段強調源頭管控,進行嚴格的數據篩選和數據安全標註,在模型訓練和設計階段通過添加安全語料、設置安全任務等方式提升模型的內生安全能力。

二是加強外圍護欄能力。在模型部署應用後,通過外圍護欄進一步提升大模型在應用場景中的安全性,通過日常巡檢驗證結果是不是能夠達到預期,是不是可靠、可信、可用。通過持續發展、迭代安全圍欄,把圍欄扎得更厚。

記者注意到,此次是阿里巴巴連續第三年發佈《AI報告》,貫穿三年的主線是“負責任的技術”。“‘負責任的技術’有兩層含義:一是‘守己’,負責任地堅守科技倫理和安全底線;二是‘利他’,作爲大型科技公司,阿里巴巴有責任發展先進技術,促進行業發展。”錢磊進一步表示。

現場周輝也特別指出,在發展與治理並舉的過程中,既要充分發揮平臺作用,也需要必要的激勵機制。“平臺畢竟是商業體,要考慮到它在商業利益和社會利益之間選擇適當平衡。”

周輝建議,首先從監管角度,要建立完善的監管機制;其次是動力保障,促進平臺實施安全治理,需要必要的激勵措施來增強安全實效。

此前曾經有全球頭部科學家呼籲頭部AI企業至少要把30%的資源,主要是算力資源要投入到安全具體的保障之中。針對相關企業,是否可以對其算力投入進行相應的稅收抵免和優惠,保證其投資有更好的長期執行方式;包括優化平臺的信息披露機制,做得好的平臺能夠得到更好的社會美譽度,有利於其市場推廣。

“此外需要技術能力的支撐,鼓勵人工智能安全治理的技術創新,讓AI來治理AI,同時積極強化用戶教育。”在周輝看來,人工智能相當一部分風險是人工智能基礎模型本身,除了黑箱因素,在用戶誤用和濫用甚至非法使用過程中會進一步放大或產生新的不可控風險,對用戶的教育和在基礎模型及用戶的交互中怎樣提高用戶合規意識,對於有效把控人工智能在基礎模型場景下的發展至關重要。

(編輯:吳清 審覈:李正豪 校對:顏京寧)