國際組織WDTA首次就大模型安全發佈國際標準,螞蟻集團、OpenAI、科大訊飛等參編
北京商報訊(記者 廖蒙)4月15日-19日,第27屆聯合國科技大會在瑞士日內瓦召開。在4月16日召開的以"塑造AI的未來"爲主題的AI邊會上,世界數字技術院(WDTA)發佈了一系列突破性成果,包括《生成式人工智能應用安全測試標準》和《大語言模型安全測試方法》兩項國際標準。這是國際組織首次就大模型安全領域發佈國際標準,代表全球人工智能安全評估和測試進入新的基準。
據瞭解,這兩項國際標準是由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同編制而成,主要應用於大模型及生成式AI應用方面的安全測試標準。其中《大語言模型安全測試方法》由螞蟻集團牽頭編制。
具體來看,《生成式人工智能應用安全測試標準》由世界數字技術院(WDTA)作爲牽頭單位。該標準爲測試和驗證生成式AI應用的安全性提供了一個框架,特別是那些使用大語言模型(LLM)構建的應用程序。它定義了人工智能應用程序架構每一層的測試和驗證範圍,包括基礎模型選擇、嵌入和矢量數據庫、RAG或檢索增強生成、AI應用運行時安全等等,確保AI應用各個方面都經過嚴格的安全性和合規性評估,保障其在整個生命週期內免受威脅和漏洞侵害。
《大語言模型安全測試方法》由螞蟻集團作爲牽頭單位。該標準則爲大模型本身的安全性評估提供了一套全面、嚴謹且實操性強的結構性方案。它提出了大語言模型的安全風險分類、攻擊的分類分級方法以及測試方法,並率先給出了四種不同攻擊強度的攻擊手法分類標準,提供了嚴格的評估指標和測試程序等,可解決大語言模型固有的複雜性,全面測試其抵禦敵對攻擊的能力,使開發人員和組織能夠識別和緩解潛在漏洞,並最終提高使用大語言模型構建的人工智能系統的安全性和可靠性。
與會人員WDTA人工智能安全可信負責任工作組組長黃連金表示,隨着人工智能系統,特別是大語言模型繼續成爲社會各方面不可或缺的一部分,以一個全面的標準來解決它們的安全挑戰變得至關重要。此次發佈的標準彙集了全球AI安全領域的專家智慧,填補了大語言模型和生成式AI應用方面安全測試領域的空白,爲業界提供了統一的測試框架和明確的測試方法,有助於提高AI系統安全性,促進AI技術負責任發展,增強公衆信任。