微軟如何破解人工智能“幻覺”難題
ChatGPT 席捲全球之後,人工智能已被用於諸多方面,從撰寫研究論文和代碼,到創建圖像和視頻。在 OpenAI 超越科技巨頭創造出具有革命性的生成式人工智能技術之後,谷歌等其他公司加快了開發自己的人工智能模型的努力,而微軟則與 ChatGPT 背後的公司建立了合作關係。然而,微軟副總裁維克·辛格(Vik Singh)最近指出,人工智能需要修復,因爲它仍然存在生成不正確或虛構答案的問題。辛格告訴法新社:“坦率地說,當時真正缺失的是模型不會舉手說‘嘿,我不確定,我需要幫助。’”這引發了客戶的不滿,他們要求更有效的解決方案。
最近,微軟的高管們致力於修復“出現幻覺”的人工智能系統,這意味着聊天機器人有時會生成不真實或不準確的響應或信息。這種情況經常出現,原因在於人工智能模型,特別是那些運用大型語言模型的模型,即使不是基於事實或可靠數據,也會提供聽起來自信的答案。據Indy100的報道,Salesforce 的首席執行官馬克·貝尼奧夫表示,由於這個缺陷,對微軟的 Copilot 感到沮喪的客戶有所增加。
Knewz.com 指出,人工智能出現幻覺或給出混合的反應有幾個原因。其中一個常見的例子是,主要以一個種族的圖像進行訓練的面部識別系統錯誤地識別了其他種族的人。除此之外,聊天機器人模型或其糟糕的設計導致了這些不準確、虛構的結果。另一個問題是過擬合,據 谷歌雲 稱,模型攝取了過多的訓練數據量,無法處理新的數據及情況。例如,股票預測模型可能在過去的數據上表現良好,但在未來的趨勢上卻失敗了,因爲它將隨機變化誤認作重要的模式。
辛格透露,微軟的專業技術人員正在設法讓聊天機器人在不知答案時承認不懂,並在必要時尋求幫助。他表示,要節省資金並確保準確性,其中一種辦法是讓聊天機器人在一半的情形下尋求人類協助。辛格對News.com.au說道:“每次有新請求進來,他們得花費 8 美元讓客戶服務代表來處理,所以確實能夠節省成本。這對於客戶而言也是更優的體驗,因爲他們能夠獲得更迅速的響應。”
關於這個問題,谷歌搜索部門的負責人利茲·裡德告訴The Verge:“在創造性和真實性之間存在一種平衡。我們真的會傾向於真實性這一邊。”一位前谷歌研究人員提到,這個問題可能會在一年內得到解決,儘管他對此表示懷疑。微軟已經開發了一種工具,幫助一些用戶檢測這些錯誤。新加坡國立大學的一項研究顯示,這種錯誤在大型語言模型中是固有的,就像人們不可能總是正確的。公司常常通過提醒用戶檢查回覆的準確性來淡化此問題,表示“雖然他們的工具可能會出錯,但用戶必須覈實重要信息。”