經導財評丨人工智能“養成”,良法善治很關鍵

經濟導報記者 王偉

世界人工智能大會剛剛過去,“人形機器人的法治與倫理”是這屆大會的主題。在人工智能賽道成爲科技競爭新高地、未來產業新引擎的當下,人工智能商業化落地對監管機制、隱私保護、數據安全、技術控制等提出了一系列法治和倫理挑戰。人工智能雖然前景廣闊,但安全是關鍵,還需要良法善治。

無論人工智能是否有實體形態,都是基於大模型的智能能力,通過不同的應用方式發揮作用,並基於感知、交互、運動能力上的差異性,來處理不同類型的任務。因此,對大模型及具身智能的治理原則上是共通的,都需要良法善治和規則創新。

近年來,人工智能技術的不斷突破給人們的生產生活帶來了極大的便利,同時也衍生出超越以往範疇的安全問題。例如,人形機器人的外形與人類相近,在應用場景中如何降低人類對機器人的反感和恐懼情緒?由人形機器人造成的經濟損失如何歸責,是機器人本身、製造商、用戶還是編程者?自動駕駛過程中出現的安全問題,該如何追責?

事實上,人工智能的安全問題已不是新話題。早在2018年,中國提出要加強人工智能發展的潛在風險研判和防範,確保人工智能安全、可靠、可控。此後,就人工智能安全治理問題,中國先後提出了《中國關於加強人工智能倫理治理的立場文件》《全球人工智能治理倡議》等一系列文件倡議;就加強人工智能的監管,中國正式施行《生成式人工智能服務管理暫行辦法》。此次世界人工智能大會上,《人形機器人治理導則》正式發佈,這是業界首個以開放簽署方式發佈的人形機器人治理規則文件。

人工智能落地應用性高,不同的落地場景有獨特的行業特點,需要以包容審慎的態度,制定出符合實踐情況和推動發展的法律法規,才能確保人工智能的健康發展。應加快制定促進人工智能發展爲主的法律,關注和解決人工智能在解決問題過程中製造出來的新的問題。加強對人工智能等新業態新領域知識產權的司法保護,維護創新主體合法權益,服務未來產業健康發展。

在通往人工智能時代的路上,除了大膽創新,還要確保人工智能不要走向失控。人工智能良法善治,方能前景可期。