觀念平臺-AI風口浪尖上的選擇

面對當今AI風口,選擇好好學習並運用AI仍比選擇忽視更爲適當,惟未來AI世代對政府、社會、家庭及個人而言,都是前所未有的挑戰。圖/美聯社

2023年號稱生成式AI元年,ChatGPT的發佈讓大家驚聲連連,AI從過去僅能執行單純任務,語音助理不時冒出「抱歉,我不懂你的意思」,突然進化成可將複雜資料整理歸納重點、寫報告、寫程式、詩詞對句、編寫歌曲、創作圖片及影片,並展現專家水準。此一驚人進步讓大家看見其潛力,微軟火速入股ChatGPT開發商OpenAI,Google、Apple、Amazon及Meta也加快腳步投入研發,面對AI大爆發,學者比擬當今爲AI的工業革命。

■三種機器學習法交替或 合併使用,讓AI更強大

AI的智慧來自機器學習,學習方法分爲監督式學習、非監督式學習和強化式學習等三類。監督式學習係指工程師先將電腦要學習的物件做標記,電腦在學習過程中透過誤差比對,不斷修正以達到更精準的預測,此方式優點是準確率高,缺點是需仰賴大量事前人工作業,當範圍擴大時將難以持續。非監督式學習則不設定任何限制,電腦透過檢視大量資料尋找潛在關係,例如比對可能導致患者生病的原因,適用於資料探勘初期或大量資料比對,缺點是造成較多功耗,也可能將不重要的特徵過度放大,造成結果偏誤。強化式學習是不給電腦任何資料,讓電腦從互動中學習,電腦自環境的正向與負向回饋中學習並逐步形成預期,使達成目標的行動越來越有效率。

以上這些方式透過神經網路演算法平行運算、分析機率、推測使用者想法併產生結果,工程師亦可對演算中所設參數權重進行微調,三種學習方法可合併或交替使用。

此外,AI對語言的掌握度也有長足進步,透過檢視大量文學作品、維基百科及聊天紀錄等資料,AI知道語言的語法結構,透過分析知道每個字後面適合接什麼文字,一點一點把句子完成。此與人類的思維邏輯不同,人類心裡會先想好一個句子的大概內容纔講出來,但電腦在出現前半句文字時,甚至還不知道後面要說什麼,不過透過高速運算,一樣可以生成出非常逼真的語言,甚至讓我們在對話時感覺不出差異。ChatGPT系OpenAI第四代模型,過去因爲語言模型容量不足導致效果不佳,演進至今才一鳴驚人,可見大語言模型是AI成功的關鍵之一。

以目前發展模式來看,AI最適合擔任助手角色,如電影鋼鐵人中Tony Stark那位得力的AI助理Jarvis,它可以幫忙檢視現場是否有危險狀況、有哪些逃生出口、有多少敵人,檢查鋼鐵人的身體狀況及盔甲損壞情形並協助更換零件等。AI可以是一位稱職的助手,但它仍需要能掌握全局,也懂得如何下指令的伯樂。如同AI可以爲電影生成特效與音樂,但若缺乏一位好導演來設計故事內容,安排鋪陳方式及優秀的演員詮釋,那隻會讓這部電影顯得虛有其表。臺積電創辦人張忠謀說未來透過AI協助,更多人可以自己創業,但「沒有創意的創業,通常不會成功」,可見AI仍然須與適當的人搭配才能發揮最佳效果。

■利之所至弊亦隨之,股神巴菲特示警

但AI並非完美無瑕,許多人擔心可能造成嚴重失業、詐騙或形成自我意識反噬等問題。AI在應用上仍遭遇許多困難,如完全自動駕駛汽車遲遲無法上路、麥當勞得來速AI點餐變成災難現場等,但預期AI神速的進步仍將持續蠶食人類工作,科技專家李開復認爲將造成50%白領工作者失業,以金融、醫療、法律及教育等產業首當其衝,「唯有頂尖者才能生存」。特斯拉執行長馬斯克也曾說AI技術是他「最大的恐懼」,未來「可能我們誰都找不到工作」,但他瞄準節省人力成本仍推出Optimus機器人爲特斯拉尋求業績藍海。股神巴菲特示警AI可能導致詐騙橫行,並將AI與發展核武相提並論,認爲讓精靈從瓶子放出來並造成負面結果後,已無法再讓精靈回到瓶中。

對於AI形成自我意識事,李開復認爲未來十年可能性不高,但他認爲AI帶來的真正危機不是奴役人類,而是讓人類喪失鬥志;曾參與ChatGPT開發,來自英國愛丁堡大學資訊學院的Mirella Lapata教授認爲,與其擔心未來不確定的事是否發生,不如關注迫在眉睫的氣候變遷問題,若認爲AI技術可能被誤用,亦可參考核能的作法,由政府進行管制。

因此,面對當今AI風口,選擇好好學習並運用AI仍比選擇忽視更爲適當,惟未來AI世代對政府、社會、家庭及個人而言,都是前所未有的挑戰。