美解碼大腦訊號轉換爲合成語音 植入AI使啞子有望「吐露心聲」!
▲無法開口說話的人士,有望「吐露心聲」了。(影片取自/Youtube/UCSF Neurosurgery)國際中心/綜合報導
未來因咽喉癌、腦部受傷、帕金森氏症等疾病而變成啞子的人士,有望「吐露心聲」了!美國加州大學舊金山分校(UCSF)研究團隊日前成功在受試者的大腦中植入電極,使用腦波紀錄器結合人工智慧(AI)與語音合成技術,將大腦訊號解碼,轉換爲合成語音,成功使受試者「開口說話」。
▼ 語言中樞位於大腦皮質,控制人類進行思維和意識等高級活動,並進行語言的表達。(圖/取自Pixabay)
綜合外媒報導,此研究的主導者爲UCSF教授張復倫(Edward Chang)來自臺灣移民家庭,出生於美國內華達州。他指出,研究方法是以「虛擬人體聲道」爲基礎,解碼大腦會將思想轉變成聲道的運動,並將這些訊號轉換成肌肉活動,接着再轉換成合成語音。
▼UCSF教授張復倫(Edward Chang)來自臺灣移民家庭。(圖/翻攝自UCSF官網)
此項研究共花費了1年的時間,並針對5名男女進行試驗,他們本身都能夠正常言語,但都因患有嚴重癲癇,腦部早已被植入電極來測試癲癇的發作源頭。研究共分爲3步驟,一開始研究人員要求受試者大聲閱讀數十個句子,再以電極紀錄他們的大腦運動皮質發出的神經脈衝訊號,並紀錄到大腦皮質用來控制嘴脣、下齶、喉嚨、舌頭等約數百條肌肉動作的腦部訊號。
第二步則是由研究人員設計出神經系統網路,將這些訊號轉化爲肌肉活動,再轉換爲合成語音。最後,由電腦將訊號合成句子,並由受試者識別這些詞彙。研究結果顯示,合成語音的準確度約達70%,是正常說話速度,約爲每分鐘150字,成功超越過去醫界實驗的每分鐘少於10字。
研究人員夏提爾(Josh Chartier)指出,目前正在以更高密度的電極陣列和更先進的機器學習算法進行下一步實驗,希望接下來能讓無法說話的人士享受成果,但由於此項實驗必須仰賴控制嘴脣、舌頭、喉頭及下齶的大腦部位正確運作,因此部份中風患者可能無法受惠。