許多患有神經疾病的患者因喪失語言能力,需要依賴特定的通訊設備進行溝通,這類設備利用腦機接口或者頭部、眼睛的動作來控制光標選擇字母,從而說出他們想說的話。但是,這個過程比人類的正常語速慢得多,往往是在蹦單詞。
4 月 25 日,Nature 雜志發表了加州大學舊金山分校(University of California San Francisco)的一項最新成果,該校神經外科華裔教授 Edward Chang 及同事開發出一種可以將腦活動轉化為語音的解碼器。這套人類語音合成系統,通過解碼與人類下頜、喉頭、嘴唇和舌頭動作相關的腦信號,并合成出受試者想要表達的語音。
視頻 | 神經解碼的語音合成演示
研究人員表示,腦機接口正迅速成為恢復功能喪失的臨床可行手段,這項最新的研究成果解決了癱瘓和失語患者所面臨的重大挑戰,并可能是讓他們恢復“說話”能力的重要一步。
在 Nature 雜志同時配發的評論文章中,埃默里大學和佐治亞理工學院的 Chethan Pandarinath 和 Yahia Ali 認為,這種使用控制嘴唇、舌頭、喉部和下頜運動的神經信號合成語音的腦機接口設備,可以成為在失語者中恢復語音功能的奠基性工作。
解讀大腦的意圖
說話似乎是一件毫不費力的事,但實際上說話卻是人類執行的最復雜的活動之一。它需要精確、動態地協調聲道咬合結構中的肌肉、嘴唇、舌頭、喉部和下頜。
當一個人因中風、肌萎縮側索硬化(霍金即患此病)或其他神經系統疾病而喪失語言功能和溝通能力時,對他的影響和打擊可能是毀滅性的。
如果有一種技術,能將神經活動轉化為言語,那對于因神經損傷而無法溝通的人來說將具有變革性。理論上說,腦機接口技術可以通過直接從大腦“讀取”人的意圖,并使用該信息來控制外部設備或移動癱瘓的肢體,來幫助癱瘓的人完成說話或運動。
在科幻世界里,意念控制的實現可以順手拈來、輕而易舉。而在現實世界中,其背后的腦機接口技術已有近百年的歷史。科學家們也一直希望在該領域實現科學研究與應用技術的突破,為許多當前仍無法解答的難題提供更好的探索工具,幫助人類進一步了解自己的大腦,進而預防、診斷、治療腦部疾病及其他重大疾病,并將這一技術廣泛應用于睡眠管理、智能生活和殘疾人康復等領域。
圖 | 使用特制語音合成器的史蒂芬·霍金
目前一些用于大腦控制打字的腦機接口技術,依賴于測量頭部或眼睛的殘余非語言運動,或者依賴于控制光標以逐個選擇字母并拼出單詞,已經可以幫助癱瘓的人通過設備每分鐘輸出多達 8 個單詞。
這些技術已經給有嚴重溝通障礙的患者帶來了巨大的生活改善,但與自然語音每分鐘 150 個單詞的平均速度比起來,現有技術的輸出速度還是太慢了,距離通過腦機接口實現自然語音的流暢交流還有很大差距。
直接通過大腦活動信號來合成語音,是一種頗有前景的替代方案。拼寫只是離散字母的連續串聯,而語音則是一種高效的通信形式。與基于拼寫的方法相比,直接語音合成具有幾個主要優點。除了以自然語速傳遞無約束詞匯的能力之外,直接語音合成還能捕獲語音的韻律元素,例如音調、語調,這些是文本輸出所不具備的。
此外,當前替代通信設備的實際限制是學習和使用它們所需的認知努力。因此,對于由肌萎縮性側索硬化或腦干中風引起的癱瘓患者,通過直接記錄來自大腦皮層的神經控制信號來合成語音,是實現自然語言高通信速率的唯一手段,也是最直觀的方法。
2017 年, 本文作者 Edward Chang 以及他的研究生 Claire Tang 就曾在 Science雜志發表論文,闡述大腦皮層顳上回神經元在語言中的重要性。研究發現了人類大腦中用于辨別相對聲調變化的神經元,這種神經元可以幫助人類在語言中明確表達感情、交流思想。
圖 | Edward Chang 教授
但揭示大腦信號如何控制聲道發音部位的運動仍具有挑戰性。因為說話這一過程需要對聲道咬合部位進行非常精確和快速的多維控制。而且,語音合成還存在一個與以往完全不同的挑戰,就是解碼聲道運動和聲音之間復雜的對應關系。自然語音產生涉及 100 多塊小肌肉,從肌肉運動到聲音的映射也不是一對一的。
合成能聽懂的語音
在 Nature 的這項最新研究中,為了實現將腦信號轉換為可理解的合成語音,并且是以流利說話者的速度輸出,研究人員設計了一種神經解碼器,明確地利用人類皮層活動中編碼的運動學和聲音表征來合成可聽語音。
研究人員招募 5 名正在接受癲癇治療的參與者,作為癲癇治療的一部分,他們會通過電極監測大腦活動。研究人員在 5 名受試者大聲說出幾百個句子時,記錄下他們的高密度腦電圖(ECoG)信號,并跟蹤控制語音和發生部位運動的大腦區域活動。
為了重建語音,研究人員設計了一種循環神經網絡(RNN),首先將記錄的皮質神經信號轉化為聲道咬合關節運動,然后將這些解碼的運動轉化為口語句子。
圖 | 用于語音合成的腦機接口
以前的語音合成研究采用了上圖 a 的方法,即使用腦電圖設備監測大腦語音相關區域的神經信號,并嘗試使用循環神經網絡將這些信號直接解碼為合成語音。
而 Edward Chang 以及同事開發了一種不同的方法(上圖 b),將解碼分為兩個步驟。
第一步,將神經信號轉換成聲道咬合部位的運動(紅色),這其中涉及語音產生的解剖結構(嘴唇、舌頭、喉和下頜)。而為了實現神經信號到聲道咬合部位運動的轉化,就需要大量聲道運動與其神經活動相關聯的數據。但研究人員又難以直接測量每個人的聲道運動,因此他們建立了一個循環神經網絡,根據以前收集的大量聲道運動和語音記錄數據庫來建立關聯。
第二步,將聲道咬合部位的運動轉換成合成語音
圖 | 神經解碼語音合成過程
研究人員的這種兩步解碼方法,產生的語音失真率明顯小于使用直接解碼方法所獲得的語音。在包含 101 個句子的試驗中,聽者可以輕松地識別并記錄下合成的語音。
在另外的測試中,一名受試者首先按要求說出句子,然后再不出聲地做出相同的發音動作。結果表明,無聲言語的合成效果不如有聲言語,但是研究人員認為仍有可能解碼無聲言語的特征。
所有當前用于語音解碼的方法都需要使用發聲語音訓練解碼器,基于這些方法的腦機接口技術也就不能讓不會說話的人上手就用。對于已經喪失說話能力的患者來說,無法發聲訓練解碼器是一個大問題。
但 Edward Chang 表示,雖然語音解碼的準確性大大降低,但受試者在沒有聲音的情況下模仿發音仍然可以進行語音合成。至于那些不再產生語音相關運動的個體是否適用這套最新的語音合成腦機接口系統,還需要未來的進一步研究。
Chethan Pandarinath 和 Yahia Ali 認為,無論是在語音重建的準確性方面,還是在聽眾對所產生語句的辨識力方面,Edward Chang 及其同事的研究結果都為語音合成腦機接口的概念驗證提供了令人信服的證據。
不過,要使該系統真正成為一個臨床可行的語音合成腦機接口,還存在許多挑戰,畢竟重構語音的可懂度(intelligibility)仍遠低于自然語音。好在,通過收集更大的數據集并繼續開發基礎計算方法,或許可以進一步改善語音合成腦機接口技術。
由于不能直接在動物身上進行相關研究,這在一定程度上限制了人類語言產生的研究進展,但近十年來,隨著深度學習和人工神經網絡的出現,以及多學科協作的能力,從探索語言相關大腦區域的開創性臨床研究,到語音合成腦機接口的概念證明,都取得了引人注目的快速發展。
隨著語音合成腦機接口的概念證明,我們期待有關臨床試驗的早日開展,也期待那些語言障礙患者能夠早日重獲自由說話并與世界重新聯系的能力。
-
解碼
+關注
關注
0文章
180瀏覽量
27364 -
合成
+關注
關注
0文章
16瀏覽量
13776 -
腦電波
+關注
關注
0文章
52瀏覽量
16984
原文標題:Nature今發表腦機接口領域重大突破:華裔教授成功解碼腦電波,并合成語音
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論