在經歷了一場意外后,Ian Burkhart 遭受了嚴重的脊髓損傷,導致胸部以下全部癱瘓。
不過幸運的是,借助一個由神經網絡提供支持的腦機接口,他現在可以用右手撿東西、倒液體,甚至可以玩《吉他英雄》(Guitar Hero)。
(Ian Burkhart 在俄亥俄州立大學 Wexner 醫療中心玩吉他電子游戲,研究人員 Nick Annetta 在一旁觀看。照片由 Battelle 提供。)
俄亥俄州立大學與其附近的獨立研發組織 Battelle 合作開展了一項臨床試驗,Burkhart 是參加此項實驗的首位患者。
Burkhart 的大腦內植入了一枚由 Blackrock Microsystem 公司生產的微芯片,與運行著 Battelle 算法的計算機相連。該算法會解讀他的神經活動,并將信號傳輸到其右臂上攜帶電極的袖套。該袖套也是由 Battelle 設計,可刺激 Burkhart 手臂上的神經和肌肉,從而引發特定的手部動作。
目前,Burkhart 只能在俄亥俄州的實驗室里使用這個名為“NeuroLife”的系統。不過研究人員的終極目標是讓 NeuroLife 變得足夠便攜,可以安裝在用戶的輪椅上,滿足家用需求。
“如果患者可以在家中使用 NeuroLife 系統完成日常活動,如吃飯、刷牙、穿衣等,那么該系統就會極大地提高他們獨立生活的能力。”Battelle 高級研究統計學家 David Friedenberg 在《自然醫學》(Nature Medicine) 上發表的一篇合著論文中說道。
“我們希望盡可能地簡化該系統的操作方法,以便用戶和照顧他們的人可以輕松安裝。” 他說到,“即使沒有一群博士和工程師在場,他們也知道應該如何使用。”
(Ian Burkhart 正在與項目首席研究人員 Gaurav Sharma 交談。照片由俄亥俄州立大學 McCulty 拍攝,由 Battelle 提供。)
神經網絡讀取神經信號
AI 可應用于包括義肢和助聽器在內的多種輔助性技術工具。深度學習模型可以為語言障礙者提供合成語音,幫助盲人重見光明,還可以將手語翻譯成文字。
輔助性設備開發人員之所以采用深度學習,是因為深度學習非常擅長解碼噪音信號,比如腦電活動。
通過使用NVIDIA Quadro GPU,深度學習神經解碼器(即可將神經活動轉化為預期命令信號的算法)接受大腦信號訓練。這些信號均來自與 Burkhart 進行的腳本式會話,期間研究人員會讓他思考執行特定的手部動作。之后,神經網絡會分析大腦信號對應的預期動作。
但是,創建強大的神經解碼系統的關鍵挑戰在于,大腦信號每年都會發生變化。“如果某一天你感到累了,或者注意力不集中,可能就會影響控制不同動作的神經活動模式。” Battelle 高級分析小組的首席研究統計學家 Michael Schwemmer 如是說。
(為了重新校準神經網絡,Burkhart 必須思考以特定的方式做出手部動作。這張照片攝于 2018 年 9 月,當時他正在俄亥俄州立大學的 Wexner 醫療中心進行相關工作。照片由 Battelle 提供。)
因此,每次 Burkhart 來到實驗室(一周兩次)都要對神經解碼器進行15到30分鐘的重新校準。在此期間,他要完成一個腳本化的過程,依次思考移動他的手的不同部位。
這些會話一周要進行兩次,每次都會生成新的大腦數據,用于更新兩個神經網絡。至于這兩個神經網絡,一個利用了標記數據進行監督學習,另一個則進行無監督學習。
在解碼 Burkhart 的大腦信號和預測其思考的動作方面,這兩個網絡的準確度可達到 90% 以上。無監督學習將此準確度維持了超過一年,且不需要進行大幅度的重新校準。
此外,深度學習也加快了 NeuroLife 系統處理用戶大腦信號以及將該信號傳輸至電極袖套的速度。目前的反應時滯是 0.8 秒,與之前的方法相比提升了 11%。
“在嘗試端起一杯水時,你會希望思考一下就能做出相應的動作,而不希望出現很長的延遲。” Friedenberg 說道, “因此我們很看重對于延遲的測量。”
-
神經網絡
+關注
關注
42文章
4762瀏覽量
100540 -
微芯片
+關注
關注
0文章
61瀏覽量
13560
原文標題:神經網絡讀懂人心,讓癱瘓肢體恢復運動功能
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論