2020年8月29日,埃隆馬斯克(Elon Musk)在加州弗里蒙特舉行了一場發(fā)布會,正式向全世界展示了自己的腦機科學(xué)公司Neuralink對豬進行腦機接口技術(shù)的成果,該芯片可以實時監(jiān)測到小豬的腦電信號,遺憾的是我們還無法知道小豬在想什么,但這項技術(shù)所揭示的未來太令人期待了,這則報道迅速轟動世界也是人們內(nèi)心偏好的真實反映,它重新激發(fā)了人們對于腦機接口技術(shù)(pain-computer interface,BCI)的熱情。
所謂的腦機接口,通俗來說就是在人腦(或動物)與外部設(shè)備之間建立直接的聯(lián)系,由此形成信號的接收與發(fā)送,并實現(xiàn)相應(yīng)的功能。按照腦機接入的方式可以分為兩類:侵入式腦機接口(馬斯克這次演示的就屬于此類)與非侵入式腦機接口。前者的優(yōu)點在于獲得的腦電信號更好,便于分析與處理,而后者收集到的信號質(zhì)量較差、容易受到噪聲干擾。因此,侵入式腦機接口是目前國際學(xué)術(shù)研究的前沿。腦機接口已經(jīng)實實在在地出現(xiàn)在我們的面前,隨著植入頭腦的各類芯片與傳感器的日益微型化、功能集成化、加上近年來人類對大腦功能了解的深入、腦機融合的日趨完善、創(chuàng)口的微小化、以及電池功能的增強,腦機接口技術(shù)取得重大突破絕非幻想,而是一種可以預(yù)見得到的發(fā)展趨勢。
人們之所以對腦機接口技術(shù)的發(fā)展趨勢持樂觀態(tài)度,是因為社會上對于腦機接口技術(shù)有著巨大的市場需求,它所擁有的潛在商業(yè)價值是推動該項技術(shù)發(fā)展的重要推手。僅就目前可以想象得到應(yīng)用來看,腦機接口市場前景廣闊,下述三種情形是最有可能優(yōu)先發(fā)展的領(lǐng)域,如果該項技術(shù)成熟,那么日益困擾老年人的老年癡呆癥現(xiàn)象將得到極大緩解;修復(fù)殘疾患者的大腦缺陷,從而實現(xiàn)部分身體功能的恢復(fù),以及可以實現(xiàn)治療抑郁等精神疾病;更有甚者可以實現(xiàn)神經(jīng)增強功能,如大腦的計算速度與記憶能力都是遠超人類的,如果未來植入的芯片與大腦更好地兼容,那么人類的計算速度與記憶能力都將得到根本性的改變,制造超人不再是夢想。上述三種情形在科學(xué)上幾乎都有成功案例。如對殘疾人來說,通過意念實現(xiàn)部分身體功能,這類實驗成功的很多,如已經(jīng)被廣泛采用的腦深部電刺激技術(shù),這就是大名鼎鼎的“腦起搏器”,其原理就是通過植入腦部的電極向大腦的特定部位發(fā)送電脈沖,這一技術(shù)主要用于治療帕金森病和強迫性精神障礙等疾病,已經(jīng)被美國食品藥品監(jiān)督管理局批準。
再比如,美國著名的視覺腦機接口專家都博勒(William Dobelle,1941-2004),他的皮層視覺腦機接口主要用于后天失明的病人。1978年,都博勒在一位男性盲人杰瑞(Jerry)的視覺皮層植入了68個電極的陣列,并成功制造了光幻視(Phosphene)。植入后患者能看到清晰度以及更新率較低的圖像。如果說都博勒的工作是40年前技術(shù)的體現(xiàn),那么現(xiàn)在這方面的研究也有了最新進展,失明患者看到的視野比以前要好許多,有理由預(yù)測,隨著一些關(guān)鍵難題的突破,視覺腦機接口將惠及更多的失明患者。
還有科學(xué)家把人造海馬體植入到因海馬體受損而喪失記憶形成功能的老鼠腦中,并成功讓老鼠恢復(fù)了部分記憶形成功能(伯杰等人)。基于上述案例,我們大體上可以清晰判斷出腦機接口技術(shù)正在向日常生活領(lǐng)域擴散,一旦有技術(shù)上的突破,這種趨勢將無可逆轉(zhuǎn)。
問題是腦機接口技術(shù)雖然具有如此廣闊的應(yīng)用前景,但也不可避免地帶來某些人類從來沒有遭遇過的倫理困境。對此,瑞典數(shù)學(xué)家奧勒 哈格斯特姆曾指出,腦機接口技術(shù)帶來的兩種常見的倫理問題是:隱私和認知能力的“軍備競賽”。關(guān)于隱私問題,這已經(jīng)成為高科技時代具有普遍性的倫理困境,每一次技術(shù)升級,都會導(dǎo)致隱私狀態(tài)隨之發(fā)生改變,從人類歷史上看,從農(nóng)業(yè)社會、工業(yè)社會到后工業(yè)社會,人類的隱私范圍是逐漸縮小的。總體而言,技術(shù)進步導(dǎo)致公共領(lǐng)域擴張,而私人領(lǐng)域日益被技術(shù)侵蝕,隱私也隨之日益變小,人變成了透明人,隱私的消失也就意味著個人自由的萎縮。對于腦機接口技術(shù)而言,這種情況尤為緊迫。一旦通過大腦植入設(shè)備可以輕易獲取我們大腦內(nèi)的電信號,其內(nèi)容完全可以被破譯出來,這就導(dǎo)致有很多個人或機構(gòu)想要獲取這些信息,從而利用這些信息實施對我們基于特殊目的的操控,如商家的促銷、管理者對于雇員的監(jiān)視、或者國家對于全民的監(jiān)視等。這種過程是漸進的,在溫水煮青蛙效應(yīng)中,人類的隱私一點點失去,我們不知道這是否就是人類為技術(shù)進步所必須付出的代價。上述擔(dān)憂絕非杞人憂天,據(jù)資料介紹,1999年斯坦利(Garrett Stanley,現(xiàn)在埃默里大學(xué)Emory University任職)教授,在哈佛大學(xué)通過解碼貓的丘腦外側(cè)膝狀體內(nèi)的神經(jīng)元放電信息來重建視覺圖像。他們記錄了177個神經(jīng)元的脈沖列,使用濾波的方法重建了向貓播放的八段視頻,從重建的結(jié)果中可以看到可辨認的物體和場景。同理,利用這套技術(shù)也可以重建人類的視覺內(nèi)容。看到這類實驗,你還認為腦機接口所引發(fā)的隱私問題還很遙遠嗎?更何況遙遠并不意味著不可能。
再來說說由腦機接口所帶來的認知能力的“軍備競賽”問題。由于電腦在精確計算、數(shù)據(jù)傳輸與記憶方面比人類的表現(xiàn)強很多,那么,隨著技術(shù)的發(fā)展與完善,總會有一些人嘗試在大腦中植入一些芯片,使自己的能力與計算機的能力進行整合,這將造就認知超人,試問我們正常人再怎么努力也無法達到電腦所具有的記憶能力,這種事情一旦開始就無法停下來,從而陷入“軍備競賽”的游戲框架下,因為沒有人敢于停下來,否則他將被淘汰。問題是這種神經(jīng)增強完全打破了人類由自然選擇以來所形成的所有關(guān)于公平的規(guī)范,此時優(yōu)秀將不再是對于人的能力的褒獎,而是對他植入大腦的設(shè)備的褒獎?那么人類的價值又何在呢?也許影響更為深遠的是,腦機接口技術(shù)的軍備競賽式濫用,還會造成整個社會分層的固化,畢竟任何新技術(shù)在早期都是昂貴的,其最初的使用者大多是有錢有勢者,這種現(xiàn)實決定了腦機接口技術(shù)會更深層次地造成社會的固化,從而使社會秩序遭到毀滅性的破壞。
以腦機接口技術(shù)為標志的人工智能發(fā)展引發(fā)出一系列我們目前尚無法完全預(yù)料到的后果,它事關(guān)人類的未來,因此,必須從倫理層面對于它的發(fā)展進行有目的的約束。2020年上半年,美國五角大樓正式公布人工智能的五大倫理原則,即負責(zé)、公平、可追蹤、可靠和可控。這個說法作為倫理原則沒有錯,但是如何在實踐中落實,仍存在很多不明確之處,為此,我們需要構(gòu)建一套全流程的倫理規(guī)范機制,把倫理責(zé)任分解,采取分布式倫理,即人工智能從制造到應(yīng)用每個環(huán)節(jié)都承擔(dān)相應(yīng)的倫理責(zé)任,只有這樣,人工智能才能最大限度上既增進社會的福祉,又把其潛在的風(fēng)險最小化。目前的調(diào)查與研究顯示,在新技術(shù)發(fā)展的進程中,每個人的責(zé)任都是有限的,但是其后果卻是嚴重的。由于人類對于微小的惡的不敏感性,導(dǎo)致最初對于風(fēng)險呈現(xiàn)出整體的麻木狀態(tài),到后來小風(fēng)險的累積就成為高科技面臨的嚴重倫理問題。這已成為一種風(fēng)險擴散的普遍模式,為此,我們需要構(gòu)建一個新的倫理責(zé)任體系。
由于人工智能本身的復(fù)雜性,以及未來發(fā)展的不確定性,導(dǎo)致人工智能責(zé)任的明確歸屬變得更為困難和模糊,如何防范其可能帶來的風(fēng)險也就變得越發(fā)困難,甚至?xí)霈F(xiàn)無法追責(zé)的倫理缺席現(xiàn)象。因此,傳統(tǒng)的針對單一主體的倫理規(guī)范原則開始失靈,為此我們必須構(gòu)建一種新的倫理約束機制,從而實現(xiàn)對人工智能從前端、中端到末端全覆蓋的有效倫理風(fēng)險防范機制。為此,我們借用英國倫理學(xué)家盧恰諾 弗洛里迪提出的分布式道德概念構(gòu)建人工智能的倫理風(fēng)險防范框架示意圖,根據(jù)這張框架圖我們可以把人工智能倫理風(fēng)險防范分為三部分:首先,是前端的AI設(shè)計者的倫理責(zé)任(責(zé)任1,簡稱R1),其次,是中端使用者的倫理責(zé)任(責(zé)任2 ,簡稱R2),第三,是末端受眾的責(zé)任(責(zé)任3,簡稱R3)。
我們不妨假設(shè)人工智能所引發(fā)的倫理風(fēng)險總量用公式表示為:ΣR=R1+R2+R3,其中,R1≥R2≥R3。這三段式倫理分布的規(guī)約機制分別是:1、對于設(shè)計者而言,他有多種動機(從善、中性到惡的選擇),這一部分倫理風(fēng)險要通過具有強制性的政策手段(嚴重違規(guī)就上升到法律規(guī)約)來遏制,所有負責(zé)任創(chuàng)新都是從動機上防范倫理風(fēng)險的發(fā)生;2、對于使用者而言,他要為自己的使用承擔(dān)相應(yīng)的倫理責(zé)任;3、受眾作為社會成員,有監(jiān)督人工智能使用的間接責(zé)任(個體責(zé)任最小,但是由于公眾數(shù)量龐大,無數(shù)微小的努力匯聚起來就是強大的倫理風(fēng)險防范力量),2與3的激活需要利用科學(xué)文化的規(guī)訓(xùn)作用,在高科技時代沒有人是旁觀者,只有倫理責(zé)任的全覆蓋,高科技的倫理風(fēng)險才會被最大限度上遏制,具體內(nèi)涵見下圖:
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1791文章
46896瀏覽量
237669 -
腦機接口
+關(guān)注
關(guān)注
8文章
371瀏覽量
21480
發(fā)布評論請先 登錄
相關(guān)推薦
評論