黄色网页在线观看,开放性按摩在线观看,探花国产精品福利,三级特黄60分钟在线播放,一本久道久久综合中文字幕,五月婷婷激情网,久久精品国产精品国产精品污

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

腦機接口領域中的倫理問題研究

【摘要】作為生命科學和信息技術深度交叉融合的前沿新興技術,腦機接口近年來發(fā)展迅猛,重大突破頻現(xiàn),同時也引發(fā)了諸多倫理爭議。腦機接口對傳統(tǒng)倫理原則提出的挑戰(zhàn)涉及物理、心理與社會等多個層面。在侵入式腦機接口已獲準進入臨床試驗階段的背景下,如何構建合倫理的腦機接口正成為各國神經(jīng)科學家、工程師和倫理學家的關注焦點。為了化解腦機接口倫理風險,我們有必要加強監(jiān)督管理,提升倫理素養(yǎng),深化跨學科合作,通過建立健全倫理規(guī)范與監(jiān)管機制,確保腦機接口技術能夠真正增進人類福祉。

【關鍵詞】腦機接口 技術風險 倫理原則 倫理治理 跨學科合作

【中圖分類號】G31 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.16.005

【作者簡介】周程,北京大學哲學系教授、博導,全國應用倫理專業(yè)學位研究生教育指導委員會委員。研究方向為科學社會史、科技倫理治理、創(chuàng)新管理與科技政策。主要著作有《科技創(chuàng)新典型案例分析》《福澤諭吉と陳獨秀:東アジア近代科學啓蒙思想の黎明》等。

 

引言

國家科技倫理委員會人工智能倫理分委員會研究編制了《腦機接口研究倫理指引》(以下簡稱《指引》),不僅對腦機接口研究的基本原則和一般要求進行了規(guī)定,而且還為五種不同類型的腦機接口研究確立了相應的倫理規(guī)范?!吨敢芬螅?ldquo;開展腦機接口研究需符合我國相關法律法規(guī)規(guī)定,遵循國際公認的倫理準則,以及科學共同體達成的專業(yè)共識和技術規(guī)范。”

然而,對究竟什么是“國際公認的倫理準則”,《指引》并未給出明確說明。事實上,隨著腦機接口技術的蓬勃發(fā)展,與腦機接口有關的倫理爭議日趨復雜。例如,2024年1月,埃隆·馬斯克(Elon Musk)創(chuàng)立的“神經(jīng)鏈接公司”(Neuralink)首次將腦機接口芯片植入一位癱瘓患者的腦部;[1]同年8月,埃隆·馬斯克披露已經(jīng)成功將腦機接口植入第二位人類患者體內。[2]這些事件引發(fā)了新一輪的腦機接口倫理爭議。一部分人認為,在腦機接口尚存在諸多潛在風險的情況下,貿然對人體進行侵入式腦機接口實驗,具有極大的安全隱患。[3]也有人對這一進展持樂觀態(tài)度,認為“神經(jīng)鏈接公司”的臨床試驗遵循了美國食品藥品監(jiān)督管理局(FDA)的規(guī)范,若為那些急切渴望獲得腦機接口以提升生活質量的患者著想,倫理考量就不應成為腦機接口發(fā)展道路上的阻礙。[4]

由此可見,國際學術界仍未就腦機接口研究倫理達成高度共識。為了推動腦機接口研究的健康快速發(fā)展,有必要系統(tǒng)梳理近年來國際上關于腦機接口倫理研究的熱點領域和前沿問題,以期為中國腦機接口的合倫理研究與應用提供有價值的參考。

腦機接口引發(fā)諸多倫理問題的技術根源

早在20世紀70年代,雅克·維達爾(Jacques J. Vidal)便提出了“腦機接口”(brain-computer interface)這一術語,并將腦機接口視作“在人機對話中利用大腦信號”和“作為控制外部器械”的設備。[5]近二十年來,腦機接口研究持續(xù)獲得廣泛的關注(見圖1)。

圖1

進入21世紀以后,腦機接口研究不斷取得新進展,以致人們很難對腦機接口的定義究竟是什么達成一致意見。若根據(jù)《指引》,腦機接口可定義為“在大腦與外部設備之間創(chuàng)建信息通道,實現(xiàn)兩者之間直接信息交互的新型交叉技術”,其作用過程包括“記錄裝置采集顱內或腦外的大腦神經(jīng)活動”“對神經(jīng)活動進行解碼”“解析出神經(jīng)活動中蘊含的主觀意圖”“輸出相應的指令”“操控外部裝置實現(xiàn)與人類主觀意愿一致的行為”“接收來自外部設備的反饋信號”等環(huán)節(jié)。[6]換言之,腦機接口主要包括大腦、外部設備、信息通道三個組成部分,旨在實現(xiàn)測定神經(jīng)活動、解讀大腦意圖、由設備實現(xiàn)意圖、反饋實現(xiàn)結果的效應。

在腦機接口的某個作用環(huán)節(jié)采用不同的技術實現(xiàn)方式,就會產(chǎn)生不同種類的腦機接口技術。在測定神經(jīng)活動環(huán)節(jié),腦機接口逐漸分化成兩大類,一類是直接在頭皮上測量大腦電活動的非侵入式腦機接口,另一類是需要通過開顱手術將電極植入腦中的侵入式腦機接口。最近還發(fā)展出一類通過頸部血管,將測定電極導入特定腦區(qū),借以采集神經(jīng)信號的腦機接口,即介入式腦機接口。在解讀大腦意圖環(huán)節(jié),腦機接口研究者捕捉、解讀并利用了多種腦電活動,如事件相關電位、[7]感覺運動節(jié)律[8]和慢皮層電位[9]等。當前,人工智能領域所使用的一些經(jīng)典算法,如支持向量機和神經(jīng)分類器,在21世紀初就被引入腦機接口的研究中。[10]近年來,人工智能領域中的“深度學習”之類算法創(chuàng)新深刻影響了腦機接口研究,尤其是對大腦神經(jīng)信號的解碼研究??梢哉f,腦機接口的研究進展與不同領域研究人員的協(xié)同創(chuàng)新、對新技術的不斷整合應用有著很大的關聯(lián)。

隨著腦機接口研究的不斷發(fā)展,越來越多的研究者開始思考腦機接口技術可能對人類產(chǎn)生的影響。從圖1可以看出,腦機接口研究的論文數(shù)量出現(xiàn)快速增長之后,腦機接口倫理研究的論文數(shù)量也隨之出現(xiàn)快速增長。毋庸贅言,腦機接口研究引發(fā)的倫理擔憂是由腦機接口技術特點所決定的。由于腦機接口具有干預性、交互性與自動性等技術特點,以致腦機接口研究很難避免來自倫理方面的詰難。

干預性。干預性指的是腦機接口必然涉及對用戶的干預過程,包括測量與控制用戶的神經(jīng)與行為。腦機接口重在將解析出的大腦意圖信息傳輸給外部設備,以實現(xiàn)大腦對設備的控制。這意味著需要先采集大腦電信號或磁信號,對這些信號進行解碼后再將其翻譯為機器的控制信號,進而傳輸給外部設備。問題是,大腦神經(jīng)活動能否僅通過電、磁信號進行測定?如何基于有限的信號解碼大腦內復雜的神經(jīng)活動?如何從不同的神經(jīng)活動信號中排除干擾,解析出用戶的主觀意圖?怎樣才能把用戶的模糊意圖翻譯為控制設備的清晰指令?以上問題亟待研究人員解決。

正是由于測定和控制大腦神經(jīng)活動的干預性,腦機接口極易引發(fā)一些安全問題,并由此導致諸多倫理爭議。尤其是侵入式腦機接口和介入式腦機接口,因在研究過程中需將異物導入顱內,故很容易引發(fā)長、短期安全風險。即使非侵入式腦機接口遇到的安全問題相對較少,也并不意味著非侵入的測定過程對大腦不會造成任何傷害。為了發(fā)現(xiàn)、控制、克服大腦神經(jīng)活動測定過程中的安全問題,研究人員需要用模式動物做大量的實驗,這又不可避免地會引發(fā)動物福利問題。并且,把動物實驗的數(shù)據(jù)套用到人類身上,還會招致知識外推方面的質疑。即便研究人員解決了采集信號的安全問題,但在解碼與解析電信號、磁信號等多種信息過程中產(chǎn)生的大量隱私數(shù)據(jù),也有可能引發(fā)潛在的用戶信息安全問題或隱私問題。

交互性。交互性指的是腦機接口需要在外部設備與用戶之間產(chǎn)生交互。腦機接口需要向大腦及時反饋外部設備實現(xiàn)用戶主觀意圖的結果,這一反饋既可以經(jīng)由感官的刺激(如聽覺、視覺信號)達成,也可以通過由腦機接口直接向大腦輸入電信號來實現(xiàn)。而且在很多情況下腦機接口還需要將外部環(huán)境中的一些重要信息傳輸給大腦,這就需要先將外部環(huán)境中的相關物理信息設法翻譯為電信號,然后再將這些電信號輸入大腦。

在將電信號輸入大腦的過程中,信號傳輸?shù)陌踩詥栴}尤其值得關注。比起電腦被黑客入侵,“大腦被黑客入侵,進而控制用戶本人”的后果更為嚴重。面對這一重大安全風險,《指引》中給出的規(guī)定非常嚴格,要求研究人員“嚴格控制干預人的思維、精神和神經(jīng)活動過程的研究”,以保障用戶的意識安全。[11]如果規(guī)定禁止通過技術干預人的意識,那么人工耳蝸是否同樣也會干預患者能聽到的聲音?人工義眼是否會干預患者能看到的世界?兩者會不會被黑客控制?很明顯,當腦機接口成為用戶大腦與外部世界進行交互的中介時,我們不可避免地會遇到如何保障用戶意識安全的問題。

自動性。自動性指的是某些腦機接口具備一定的自動行為能力,并非時刻都得在用戶主觀意圖的控制下才能運行。一些腦機接口可以采用較為復雜的模式識別手段和控制手段,通過收集大腦的自發(fā)活動信息自動運行。其潛在的用戶群體多為患有中風、癲癇之類大腦功能障礙疾病的患者。此時,腦機接口將不再只是連接“主觀意圖”和“外部設備”的中介,它還扮演了與患者共同決策的“電子大腦”角色。在這種情況下,恐怕不能要求患者在使用腦機接口前就具有可清晰表達個體意愿的“意識”,對外部設備的控制恐怕也不能只基于“主觀意圖”。這就向研究人員提出了更高層次的技術要求。

對于這一類腦機接口,我們需要考慮很多問題。譬如,用戶在使用腦機接口前后,是否發(fā)生了意識層面的變化;閉鎖綜合征患者該怎樣去表達“同意使用腦機接口”的意愿;患者使用腦機接口后的“知情同意”是否能夠代表那個沒有借助腦機接口的自己,亦即使用腦機接口后的患者和未使用腦機接口的患者是否具有同一性。由此可見,這種超出《指引》定義的腦機接口類型,對信息和響應的自動化處理,引發(fā)了不少與人類意識、同意、自主等心理功能與特征相關的倫理問題。

腦機接口對倫理原則提出的挑戰(zhàn)

腦機接口在不同的技術作用環(huán)節(jié)對多項倫理原則提出了挑戰(zhàn)。接下來,筆者將從物理、心理、社會三個層面,[12]進一步考察腦機接口與傳統(tǒng)的生命醫(yī)學倫理原則之間存在的沖突。

物理層面的倫理挑戰(zhàn)。在傳統(tǒng)的生命醫(yī)學倫理原則中,“不傷害原則”是一項重要的考量,即在醫(yī)療過程中需要確?;颊叩纳硇慕】挡粫艿絺Α5牵缜拔乃岬降?,腦機接口中的一大類別是侵入式腦機接口。使用這種腦機接口需要通過開顱手術將電極貼敷到腦皮層表面或刺入腦皮層內部。相比于非侵入式腦機接口,侵入式腦機接口能夠更好地識別腦神經(jīng)電信號,也能更好地實現(xiàn)腦機交互。但這一操作會對患者大腦造成一定的損傷,甚至會影響患者的心理特征。

具體而言,植入電極的行為本身就會對患者造成一定的影響。例如,植入手術過程中可能發(fā)生感染,隨著時間的推移腦內會逐漸形成包圍電極的疤痕組織,電極長期使用后功效會顯著下降等。[13]即使醫(yī)生將電極順利植入患者的大腦,患者也需要通過腦機接口與外部設備合作訓練一段時間之后,才能精準控制外部設備實現(xiàn)目標。而在訓練過程中,患者的思維習慣或多或少會發(fā)生變化,甚至性格都有可能發(fā)生不可逆轉的改變。[14]由此可見,侵入式腦機接口在物理層面上的特性對傳統(tǒng)的“不傷害原則”提出了挑戰(zhàn)。

另外,腦機接口不僅可能給患者帶來不可逆損傷的風險,其他人也可能存在被腦機接口使用者攻擊而受到傷害的風險。斯蒂芬·雷尼(Stephen Rainey)指出,腦機接口使用者有可能會因所佩戴的假肢設備失靈而對他人產(chǎn)生攻擊行為,即使設備本身沒有失靈,腦機接口也可能會將腦中的沖動行為直接轉化為物理行為,把“我簡直想打人”實施為“我打人”。[15]若出于避免意圖翻譯不暢的目的給腦機接口增添一些意圖確認環(huán)節(jié),又會使腦機接口變得更加復雜,這將會給用戶帶來更多的不便。

但風險并非一項技術的全部,收益往往與風險并存。如何平衡風險與收益,是腦機接口研究人員和患者都必須面對的問題。圖比格(Paul Tubig)等人采訪了一些即將取出“癲癇治療”腦機接口的患者,這些患者向采訪人員表達了對“再度喪失人格”的擔憂,并表示希望能夠繼續(xù)保留腦機接口。[16]《指引》要求嚴格控制具有成癮性的腦機接口研究,但這些患者不是基于“快感”而是基于其他原因要求保留腦機接口,這是否可以視為一種“成癮”?克萊恩(Eran Klein)等人則討論了一名參加腦機接口實驗的閉鎖綜合征患者因在實驗過程中的治療效果逐步減弱,以至于最終退出實驗的過程。[17]

要而言之,如何面對腦機接口給患者帶來不可逆損傷的風險,以及如何在這種風險中增進患者的收益,已成為腦機接口研究在物理層面無法回避的倫理挑戰(zhàn)。可以預期的是,隨著腦機接口技術的不斷進步,這些倫理沖突會在一定程度上得到緩和,但要完全解決侵入式腦機接口給患者帶來的傷害問題幾無可能。這意味著至少侵入式腦機接口研究很難嚴格遵守“不傷害原則”。

心理層面的倫理挑戰(zhàn)。在傳統(tǒng)的生命醫(yī)學倫理原則中,尊重自主原則被認為是首要原則,即必須保證患者能夠自主地選擇自己的思想和行為。換言之,尊重自主原則關乎患者與醫(yī)療技術交互過程中的切身感受和內在體驗。而在使用腦機接口進行治療的過程中,患者普遍會產(chǎn)生心理層面的改變,這對如何保障患者自主權提出了倫理挑戰(zhàn)。

具體而言,腦機接口在心理層面帶來的自主難題主要包含三個方面:一是腦機接口對患者的知情同意提出了更多的要求;二是腦機接口對患者的自我身份帶來了改變;三是患者對腦機接口技術產(chǎn)生了依賴性。

首先是知情同意問題。生物醫(yī)學倫理原則中的尊重自主原則,要求在生物醫(yī)學實驗中必須尊重患者的自主性,而知情同意程序則是尊重自主原則的具體體現(xiàn)。然而,在腦機接口研究與應用過程中,傳統(tǒng)的知情同意程序可能并不足以保證患者的自主性。例如,有學者指出,閉鎖綜合征患者無法自主表達其意愿,正常的知情同意程序無法實施。因此,借助腦機接口對這類患者進行治療需要允許“他人代患者表述知情同意”,或者允許通過大腦掃描等方法認定患者的知情同意。[18]然而,這樣的知情同意程序真的能保障這些無法自主表達自身意愿的患者的自主性嗎?

即便是能夠自主表達自身意愿的患者,也有可能受腦機接口技術特點的制約,難以做到完全知情。在常規(guī)的知情同意程序中,腦機接口的提供者需要告知用戶將會收集哪些大腦數(shù)據(jù),為什么要收集這些數(shù)據(jù),以及將如何使用這些數(shù)據(jù)等。一些腦機接口,如“腦腦接口”涉及的數(shù)據(jù)量十分龐大,且內容不易解讀,在這種情況下,讓患者充分理解腦機接口的數(shù)據(jù)細節(jié)顯然不現(xiàn)實,實際上腦機接口的提供者也未必能做到對這些數(shù)據(jù)細節(jié)的充分理解。結果,患者往往是在不完全知情的情況下表示同意的。無疑,這給傳統(tǒng)的知情同意程序帶來了挑戰(zhàn)。[19]

其次是自我身份問題。一方面,腦機接口的使用者需要通過腦機接口克服自身希望解決的困難,例如,治療疾病等,這可能會帶來身份的認同和轉變問題;另一方面,患者可能又不希望自己的身份因腦機接口而產(chǎn)生徹底的變化,甚至成為腦機接口操縱下的個體。有案例表明,一些使用腦機接口的漸凍癥患者通過腦機接口獲得了與家人和朋友交流的能力,并表示愿意在腦機接口實驗結束后保留設備;但也有相當一部分患者不愿保留設備,認為自己已經(jīng)重新獲得了交流能力,因此,有強烈的意圖去恢復原來的“脫離腦機接口”的身份。由此可見,與腦機接口關聯(lián)在一起的是用戶個體對于自身是否屬于“患者”的認知:一些患者認為自己使用腦機接口使得自身不再是“患者”,因而增加了自身的自主性;而另一些患者則認為,必須佩戴的腦機接口設備無時無刻不在提醒自己是一名患者,自己反而比未治療之前顯得更加沮喪和無助,這損害了自身的自主性。[20]它表明,患者的自我觀念甚至是人格都因佩戴腦機接口而受到影響。

最后是過度依賴問題。當腦機接口能夠為患者帶來精神治療效果時,一些學者便開始懷疑這項技術有可能會使患者產(chǎn)生過度依賴。一些使用腦機接口的癲癇患者表示,自從有了可以預測癲癇發(fā)作的腦機接口之后,他們似乎就可以去做任何想做的事情,而不必擔心癲癇的隨機發(fā)作。[21]腦機接口對患者本人心態(tài)固然會有所改善,但是這種對腦機接口的過度信任可能會導致患者忽略了自身本有的識別能力,反而給癲癇患者本人和他人造成更多的傷害。在這種患者與腦機接口的雙向互動中,腦機接口本來只是患者預測癲癇的輔助工具,后來卻演變成了預測癲癇的唯一工具,成為了癲癇判斷的決策者本身。更甚之,問題不在于患者對腦機接口的依賴本身,而在于如果其他社會因素介入到治療中,這種依賴性會進一步損害患者的利益。

綜上,腦機接口對人類意識具有強大的控制與干預能力,由此在心理層面引發(fā)的倫理問題不容忽視。從知情同意的復雜性,到自我身份的轉變,再到對技術的依賴性,這些問題都對傳統(tǒng)的尊重自主原則和知情同意程序提出了新的挑戰(zhàn)。因此,在未來的腦機接口研究、開發(fā)與應用過程中,我們必須探索更為細致、全面與更具可操作性的倫理框架,切實保護患者的自主性與心理健康。

社會層面的倫理挑戰(zhàn)。腦機接口除了因其技術特點可能會給患者帶來物理和心理層面的倫理挑戰(zhàn)之外,還有可能會由于使用者的不當操作帶來不少社會層面的倫理挑戰(zhàn),如解讀大腦涉及的隱私問題、腦機接口使用者的污名化問題、發(fā)生事故時的責任歸屬問題以及腦機接口資源的公平分配問題等。事實上,關于傳統(tǒng)倫理原則的討論,往往采取個體主義的立場與訴諸直覺的研究進路,對倫理理論與道德實踐之間的關系沒有給予足夠的關注,而這有可能忽視技術發(fā)展中的權力結構與社會不平等問題。[22]腦機接口帶來了廣泛的社會影響,使我們更加需要關注社會層面的倫理挑戰(zhàn)。

首先,腦機接口需要收集大量關于用戶神經(jīng)狀態(tài)的數(shù)據(jù)并作出頻繁而復雜的解讀,在這一過程中如何保護用戶的隱私是一個必須正視的問題。一些倫理學家向科學家發(fā)放問卷,詢問腦機接口的數(shù)據(jù)保護與其他類型的生物醫(yī)學數(shù)據(jù)保護有何不同。[23]一些科學家表示,就現(xiàn)狀而言,即使把神經(jīng)數(shù)據(jù)提供給其他研究人員,恐怕也沒有什么意義,因為這些數(shù)據(jù)只有在搭配特定工具和人員的情況下才會彰顯其價值,甚至一些數(shù)據(jù)可能會對其他研究人員產(chǎn)生誤導,進而傷害用戶。因此,并非所有科學家都支持對腦機接口研究進行“數(shù)據(jù)共享”。一般認為,未來的腦機接口需要對神經(jīng)狀態(tài)作出更加細致且準確的解讀,這意味著一旦黑客入侵腦機接口,將會給患者和他人造成更大的危害。[24]

其次,腦機接口的使用者可能會遭遇污名化問題。腦機接口設備可以類比為殘疾人使用的輪椅或拐杖,因此,腦機接口使用者面臨的污名化問題與殘疾人所經(jīng)歷的污名化非常相似。約瑟夫·斯特拉蒙多(Joseph A. Stramondo)指出,腦機接口應被歸類為像拐杖那樣的“輔助技術”,而非像藥品那樣的“治療技術”。輔助技術的使用者會被社會賦予“殘疾身份”,而治療技術則不具備這種特性。[25]一些使用腦機接口的癲癇患者認為,腦機接口的存在無時無刻不在提醒自己,“我是一名癲癇患者”。[26]這一情況表明,社會對殘疾人的污名化已轉化成了對腦機接口使用者的污名化。

再次,如果腦機接口的使用者對他人造成傷害,應該以誰作為懲罰對象?這便是腦機接口的責任歸屬問題。斯蒂芬·雷尼等人認為,身體之于個人與腦機接口之于個人有一定區(qū)別。比如,為了“接住一個球”,基于身體的行為是“目標導向”的,注意力集中在球上;而基于腦機接口的行為則是“控制導向”的,用戶的注意力集中在“讓設備怎樣移動”上。[27]因此,腦機接口使用者造成的事故相比于個人直接造成的事故,須承擔的責任相對較小。但問題的關鍵不在于“要不要承擔全部責任”,而是“要承擔多大程度的責任”。對于這一問題,學界尚未形成共識性的研究結論。如果責任歸屬問題遲遲得不到妥善處理,腦機接口就有可能引發(fā)更多社會亂象。

最后,腦機接口技術的發(fā)展還會引發(fā)如何公正地分配腦機接口資源問題。使用腦機接口進行疾病治療具有很高的技術門檻,需要支付高昂的代價。因此,除富裕階層或特定群體外,很少有人能夠分享到腦機接口資源,這種資源分配的不均衡會進一步加劇社會的不平等。此外,腦機接口算法模型中也隱藏著不平等因素,而這些算法對使用者的行為卻有著巨大的影響力。[28]隨著深度學習等人工智能技術整合進腦機接口,算法“黑箱”帶來的挑戰(zhàn)愈發(fā)嚴峻,即使它是公開透明的,研究人員也很難甄別出隱含在算法中的歧視性條款。因此,腦機接口不僅需要公平的分配,以確保弱勢群體對腦機接口的可及性,同時還需要一種“非歧視性編程技術”,以確保弱勢群體不被腦機接口系統(tǒng)性歧視。

總之,在推動腦機接口技術進步的過程中,如何最大限度地規(guī)避其潛在的負面社會影響,有效應對隱私保護、污名化、責任歸屬以及資源分配等多重挑戰(zhàn),已成為腦機接口技術發(fā)展中不可忽視的倫理難題。這些難題不僅呼吁社會要對腦機接口技術進行更嚴格的規(guī)范和監(jiān)督,還要求我們在技術發(fā)展中始終重視腦機接口對社會公平與正義的影響,確保技術進步能夠惠及更普遍的人群。

腦機接口研究的倫理治理

如前文所述,腦機接口在研究過程中暴露出了諸多令人擔憂的倫理問題,在物理、心理和社會等各個層面都對腦機接口的合倫理使用提出了挑戰(zhàn)。隨著腦機接口技術的迅猛發(fā)展,其應用前景也變得越來越廣泛,未來可能出現(xiàn)的倫理難題也會變得日益復雜,我們對腦機接口進行倫理治理的需求也就更加迫切。這引發(fā)我們進一步思考:人腦與機器的融合究竟可以走多遠、應該走多遠?怎樣才能盡可能規(guī)避腦機接口的倫理風險,使其更好地造福于人類?

近年來,國際上的許多學者都對這些問題作出了回應,“構建合倫理的腦機接口”已成為腦機接口倫理研究的前沿領域。面對“構建合倫理的腦機接口”的要求,許多研究者都對腦機接口的研究、開發(fā)和應用提出了建議,而這些建議可以歸為三個主要方面,即加強監(jiān)督管理、提升倫理素養(yǎng)與深化跨學科合作,以此應對腦機接口帶來的倫理挑戰(zhàn)。

加強監(jiān)督管理。許多腦機接口領域的研究者都認為,政府和有關機構應制定相關的法律法規(guī),對腦機接口的研究、開發(fā)和應用過程進行監(jiān)管,并且這些監(jiān)管手段應涉及數(shù)據(jù)隱私保護、用戶知情同意的獲取以及防止技術濫用等諸多方面。例如,《指引》中就提到,“在人體上開展腦機接口研究,應根據(jù)《涉及人的生命科學和醫(yī)學研究倫理審查辦法》等相關法規(guī)申請并通過倫理審查”“應嚴格遵守《中華人民共和國個人信息保護法》、《中華人民共和國數(shù)據(jù)安全法》等相關法律法規(guī)和標準規(guī)范”以保障腦機接口的數(shù)據(jù)安全等。而在國際上也有學者指出:“對神經(jīng)設備的監(jiān)管需要與快速發(fā)展的神經(jīng)技術領域保持同步,或至少保持相關性。這不僅能確保市場利益最大化和避免潛在傷害,還能通過良好的實踐激勵行業(yè)遵守道德規(guī)范,推動創(chuàng)新。”[29]基于這樣的考量,近期全球范圍內有多項涉及腦機接口監(jiān)管的政策性文件出臺。美國食品藥品監(jiān)督管理局發(fā)布了多個涉及腦機接口倫理安全風險監(jiān)管的指導性文件,包括用于癱瘓和截肢患者的腦機接口研發(fā)的“跨越式指南”,以及涉及非侵入式腦機接口風險評估的“從頭分類路徑”倡議等。[30]

在加強關于腦機接口的監(jiān)管方面,研究者們提出了許多需要注意的倫理事項,大體上可以概括為以下三點。第一,在腦機接口研究過程中需要加強相關的倫理審查。研究人員和開發(fā)者在設計和研究腦機接口時,需要考慮其研究是否符合倫理審查的要求;倫理委員會在批準相關研究時,需要確保所有實驗和應用都符合倫理標準,保護參與者的權益和隱私。例如,“神經(jīng)鏈接公司”在猴身上運用腦機接口技術,引發(fā)了實驗動物福利保護者們的擔憂;“神經(jīng)鏈接公司”在人體上進行腦機接口實驗時,因其實驗設計缺乏透明度和相關副作用不明確而受到公眾和倫理學家的指責。[31]這意味著倫理審查與科學研究前沿脫節(jié),如果不能讓倫理監(jiān)督緊跟科學實踐,科學研究將面臨失控的危險。第二,立法機構需要建立和完善相關法規(guī),為腦機接口技術的研發(fā)和應用提供指導和規(guī)制。美國2040腦機接口設備工作組認為,腦機接口帶來的責任歸屬問題亟需完善相應的立法,以規(guī)避腦機接口普及后可能帶來的各種法律問題,通過法律途徑對“制造商、雇主或用戶何時應對腦刺激的意外后果負責、誰應該對腦機接口和用戶相互適應所導致的行為負責”等問題作出規(guī)定。[32]這些法規(guī)可以避免腦機接口技術被不良商家濫用,減輕了科學家對自身成果負面社會效益的擔憂。第三,在臨床中,我們也應該實施更嚴格的知情同意程序,以增進用戶對腦機接口相關風險與收益的理解。這一過程不僅涉及向用戶提供詳細的信息,還應確保他們充分理解所涉及的風險、收益以及可能的替代方案。鑒于腦機接口服務對象有其特殊性,我們需要采用特別設計的溝通方法,如使用輔助技術或依賴熟悉患者情況的醫(yī)護人員進行解釋,以確?;颊哒嬲斫庀嚓P信息。[33]這并不是違反倫理原則,恰恰相反,這些基于倫理原則的替代方案,才是因地制宜地遵守科技倫理要求、降低研究人員接受倫理審查非必要成本的重要手段。

面對腦機接口的技術發(fā)展與倫理限制之間的張力,以美國為首的發(fā)達國家并沒有教條地維持原本的倫理程序,而是采取了富有彈性的策略。在腦機接口的研究過程中,美國人類研究保護辦公室以及各機構的倫理審查委員會負責確保腦機接口的技術研發(fā)不會對人類受試者產(chǎn)生危害;美國食品藥品監(jiān)督管理局、美國消費品安全委員會和美國聯(lián)邦貿易委員會則負責對腦機接口產(chǎn)品的銷售與使用進行監(jiān)管。其中,所有的侵入式腦機接口和某些非侵入式新腦機接口都由美國食品藥品監(jiān)督管理局監(jiān)管。由于傳統(tǒng)的審批流程非常緩慢,因此,美國食品藥品監(jiān)督管理局推出了“突破性設備計劃”(BDP),便利了相關腦機接口設備的安全審查,使得腦機接口技術從研發(fā)到應用的過程大幅縮短,力求以這種方式在倫理保護和技術發(fā)展之間找到一個平衡點。

提升倫理素養(yǎng)。加強對腦機接口研究的監(jiān)管是必要的,但監(jiān)管手段常常滯后于技術的發(fā)展速度,以致一些不符合倫理原則的行為可能會逃脫現(xiàn)有的監(jiān)管框架。[34]因此,單純地依賴“他律”的手段可能不足以應對這一問題,提升倫理素養(yǎng)作為一種“自律”的手段顯得尤為重要。這不僅意味著腦機接口領域的研究人員需要進一步增強倫理意識,還意味著公眾對腦機接口技術的基本認知以及對自身權利與義務的理解都需要提升。

一方面,對于腦機接口的研發(fā)人員和開發(fā)腦機接口的科技公司而言,科研倫理與商業(yè)倫理素養(yǎng)的提升至關重要。圖比格等人指出,腦機接口研究人員和公眾之間存在一定程度的知識、權利地位不平等現(xiàn)象,而科技公司在利益驅動下有可能給公眾安全帶來威脅,這就要求研究人員能夠識別腦機接口可能帶來的加劇社會不平等、侵犯精神隱私、創(chuàng)造新的剝削形式等倫理問題,并且要求研究人員面對這些不確定性因素作出負責任的行動,“履行維護公眾信任的義務”。[35]還有學者指出,腦機接口技術的發(fā)展也對研究者們的倫理教育提出了要求,匹茲堡大學和卡內基梅隆大學的神經(jīng)科學團隊都進行了類似的嘗試,召集神經(jīng)科學家和神經(jīng)技術工程師每月參與一次半結構化討論,對神經(jīng)科學與神經(jīng)技術中出現(xiàn)的爭議性倫理案例進行研究與批判性反思。[36]這種教育形式有助于腦機接口研究者們自覺遵守倫理準則,以高度的社會責任感,審慎運用技術,尊重用戶的權益和隱私,維護公眾的信任。

另一方面,對于腦機接口的使用者來說,科技和倫理素養(yǎng)的提升也能幫助用戶規(guī)避腦機接口帶來的相關風險。我們可以預想,腦機接口可能會在未來進入工作場所,人們可以通過將大腦與計算機直接連接,更高效地操控設備、處理信息,進一步提高生產(chǎn)力和工作效率。然而,一些學者指出,將接口納入工作場所可能存在諸多倫理爭議,相關問題必須得到審慎的討論。[37]有學者提出了公民享有“神經(jīng)權”(neurorights)的倡議,呼吁民眾要意識到自己擁有“神經(jīng)權”,其中包括決定自己的數(shù)據(jù)是否被共享、在沒有外部神經(jīng)技術操控的情況下作出自主決定、確保自己的心靈隱私不受侵犯、平等地獲得腦機接口等神經(jīng)技術以及免受偏見和歧視等權利。[38]

除了倫理素養(yǎng)外,公眾對科技的認知和態(tài)度也將直接影響腦機接口技術的推廣和應用。有研究顯示,公眾更容易接受非侵入式腦機接口,而對侵入式腦機接口保持警惕,這可能會影響腦機接口的發(fā)展趨勢。[39]因此,科普教育和公眾參與在腦機接口技術的發(fā)展過程中起著至關重要的作用。通過透明的信息披露和積極的公眾參與,可以提高公眾對腦機接口技術的理解和信任,減少對腦機接口的盲目恐懼,在一定程度上避免用戶誤用和濫用腦機接口,以此促進腦機接口技術的發(fā)展。應通過教育和宣傳活動,提高社會整體對腦機接口技術的認知水平,幫助公眾正確看待和使用該技術,同時促進公眾在腦機接口技術發(fā)展中的參與和監(jiān)督。[40]

深化跨學科合作。腦機接口作為一個多學科交叉的研究領域,所涉及的科學與技術領域包括認知心理學、醫(yī)學、生物工程、電子工程以及人機交互技術等。不同領域對于腦機接口的關切點不盡相同。譬如,醫(yī)學與生物工程更關注大腦結構和相關電信號的捕捉技術;認知心理學和人機交互技術更側重于關注用戶的認知、體驗與感受;倫理學家更關注腦機接口對自主性、責任、同一性等傳統(tǒng)倫理原則的挑戰(zhàn);科學家則更關注安全和風險問題。因此,我們在開發(fā)合倫理的腦機接口時,同樣也需要跨學科合作,以共同解決腦機接口研究、開發(fā)與應用過程中遇到的倫理難題,推動腦機接口健康有序的發(fā)展。

一方面,在倫理規(guī)則制定過程中,我們需要關注腦機接口研究、開發(fā)與應用中不同利益相關方的核心倫理關切,促進各方溝通。例如,患者和用戶可能會擔心數(shù)據(jù)隱私和安全問題,需要確保他們能夠掌控自己的大腦活動數(shù)據(jù),避免這些數(shù)據(jù)被商家濫用。然而,最近的一項調查結果顯示,相關技術研發(fā)者對腦機接口數(shù)據(jù)隱私權的態(tài)度是復雜的,他們既承認個人應該對自己的神經(jīng)數(shù)據(jù)擁有一定的控制權,但又不應該是“無限的控制權”,否則相關研究將很難展開。[41]可見,在腦機接口的研究、開發(fā)與應用過程中,不同利益相關方之間存在著一定的利益沖突。因此,需要利益相關方在構建合倫理腦機接口的過程中展開對話,增進各方對腦機接口研究、開發(fā)與應用倫理的理解。諾普夫(Sophia Knopf)等人曾指出,將腦機接口技術專家引入倫理框架之中并不一定能夠反映商業(yè)公司所關切的“倫理現(xiàn)實”問題,為此,神經(jīng)技術企業(yè)也需要根據(jù)自己的價值需求與倫理設想?yún)⑴c到腦機接口的倫理監(jiān)管原則的制定中來。[42]因此,倫理學家可以提供契機,讓用戶、企業(yè)、科學家共同參與倫理原則的制定,避免因為忽視某一方,形成不合理的倫理負擔。

另一方面,在腦機接口倫理的理論反思方面,我們同樣需要加強不同學科之間的合作,唯有這樣我們才能更加全面地評估腦機接口技術的潛在風險和收益。例如,我們在關于倫理的討論中,需要從簡單描述倫理問題的階段,推進到對不同倫理問題進行權重分配的層面。我們需要解釋哪些倫理問題具有最高的優(yōu)先級,哪些倫理問題擁有中等重要性,以及哪些倫理問題在腦機接口未來的發(fā)展中可能具有較低的優(yōu)先級。[43]這種權重分配,不僅需要技術倫理專家深入社會,考察公眾對腦機接口的道德態(tài)度與關切,還需要腦機接口一線科研人員和臨床工作者在腦機接口的實際研發(fā)與應用中就相關倫理問題進行反饋,以確保腦機接口倫理能夠切實指導腦機接口技術的發(fā)展。此外,還需要社會學家開展相關實證研究,調查腦機接口用戶與潛在用戶的需求,這有助于使腦機接口與用戶的切身利益保持一致,確保腦機接口的研究、開發(fā)與應用不會與社會的價值規(guī)范發(fā)生沖突。[44]

因此,只有在多方協(xié)作的基礎上,我們才能更好地應對腦機接口技術帶來的各種倫理挑戰(zhàn),確保腦機接口技術能最大程度地滿足用戶、企業(yè)、研究者等多方利益,最終實現(xiàn)造福全人類的目標。

結語

2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)的《關于加強科技倫理治理的意見》明確指出:“將科技倫理要求貫穿科學研究、技術開發(fā)等科技活動全過程,促進科技活動與科技倫理協(xié)調發(fā)展、良性互動,實現(xiàn)負責任的創(chuàng)新。”[45]這一指導意見也為中國腦機接口倫理治理指明了航向。作為生命科學和信息技術深度交叉融合的前沿新興技術,腦機接口以其干預性、交互性和自動性等技術特性,在物理、心理和社會層面帶來了更加復雜的倫理挑戰(zhàn)。為了有效應對這些挑戰(zhàn),我們亟需加強監(jiān)督管理,提升倫理素養(yǎng),深化跨學科合作,從而確保腦機接口領域在合倫理的框架內實現(xiàn)負責任的創(chuàng)新和發(fā)展。

當前,中國的腦機接口技術正在飛速發(fā)展,信號解碼與行動控制的精細程度不斷提升,相關應用場景也在持續(xù)擴展,并有望在不久的將來成為新質生產(chǎn)力的重要組成部分。在大國博弈和“認知戰(zhàn)”愈演愈烈的背景下,腦機接口等前沿神經(jīng)科技的戰(zhàn)略地位和應用價值日益突出。面對這一趨勢,中國有必要在持續(xù)加大腦機接口研發(fā)投入的同時,加快建立具有前瞻性的腦機接口倫理規(guī)范和監(jiān)督機制。

制定切實可行的腦機接口倫理規(guī)范,離不開結合中國實際對國際倫理治理經(jīng)驗的積極借鑒,以及對技術走向的精準預判。構建協(xié)同高效的腦機接口監(jiān)督機制,既要依靠政府機關審查人員,也要依靠科技倫理專家,更要依靠積極支持科技倫理治理的廣大科學家。總之,腦機接口倫理治理,需要采用自律與他律相結合的方式穩(wěn)步推進。唯有這樣,才能確保腦機接口技術能夠持續(xù)健康發(fā)展。

(本文系教育部人文社會科學重點研究基地重大項目“當代認知哲學基礎理論問題研究”的階段性成果,項目編號:22JJD720007;北京大學哲學系博士研究生楊軍潔、北京大學哲學系碩士研究生梁澤仁對本文亦有重要貢獻)

注釋

[1]E. Mullin, "Watch Neuralink's First Human Subject Demonstrate His Brain-Computer Interface," Mar. 20, 2024, https://www.wired.com/story/neuralink-implant-first-human-patient-demonstration/.

[2]Reuters, "Neuralink Has Implanted Second Trial Patient with Brain Chip, Elon Musk Says," The Guardian, Aug. 4, 2024.

[3][31]D. Hurley, "Ethical Questions Swirl Around Neuralink's Computer-Brain Implants," Neurology Today, 2024, 24(10).

[4]L. Drew, "Elon Musk's Neuralink Brain Chip: What Scientists Think of First Human Trial," Nature, 2024(2).

[5]J. J. Vidal, "Toward Direct Brain-Computer Communication," Annual Review of Biophysics and Bioengineering, 1973, 2(1).

[6][11]《〈腦機接口研究倫理指引〉和〈人—非人動物嵌合體研究倫理指引〉發(fā)布》,2024年2月2日,https://www.most.gov.cn/kjbgz/202402/t20240202_189582.html。

[7]L. A. Farwell and E. Donchin, "Talking off the Top of Your Head: Toward a Mental Prosthesis Utilizing Event-Related Brain Potentials," Electroencephalography and Clinical Neurophysiology, 1988, 70(6).

[8]J. R. Wolpaw, D. J. McFarland, G. W. Neat and C. A. Forneris, "An EEG-Based Brain-Computer Interface for Cursor Control," Electroencephalography and Clinical Neurophysiology, 1991, 78(3).

[9]N. Birbaumer, N. Ghanayim and T. Hinterberger et al., "A Spelling Device for the Paralysed," Nature, 1999, 398(6725).

[10]C. S. Nam, A. Nijholt and F. Lotte, Brain-Computer Interfaces Handbook: Technological and Theoretical Advances, CRC Press, 2018.

[12][16][30]V. Dubljevi? and A. Coin, Policy, Identity, and Neurotechnology: The Neuroethics of Brain-Computer Interfaces, Cham: Springer International Publishing, 2023, pp. 101-16; pp. 27-41; pp. 253-269.

[13][17]E. Klein, "Informed Consent in Implantable BCI Research: Identifying Risks and Exploring Meaning," Science and Engineering Ethics, 2016, 22(5).

[14][24]O. Müller and S. Rotter, "Neurotechnology: Current Developments and Ethical Issues," Frontiers in Systems Neuroscience, 2017, 11.

[15][27]S. Rainey, H. Maslen and J. Savulescu, "When Thinking is Doing: Responsibility for BCI-Mediated Action," AJOB Neuroscience, 2020, 11(1).

[18]E. Klein, B. Peters and M. Higger, "Ethical Considerations in Ending Exploratory Brain-Computer Interface Research Studies in Locked-in Syndrome," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).

[19]E. Hildt, "Multi-Person Brain-To-Brain Interfaces: Ethical Issues," Frontiers in Neuroscience, 2019, 13.

[20]F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).

[21]M. Sample, M. Aunos and S. Blain–Moraes et al., "Brain-Computer Interfaces and Personhood: Interdisciplinary Deliberations on Neural Technology," Journal of Neural Engineering, 2019, 16(6); F. Gilbert, T. O'Brien and M. Cook, "The Effects of Closed-Loop Brain Implants on Autonomy and Deliberation: What are the Risks of Being Kept in the Loop?" Cambridge Quarterly of Healthcare Ethics, 2018, 27(2).

[22]L. B. Andrew, "The Method of 'Principlism': A Critique of the Critique," The Journal of Medicine and Philosophy, 1992, 17(5).

[23]S. Naufel and E. Klein, "Brain-Computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).

[25]J. A. Stramondo, "The Distinction Between Curative and Assistive Technology," Science and Engineering Ethics, 2019, 25(4).

[26]F. Gilbert et al., "Embodiment and Estrangement: Results from a First-in-Human 'Intelligent BCI' Trial," Science and Engineering Ethics, 2019, 25(1).

[28]A. Wolkenstein, R. J. Jox and O. Friedrich, "Brain-Computer Interfaces: Lessons to Be Learned from the Ethics of Algorithms," Cambridge Quarterly of Healthcare Ethics, 2018, 27(4).

[29]I. C. McCall et al., "Owning Ethical Innovation: Claims about Commercial Wearable Brain Technologies," Neuron, 2019, 102(4).

[32]K. S. Gaudry et al., "Projections and the Potential Societal Impact of the Future of Neurotechnologies," Frontiers in Neuroscience, 2021, 15.

[33]M. Ienca and P. Haselager, "Hacking the Brain: Brain-Computer Interfacing Technology and the Ethics of Neurosecurity," Ethics and Information Technology, 2016, 18.

[34]A. D'Aloia and M. C. Errigo (eds.), Neuroscience and Law: Complicated Crossings and New Perspectives, Springer Nature, 2020, pp. 273-290.

[35]P. Tubig and D. McCusker, "Fostering the Trustworthiness of Researchers: SPECS and the Role of Ethical Reflexivity in Novel Neurotechnology Research," Research Ethics, 2021, 17(2).

[36]E. Hildt et al. (eds.), Building Inclusive Ethical Cultures in STEM, Cham: Springer International Publishing, 2024, pp. 245-262.

[37]M. Ahmed and P. Haskell-Dowland (eds.), Cybersecurity for Smart Cities: Practices and Challenges, Springer International Publishing, 2023, pp. 31-46.

[38]P. López-Silva and L. Valera (eds.), Protecting the Mind: Challenges in Law, Neuroprotection, and Neurorights, Springer International Publishing, 2022, pp. 157-161.

[39]S. Sattler, and D. Pietralla, "Public Attitudes Towards Neurotechnology: Findings from Two Experiments Concerning Brain Stimulation Devices (BSDs) and Brain-Computer Interfaces (BCIs)," PloS one, 2022, 17(11).

[40]J. Kögel and G. Wolbring, "What It Takes to be a Pioneer: Ability Expectations from Brain-Computer Interface Users," NanoEthics, 2020, 14(3).

[41]S. Naufel and E. Klein, "Brain-computer Interface (BCI) Researcher Perspectives on Neural Data Ownership and Privacy," Journal of Neural Engineering, 2020, 17(1).

[42]S. Knopf, Sophia, N. Frahm and S. M. Pfotenhauer, "How Neurotech Start-ups Envision Ethical Futures: Demarcation, Deferral, Delegation," Science and Engineering Ethics, 2023, 29(1).

[43]N. Voarino, V. Dubljevi? and E. Racine, "TDCS for Memory Enhancement: A Critical Analysis of the Speculative Aspects of Ethical Issues," Frontiers in Human Neuroscience, 2017.

[44]O. C. van Stuijvenberg et al., "Developer Perspectives on the Ethics of AI-Driven Neural Implants: A Qualitative Study," Scientific Reports, 2024, 14(1).

[45]《中共中央辦公廳 國務院辦公廳印發(fā)〈關于加強科技倫理治理的意見〉》,2022年3月20日,https://www.moj.gov.cn/pub/sfbgw/gwxw/ttxw/202203/t20220320_451049.html。

A Study of Ethical Issues in Brain-Computer Interface Research and Development

Zhou Cheng

Abstract: As an emerging frontier technology that deeply integrates life sciences and information technology, brain-computer interfaces (BCIs) have seen rapid development in recent years, with significant breakthroughs occurring frequently. However, these advancements have also sparked numerous ethical debates. The challenges that BCIs pose to traditional ethical principles span physical, psychological, and social dimensions. With invasive BCIs already approved for clinical trials, the questions of how to construct ethically sound BCIs has become a focal point for neuroscientists, engineers, and ethicists worldwide. To mitigate the ethical risks associated with BCIs, it is crucial to strengthen regulation and management, enhance ethical awareness and literacy, and deepen interdisciplinary collaboration. By establishing comprehensive ethical guidelines and regulatory mechanisms, we can ensure that BCI technology cogently enhances human well-being.

Keywords: brain-computer interface, technological risk, ethical principle, ethical governance, interdisciplinary collaboration

[責任編輯:肖晗題]