【摘要】“認(rèn)知域”指的是認(rèn)知活動(dòng)所涉及的內(nèi)容和場(chǎng)所的集合。長(zhǎng)期以來(lái),認(rèn)知域一直被認(rèn)為僅局限在大腦之內(nèi)。然而,越來(lái)越多的學(xué)者認(rèn)為,人類(lèi)認(rèn)知可以部分地由大腦外的因素構(gòu)成,于是人類(lèi)的認(rèn)知域延展到了大腦之外,并納入了認(rèn)知技術(shù)等要素。在認(rèn)知域不斷延展的過(guò)程中,人們擔(dān)心自身的認(rèn)知域會(huì)受到虛假信息的侵?jǐn)_和他人意志的操控。為了應(yīng)對(duì)認(rèn)知域延展帶來(lái)的安全挑戰(zhàn),我們應(yīng)該對(duì)認(rèn)知域中的“人—技”關(guān)系保持清醒的認(rèn)識(shí)。同時(shí),政府、專(zhuān)家和個(gè)人都應(yīng)該付諸努力,從倫理法律、技術(shù)設(shè)計(jì)和數(shù)字素養(yǎng)等多個(gè)方面來(lái)保護(hù)認(rèn)知域的安全。
【關(guān)鍵詞】認(rèn)知域 延展認(rèn)知 認(rèn)知安全 虛假信息 人機(jī)協(xié)作
【中圖分類(lèi)號(hào)】G31 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.11.006
【作者簡(jiǎn)介】周程,北京大學(xué)哲學(xué)系教授、博導(dǎo),北京大學(xué)醫(yī)學(xué)人文學(xué)院院長(zhǎng),中國(guó)科協(xié)-北京大學(xué)科學(xué)文化研究院副院長(zhǎng)。研究方向?yàn)榭茖W(xué)社會(huì)史、科學(xué)技術(shù)與社會(huì)、創(chuàng)新管理與科技政策。主要著作有《科技創(chuàng)新典型案例分析》《福澤諭吉と陳獨(dú)秀:東アジア近代科學(xué)啓蒙思想の黎明》等。
柏拉圖在《斐德羅篇》(Phaedrus)中描述了蘇格拉底對(duì)書(shū)寫(xiě)的看法。蘇格拉底認(rèn)為,書(shū)寫(xiě)是對(duì)記憶的破壞,書(shū)寫(xiě)技術(shù)對(duì)人類(lèi)認(rèn)知產(chǎn)生了負(fù)面的影響?,F(xiàn)如今,認(rèn)知技術(shù)以一種更加廣泛且深入的方式進(jìn)入了人們的生活。人工智能、大型語(yǔ)言模型、腦機(jī)接口等高新技術(shù)的發(fā)展,深刻地影響了人們的認(rèn)知方式,甚至直接改變了人們的認(rèn)知范圍,重新塑造了人們的認(rèn)知活動(dòng)。因此,有必要重新審視“認(rèn)知域”(cognitive domain)的含義,理解“認(rèn)知域”在當(dāng)下發(fā)生的轉(zhuǎn)變與面臨的風(fēng)險(xiǎn),研判“認(rèn)知域”延展對(duì)“人—技”關(guān)系帶來(lái)的影響,并為適應(yīng)“認(rèn)知域”的不斷延展準(zhǔn)備好應(yīng)對(duì)策略。
認(rèn)知域的定義及其延展
所謂“認(rèn)知域”,簡(jiǎn)單來(lái)說(shuō)就是人類(lèi)認(rèn)知活動(dòng)所涉及的內(nèi)容和場(chǎng)所的集合。傳統(tǒng)觀點(diǎn)認(rèn)為,人類(lèi)的認(rèn)知活動(dòng)都發(fā)生在大腦中,大腦就像一臺(tái)計(jì)算機(jī)一樣進(jìn)行著表征與計(jì)算。而技術(shù)設(shè)備對(duì)人類(lèi)認(rèn)知內(nèi)容和認(rèn)知過(guò)程的影響,則主要是通過(guò)間接方式實(shí)現(xiàn)的。
然而,進(jìn)入21世紀(jì)后,這一關(guān)于認(rèn)知的傳統(tǒng)觀點(diǎn)受到了沖擊。人們發(fā)現(xiàn),語(yǔ)言符號(hào)、紙筆工具,乃至一些更復(fù)雜的技術(shù)設(shè)備,例如,智能手機(jī)、互聯(lián)網(wǎng)等,不僅可以被當(dāng)作輔助認(rèn)知的工具,而且還可當(dāng)作人類(lèi)認(rèn)知能力的延伸,成為認(rèn)知域中的一部分。[1]這些技術(shù)不斷挑戰(zhàn)著人們對(duì)認(rèn)知內(nèi)在主義的看法。于是,以“延展認(rèn)知”(extended cognition)為代表的認(rèn)知科學(xué)研究綱領(lǐng)逐漸被人們所接受。
延展認(rèn)知關(guān)注環(huán)境因素在認(rèn)知過(guò)程中發(fā)揮的作用,認(rèn)為環(huán)境因素可以構(gòu)成認(rèn)知過(guò)程的一部分。為了捍衛(wèi)這個(gè)觀點(diǎn),安迪·克拉克(Andy Clark)和大衛(wèi)·查爾莫斯(David Chalmers)提出了“對(duì)等性原則”(parity principle),即“如果在我們面對(duì)某項(xiàng)任務(wù)時(shí),世界的一部分作為一個(gè)過(guò)程發(fā)揮作用,且如果這個(gè)過(guò)程是在頭腦中完成的,我們會(huì)毫不猶豫地將其作為認(rèn)知過(guò)程的一部分,那么世界的這一部分就(正如我們聲稱(chēng)的那樣)是認(rèn)知過(guò)程的一部分”。[2]換言之,發(fā)揮了相同認(rèn)知功能的外在因素也應(yīng)該享有和內(nèi)在因素同等的地位。
克拉克和查爾莫斯曾用“英伽和奧托”(Inga and Otto)的案例來(lái)幫助我們更好地理解認(rèn)知域究竟是怎樣延展的。認(rèn)知能力正常的英伽想去博物館看展覽,于是她回憶起博物館的位置,并憑借這個(gè)信念成功到達(dá)博物館;而患有阿爾茲海默癥的奧托也想去看展覽,他的辦法是通過(guò)檢索隨身攜帶的筆記本得知博物館的位置,最終也成功地到達(dá)博物館。在這兩個(gè)案例中,奧托筆記本上的信息發(fā)揮了和英伽的生物記憶相同的功能,都構(gòu)成了各自認(rèn)知過(guò)程的一部分。這樣,奧托的認(rèn)知過(guò)程就延展到了他的筆記本上,他的認(rèn)知域因而包括了大腦之外的因素。
為了防止認(rèn)知域過(guò)度膨脹,甚至于變得無(wú)所不包,克拉克和查爾莫斯列出了對(duì)外在因素的幾項(xiàng)限制條件,即依賴(lài)性、可通達(dá)性、可信賴(lài)性、歷史關(guān)聯(lián)性。[3]雖然關(guān)于這些條件的爭(zhēng)論仍舊存在,但是他們至少提供了一套參考標(biāo)準(zhǔn),能夠幫助我們區(qū)分兩種“外部資源”:一種僅僅被我們當(dāng)作工具,而另一種則被吸收到認(rèn)知域中。
根據(jù)延展認(rèn)知的觀點(diǎn),人們可以把外在于大腦的一些因素作為認(rèn)知內(nèi)容的載體。這樣,認(rèn)知內(nèi)容也就部分地延展到了大腦之外。類(lèi)似的,延展認(rèn)知的支持者也認(rèn)同腦機(jī)接口設(shè)備是認(rèn)知的組成部分,應(yīng)該受到與人類(lèi)大腦一樣的保護(hù)。甚至,人們通過(guò)虛擬現(xiàn)實(shí)技術(shù)完成的認(rèn)知活動(dòng),也與現(xiàn)實(shí)世界享有同樣的真實(shí)性。[4]這樣,認(rèn)知域就不再是一個(gè)專(zhuān)屬于個(gè)人的“黑箱”,而是一個(gè)可以被公開(kāi)揭示、甚至被他人操控的領(lǐng)域。例如,他人可以相對(duì)容易地查看已被納入認(rèn)知域的筆記本、手機(jī)等,以此來(lái)了解認(rèn)知域主人的所思所想。如此一來(lái),伴隨認(rèn)知域的延展,個(gè)人認(rèn)知內(nèi)容被他人篡改的風(fēng)險(xiǎn)也在增加。在國(guó)防領(lǐng)域,“認(rèn)知域”已被視作與“物理域”“信息域”并列的第三大作戰(zhàn)空間[5]。在大國(guó)博弈中,“制腦權(quán)”已成為能否取得最終勝利的關(guān)鍵變量。在這種情況下,如何正確看待、保護(hù)和利用好認(rèn)知域,就不只是理論問(wèn)題,也是現(xiàn)實(shí)問(wèn)題。
認(rèn)知域面臨的安全問(wèn)題
如今,人機(jī)交互日益頻繁,人類(lèi)的大多數(shù)認(rèn)知活動(dòng)都已被技術(shù)設(shè)備廣泛滲透,很難從中區(qū)分出純粹內(nèi)在的認(rèn)知活動(dòng)。即使是在獨(dú)自冥想這樣的認(rèn)知活動(dòng)中,人們的專(zhuān)注力和思考的深度也和周?chē)h(huán)境緊密相關(guān)。隨著認(rèn)知域的不斷延展,個(gè)人的認(rèn)知域安全很容易受到來(lái)自外界的威脅。為了保護(hù)認(rèn)知域的安全,人們需要對(duì)認(rèn)知域可能遭遇的侵害保持清醒的認(rèn)識(shí)。
首先,虛假信息容易混入個(gè)人的認(rèn)知域,從而影響人們作出判斷的認(rèn)知基礎(chǔ)。就拿上述英伽和奧托的例子來(lái)說(shuō),英伽的記憶存儲(chǔ)在大腦中,別人無(wú)法直接閱讀或者破壞英伽的心理內(nèi)容。相比之下,奧托的筆記本則更容易被人篡改、損毀,因而,筆記本上的信息的真實(shí)性變得難以判斷。[6]類(lèi)似的,比起人們的生物記憶,存儲(chǔ)在手機(jī)中的日程表、照片、錄音等信息,似乎也更容易被黑客修改。這意味著人們借助技術(shù)設(shè)備獲取的信息其實(shí)未必可靠。因此,有必要對(duì)外在載體上的私人信息采取額外的甄別措施,以保障信息的可靠性。
然而,“深度偽造”(deepfake)或合成媒體(synthetic media)技術(shù),讓原本看似真實(shí)可信的公共信息也變得岌岌可危,這也給人類(lèi)的認(rèn)知域帶來(lái)了沖擊。當(dāng)下,人們可以用很低的成本把公眾人物的臉替換到各種影視片段中,還可以用人工智能技術(shù)模仿知名歌手的聲線創(chuàng)作音樂(lè)作品。這些偽造的視頻、音頻往往非常逼真,如果不加以標(biāo)注就在各種網(wǎng)絡(luò)平臺(tái)上傳播,很容易讓數(shù)以萬(wàn)計(jì)的網(wǎng)民誤以為這是真實(shí)發(fā)生的事情。可見(jiàn),在認(rèn)知域中,不論是存儲(chǔ)在外在載體上的信息,還是進(jìn)入大腦之中的信息,都容易混入虛假信息,因而,需要對(duì)信息的真實(shí)性給予特別關(guān)注。
除了刻意編造的虛假信息,認(rèn)知技術(shù)所輸出的無(wú)意義信息也會(huì)影響人們的認(rèn)知,使得人們的認(rèn)知域變得更為混亂。以ChatGPT為代表的大型語(yǔ)言模型(Large Language Models)雖然可以與用戶(hù)實(shí)時(shí)交互,為用戶(hù)提供信息,但是它并不能保證信息的準(zhǔn)確性。比起上述兩種蓄意造假的例子,ChatGPT有時(shí)更像是在“胡說(shuō)八道”,但這并非是它在有意誤導(dǎo)用戶(hù)。原因在于,其工作模式是根據(jù)以往的訓(xùn)練數(shù)據(jù),統(tǒng)計(jì)出哪個(gè)詞匯有最大概率出現(xiàn)在該問(wèn)題對(duì)應(yīng)的答案中,從而生成回答,但其本身并不能理解語(yǔ)義內(nèi)容。由于認(rèn)知主體憑自身認(rèn)知域中的資源,很難甄別它是在陳述事實(shí)還是在編造幻夢(mèng),因此,人們可能更難察覺(jué)這類(lèi)信息對(duì)各自認(rèn)知域的侵?jǐn)_。諸如此類(lèi)的認(rèn)知技術(shù)正在重新塑造著認(rèn)知主體的認(rèn)知過(guò)程、認(rèn)知習(xí)慣以及信念集合。最近,ChatGPT還推出了手機(jī)應(yīng)用版本,人們接觸這類(lèi)工具的便捷度越高,與之交互的程度就會(huì)越深,人腦與技術(shù)的耦合也就越緊密,以致人們將各類(lèi)無(wú)意義信息納入認(rèn)知域的可能性大增。
其次,隨著腦機(jī)接口等技術(shù)的快速發(fā)展,自身的認(rèn)知域更容易遭到他人意志的操控。人們擔(dān)心腦機(jī)接口這類(lèi)神經(jīng)技術(shù)大規(guī)模推廣后,植入腦中的設(shè)備會(huì)侵入自己的思想,讓自己的大腦成為科技公司觸手可及的數(shù)據(jù)庫(kù),甚至受到他人的操控。有學(xué)者假設(shè)了四種通過(guò)腦機(jī)接口操控思想的情況:第一,腦機(jī)接口在人沒(méi)有意識(shí)到的時(shí)候自動(dòng)更新了信息,如同步最新的節(jié)假日安排;第二,人們自主選擇加入自動(dòng)更新協(xié)議,但實(shí)際上并不清楚有什么新信息將被加入自己的認(rèn)知域中;第三,腦機(jī)接口設(shè)備自動(dòng)刪除用戶(hù)長(zhǎng)期沒(méi)有使用的記憶;第四,腦機(jī)接口與人深度合作,幫助人類(lèi)作出最優(yōu)選擇。[7]在前三種情況中,人們幾乎都不需要施展認(rèn)知能力,腦機(jī)接口設(shè)備實(shí)際上繞過(guò)了認(rèn)知主體來(lái)植入或刪除信息。第四種情況稍顯復(fù)雜,腦機(jī)接口設(shè)備可能會(huì)通過(guò)壓制認(rèn)知主體本可能產(chǎn)生的信念,來(lái)達(dá)成設(shè)備認(rèn)為的最優(yōu)解,這其實(shí)也阻礙了認(rèn)知主體本身的創(chuàng)造力。
實(shí)際上,人們已經(jīng)潛在地被一些技術(shù)所限制,個(gè)人認(rèn)知的自主性也相應(yīng)地受到了影響。例如,某些網(wǎng)站可能設(shè)置了搜索聯(lián)想詞,或者安排了搜索結(jié)果的順序,或者直接向用戶(hù)推送“猜你喜歡”。人們的認(rèn)知環(huán)境被潛在地改變,人們的自主性受到設(shè)計(jì)者意愿的影響,這無(wú)疑也是一種限制人們選擇的方式。一些手機(jī)軟件還會(huì)刻意增加用戶(hù)關(guān)閉某些功能的步驟或警示語(yǔ),以此來(lái)影響用戶(hù)的自主選擇。如果人們與這些網(wǎng)站、軟件的持續(xù)交互足以讓它們被納入人們的認(rèn)知域,那么這些引導(dǎo)性的設(shè)計(jì)甚至可以被理解為一種威脅認(rèn)知自主性的攻擊。
綜上,認(rèn)知域安全很容易受到虛假信息的侵?jǐn)_以及他人操控的威脅。這兩類(lèi)問(wèn)題本質(zhì)上都可以歸結(jié)為技術(shù)的信任問(wèn)題;換言之,認(rèn)知技術(shù)提供的信息內(nèi)容和輔助功能缺少明確的真實(shí)性和安全性判斷標(biāo)準(zhǔn),人們不知道應(yīng)該賦予認(rèn)知技術(shù)多大程度的信任,以及應(yīng)該依據(jù)什么標(biāo)準(zhǔn)來(lái)評(píng)判通過(guò)認(rèn)知技術(shù)獲得的信息是可靠的。為此,我們需要重新梳理和深入考察在延展的認(rèn)知域中人類(lèi)與技術(shù)的關(guān)系究竟呈現(xiàn)出什么樣的維度,以及在此基礎(chǔ)上我們應(yīng)該如何應(yīng)對(duì)認(rèn)知域安全面臨的挑戰(zhàn)。
認(rèn)知域延展中的“人—技”關(guān)系
美國(guó)技術(shù)哲學(xué)家唐·伊德(Don Ihde)曾區(qū)分出四種典型的“人—技”關(guān)系(human-technology relations):一是具身關(guān)系(embodiment relations),即技術(shù)作為人的工具;二是解釋關(guān)系(hermeneutic relations),即技術(shù)表征人生活的世界;三是它異關(guān)系(alterity relations),即人和技術(shù)相互作用;四是背景關(guān)系(background relations),即技術(shù)成為人類(lèi)活動(dòng)的背景。[8]
從延展認(rèn)知的過(guò)程來(lái)看,認(rèn)知主體與認(rèn)知技術(shù)之間不只是單向的具身關(guān)系。特別是在延展的認(rèn)知域中,人們的認(rèn)知更容易受到認(rèn)知技術(shù)的操控。例如,人們?cè)谏缃幻襟w上瀏覽信息、記錄生活、分享經(jīng)驗(yàn),社交媒體儼然成為了人類(lèi)認(rèn)知域的延伸。然而,一些商家會(huì)利用社交媒體用戶(hù)的數(shù)據(jù),精準(zhǔn)描繪出用戶(hù)肖像并投送相關(guān)信息,以達(dá)成操控人們購(gòu)物意向的目的。因此,在認(rèn)知域延展的背景下,我們不應(yīng)該簡(jiǎn)單地把認(rèn)知技術(shù)理解為一種被動(dòng)的工具。恰恰相反,認(rèn)知技術(shù)正在深刻地重塑著主體的認(rèn)知過(guò)程。
認(rèn)知域的不斷延展也使得認(rèn)知主體與認(rèn)知技術(shù)之間并不構(gòu)成純粹的解釋關(guān)系。時(shí)至今日,認(rèn)知技術(shù)的體系結(jié)構(gòu)和運(yùn)行機(jī)制日益復(fù)雜,甚至專(zhuān)業(yè)人士也無(wú)法解釋認(rèn)知技術(shù)與世界之間的表征究竟是如何實(shí)現(xiàn)的,這意味著認(rèn)知技術(shù)具有了很高的不透明性。例如,當(dāng)下被大量使用的深度學(xué)習(xí)(deep learning)技術(shù)實(shí)際上是一種“基于樣本數(shù)據(jù)、使用多層神經(jīng)網(wǎng)絡(luò)對(duì)模式進(jìn)行分類(lèi)的統(tǒng)計(jì)技術(shù)”[9],其中的神經(jīng)網(wǎng)絡(luò)由輸入、輸出和中間的大量隱藏層構(gòu)成。這些隱藏層不僅數(shù)量眾多,而且不同變量還被賦予了不同的權(quán)重,無(wú)論是事前推演還是事后回溯都很難將其解釋清楚,這也讓人們懷疑通過(guò)認(rèn)知技術(shù)了解到的信息,是否真的構(gòu)成了對(duì)真實(shí)世界的準(zhǔn)確表征。在認(rèn)知域延展的背景下,認(rèn)知域中“不透明的”認(rèn)知技術(shù),使得人類(lèi)對(duì)世界的認(rèn)知過(guò)程也變得“不透明”,因此,我們也不能認(rèn)為認(rèn)知主體利用認(rèn)知技術(shù)就能成功達(dá)到解釋世界的目的。
然而,出于對(duì)透明性的擔(dān)憂而全盤(pán)拒斥認(rèn)知技術(shù)的使用并不是一個(gè)明智的選擇。其一,在工具層面,認(rèn)知技術(shù)在教育、醫(yī)療等領(lǐng)域有望為普通民眾提供低價(jià)高效的服務(wù),在國(guó)家安全方面其也是一個(gè)不可忽視的力量。認(rèn)知域延展后,認(rèn)知技術(shù)蘊(yùn)含的巨大經(jīng)濟(jì)價(jià)值、戰(zhàn)略?xún)r(jià)值,只會(huì)推動(dòng)這個(gè)領(lǐng)域不斷往前發(fā)展。其二,在解釋層面,人們難以對(duì)認(rèn)知技術(shù)的透明性達(dá)成一致意見(jiàn)。換言之,人們并不清楚,我們究竟需要何種程度的透明性?透明性的參照標(biāo)準(zhǔn)是什么?由誰(shuí)來(lái)評(píng)判是否達(dá)到了這一標(biāo)準(zhǔn)?
事實(shí)上,認(rèn)知域的延展使得認(rèn)知主體與認(rèn)知技術(shù)之間的關(guān)系,逐漸轉(zhuǎn)變?yōu)?ldquo;背景關(guān)系”與“它異關(guān)系”。
一方面,認(rèn)知技術(shù)已經(jīng)成為認(rèn)知主體生活經(jīng)驗(yàn)的背景,人類(lèi)無(wú)時(shí)無(wú)刻不處在認(rèn)知技術(shù)的影響中。首先,人類(lèi)自身的認(rèn)知過(guò)程也并非完全透明,尤其是當(dāng)人類(lèi)作出涉及直覺(jué)、預(yù)感等因素的決定時(shí),人類(lèi)自己也很難理解相關(guān)行為的邏輯結(jié)構(gòu)[10]。因此,要求作為認(rèn)知背景的技術(shù)實(shí)現(xiàn)絕對(duì)透明是不合理的。其次,保持技術(shù)的透明性不應(yīng)該成為人們維護(hù)認(rèn)知域安全的首要要求。一味追求認(rèn)知技術(shù)的透明性,可能會(huì)降低認(rèn)知技術(shù)的復(fù)雜度,以至于犧牲輸出結(jié)果的準(zhǔn)確性。有時(shí)人們希望得到的解釋并不是那種冗長(zhǎng)的推理過(guò)程或詳盡的權(quán)重參數(shù),而是高效實(shí)用的回應(yīng)。與其讓認(rèn)知技術(shù)供應(yīng)商公開(kāi)它們的設(shè)計(jì)參數(shù)、訓(xùn)練數(shù)據(jù),不如尋找其他方法讓認(rèn)知技術(shù)取信于人,使得延展的認(rèn)知域中認(rèn)知主體與其所處的認(rèn)知背景更加契合。
另一方面,越來(lái)越多的認(rèn)知技術(shù)被納入人們的認(rèn)知域中,這也意味著人類(lèi)和認(rèn)知技術(shù)的交互越來(lái)越深入;認(rèn)知技術(shù)的不斷人格化,使得認(rèn)知主體與認(rèn)知技術(shù)呈現(xiàn)出“它異關(guān)系”。雖然目前大多數(shù)人工智能等認(rèn)知技術(shù)只能精于處理特定類(lèi)型(如文字)、特定領(lǐng)域(如下棋)的問(wèn)題,但是人類(lèi)作為人工智能的訓(xùn)練者,可以將非文字信息轉(zhuǎn)換成技術(shù)可以攝入的資源。同樣的,機(jī)器也可以將得到的結(jié)果反饋給人類(lèi),由人類(lèi)對(duì)此結(jié)果進(jìn)行有意義的解釋。甚至有學(xué)者在延展認(rèn)知的基礎(chǔ)上,提出了“人類(lèi)延展的機(jī)器認(rèn)知”(Human-Extended Machine Cognition)[11],主張人類(lèi)也可能被當(dāng)作實(shí)現(xiàn)以機(jī)器為基礎(chǔ)的智能的一個(gè)部分。最近,埃隆·馬斯克(Elon Musk)創(chuàng)立的“神經(jīng)鏈接”(Neuralink)公司獲得了美國(guó)食品藥品監(jiān)督管理局(FDA)的審批,可以在人身上進(jìn)行侵入式腦機(jī)接口實(shí)驗(yàn),這意味著認(rèn)知主體(大腦皮層)與認(rèn)知技術(shù)(腦機(jī)接口)之間的關(guān)系即將迎來(lái)更為密切的交互與融合,例如,盲人可能將會(huì)通過(guò)腦機(jī)接口“看到”圖像,癱瘓病人也可以運(yùn)用腦機(jī)接口操控機(jī)器。這種“賽博格”式的技術(shù)革命打破了認(rèn)知域中主體與技術(shù)之間的界限,這就更需要我們以理性的態(tài)度看待“人—技”關(guān)系在認(rèn)知域延展過(guò)程中的新變革。
因此,認(rèn)知域中的主體和技術(shù)之間應(yīng)該保持密切合作的關(guān)系。認(rèn)知技術(shù)的最終目標(biāo)不是成為人,所以不應(yīng)該用人類(lèi)的標(biāo)準(zhǔn),或者是高于人類(lèi)的標(biāo)準(zhǔn)來(lái)要求認(rèn)知技術(shù),甚至限制認(rèn)知技術(shù)發(fā)展。在認(rèn)知域延展的背景下,技術(shù)的更新與人類(lèi)認(rèn)知的變革相伴相行。例如,讀寫(xiě)能力提升了人們的交流水平,基于讀寫(xiě)和計(jì)算而制造出的計(jì)算機(jī)更是將人們的認(rèn)知能力提升到了更高的水準(zhǔn)之上[12]。新技術(shù)的誕生勢(shì)必沖擊現(xiàn)有的規(guī)則秩序,人們擔(dān)憂會(huì)被技術(shù)取代,就像工業(yè)革命時(shí)期手工業(yè)者擔(dān)憂機(jī)器會(huì)侵占自己的工作機(jī)會(huì)一樣。但是,當(dāng)時(shí)看起來(lái)可怖的機(jī)器已經(jīng)融入了人們的生活,當(dāng)時(shí)看來(lái)新奇的技術(shù)也在創(chuàng)造著新的崗位。人工智能進(jìn)入人類(lèi)的認(rèn)知域之后,不可避免地會(huì)引起類(lèi)似的憂懼。與其只關(guān)注技術(shù)的陰暗面而選擇停滯不前,人們不妨學(xué)會(huì)與認(rèn)知技術(shù)共存,及早準(zhǔn)備好維護(hù)認(rèn)知域安全的對(duì)策,讓認(rèn)知主體與認(rèn)知技術(shù)充分互動(dòng),以實(shí)現(xiàn)認(rèn)知能力的提升。
如何應(yīng)對(duì)認(rèn)知域延展帶來(lái)的安全挑戰(zhàn)
鑒于認(rèn)知域的延展導(dǎo)致“人—技”關(guān)系呈現(xiàn)出“背景關(guān)系”與“它異關(guān)系”的特點(diǎn),人們需要根據(jù)認(rèn)知主體與認(rèn)知技術(shù)交互發(fā)展的情況,適時(shí)調(diào)整維護(hù)認(rèn)知域安全的倫理底線與法律規(guī)范,將認(rèn)知域中的非生物因素也納入考慮范圍。人類(lèi)不能只關(guān)注自己生物學(xué)意義上的身體,同時(shí)也要重視認(rèn)知域中的技術(shù)設(shè)備,甚至是虛擬世界中的實(shí)體。應(yīng)對(duì)認(rèn)知域延展帶來(lái)的安全挑戰(zhàn),需要政府、專(zhuān)家、個(gè)人等各方面共同努力。
政府層面。在認(rèn)知域延展中,政府需要通過(guò)倫理與法律的規(guī)制防止個(gè)人的認(rèn)知域受到他人侵犯。將外部的技術(shù)設(shè)備納入認(rèn)知域,意味著需要按照“倫理對(duì)等性原則”(ethical parity principle)[13]和“法律對(duì)等性原則”(legal parity principle)[14]給予它們同等的倫理與法律地位。有學(xué)者直接建議,將對(duì)認(rèn)知技術(shù)的破壞視同人身攻擊。[15]
以前文提到的奧托為例,奧托的筆記本里記錄了他每天發(fā)生的事情,他對(duì)一些事件的看法還有當(dāng)時(shí)的情緒。如果奧托的筆記本被別人偷竊,他的認(rèn)知能力就會(huì)顯著下降。因而,這不應(yīng)該只被當(dāng)作一樁個(gè)人財(cái)物被盜案,還應(yīng)當(dāng)視作一種人身攻擊。類(lèi)似的,在患有阿爾茲海默癥的病人家中,物品的位置、擺放順序可能都是保障患者自如行動(dòng)的重要支撐;如果被人隨意破壞,攪亂了原有的安置秩序,那么患者的行動(dòng)能力就會(huì)大不如前。這就好比是被迫攝入過(guò)量酒精而擾亂了大腦的正常思維,同樣構(gòu)成了一種不道德的行為。
與此同時(shí),如果人們的認(rèn)知域享有這樣的保護(hù),那么人們也應(yīng)該承擔(dān)運(yùn)用認(rèn)知域內(nèi)的技術(shù)設(shè)備侵犯他人帶來(lái)的后果。目前的技術(shù)設(shè)備尚不能作為一個(gè)完整的道德行動(dòng)者,無(wú)法承擔(dān)全部的道德責(zé)任。通過(guò)建立嚴(yán)格的倫理和法律規(guī)范,并遵循權(quán)責(zé)一致的原則,我們可以確立明確的責(zé)任分配機(jī)制,這有利于警示人們重視認(rèn)知環(huán)境,維護(hù)認(rèn)知域的安全。
專(zhuān)家層面。認(rèn)知域延展中“人—技”關(guān)系出現(xiàn)的新變化要求人類(lèi)與認(rèn)知技術(shù)協(xié)同發(fā)展,這就需要專(zhuān)家在技術(shù)設(shè)計(jì)之初就將與認(rèn)知域安全相關(guān)的倫理問(wèn)題納入考量。認(rèn)知域作為一個(gè)整體,域內(nèi)各個(gè)要素之間密切交互,構(gòu)成了一個(gè)復(fù)雜系統(tǒng),它要求專(zhuān)家在設(shè)計(jì)認(rèn)知產(chǎn)品時(shí),事先就考慮認(rèn)知技術(shù)的目標(biāo)與價(jià)值規(guī)范,使之能更好地融入人們的認(rèn)知域。如果一個(gè)認(rèn)知域內(nèi)各個(gè)部分擁有的目標(biāo)不同,這個(gè)認(rèn)知域能發(fā)揮出的認(rèn)知水平和行動(dòng)能力就會(huì)受到限制。例如,機(jī)器在完成工作要求時(shí)可能會(huì)無(wú)視其造成的潛在傷害。各不同部分之間的分歧會(huì)導(dǎo)致整體的認(rèn)知力、行動(dòng)力下降。如果專(zhuān)家在設(shè)計(jì)認(rèn)知技術(shù)設(shè)備時(shí)就考慮到了人機(jī)協(xié)作的理念,那么推出的產(chǎn)品會(huì)更加契合人類(lèi)的認(rèn)知過(guò)程,更加易于與人類(lèi)認(rèn)知域相融合。
另外,考慮到提供認(rèn)知技術(shù)的公司與個(gè)人用戶(hù)之間存在著巨大的權(quán)力不對(duì)等關(guān)系,專(zhuān)家需要在企業(yè)和公眾之間起到協(xié)調(diào)作用。大多數(shù)用戶(hù)作為外行,有時(shí)難以清晰地表達(dá)自己的訴求,或者無(wú)法選擇最符合自身利益的服務(wù)方案。用戶(hù)即使能說(shuō)明自己的訴求,也很難左右公司在技術(shù)路線方面的規(guī)劃。此外,商業(yè)公司使用的認(rèn)知技術(shù)本就由于商業(yè)機(jī)密的原因而不能公開(kāi)相關(guān)的細(xì)節(jié),相關(guān)的監(jiān)管手段也難以觸及算法層面。因此,專(zhuān)家應(yīng)當(dāng)承擔(dān)協(xié)調(diào)者的角色,調(diào)節(jié)公司和用戶(hù)之間的不對(duì)等關(guān)系,平衡商業(yè)利益和用戶(hù)利益,通過(guò)不斷改良認(rèn)知技術(shù)產(chǎn)品與用戶(hù)之間的互動(dòng),提升認(rèn)知技術(shù)設(shè)備的使用性能和安全水平,促進(jìn)認(rèn)知域內(nèi)部的交互與認(rèn)知載體的耦合。
個(gè)人層面。隨著認(rèn)知域的延展,認(rèn)知技術(shù)已經(jīng)成為了人類(lèi)生活的背景。人類(lèi)要想在智能化、自動(dòng)化、信息化的認(rèn)知背景中掌握主動(dòng)權(quán),就需要注重提升自身的“數(shù)字素養(yǎng)”(digital literacy),理解并利用好認(rèn)知技術(shù)。
所謂“數(shù)字素養(yǎng)”,指的是“理解并利用通過(guò)計(jì)算機(jī)呈現(xiàn)的多種來(lái)源、不同形式的信息的能力”。[16]當(dāng)前,“我國(guó)的公民數(shù)字素養(yǎng)平均水平不高,特定區(qū)域群體的數(shù)字素養(yǎng)與技能與其他區(qū)域群體存在較大差距”。[17]這不僅要求人們學(xué)會(huì)運(yùn)用數(shù)字技能滿(mǎn)足信息需求,而且需要人們能夠辨別利用認(rèn)知技術(shù)獲得的信息。就以前文提到的虛假信息和無(wú)意義信息所造成的認(rèn)知威脅為例,一方面,企業(yè)可以升級(jí)技術(shù)手段,從客觀上降低認(rèn)知域被侵入的可能;另一方面,應(yīng)盡可能教育公眾提升認(rèn)知辨別能力,如識(shí)別真假字跡、發(fā)現(xiàn)換臉視頻中奇怪的表情、人造音頻中不合理的唱法等,以避免虛假信息給認(rèn)知域帶來(lái)侵害。
此外,人們?cè)诶谜J(rèn)知技術(shù)的同時(shí),還應(yīng)注重對(duì)智能本身的理解與評(píng)估。一方面,在人類(lèi)智能之外還有動(dòng)物智能、機(jī)器智能;通過(guò)研究其他的智能,人們可以認(rèn)識(shí)到其他的認(rèn)知機(jī)制,發(fā)現(xiàn)人類(lèi)自身在認(rèn)知上的優(yōu)缺點(diǎn),從而明確可以改善認(rèn)知能力的方向。而且,每種智能的衡量方式也是不一樣的;當(dāng)人們的認(rèn)知域不再是單純的內(nèi)部因素時(shí),人們也需要改變衡量智能的方式,來(lái)評(píng)價(jià)自己在認(rèn)知水平上的變化。這意味著針對(duì)人類(lèi)設(shè)計(jì)的IQ測(cè)試需要被替換成可衡量異質(zhì)系統(tǒng)的多維度評(píng)價(jià)體系。而挑選衡量標(biāo)準(zhǔn)的需求反過(guò)來(lái)又要求人們理解其他智能的運(yùn)行機(jī)制。另一方面,人類(lèi)難免有偏見(jiàn),人類(lèi)設(shè)計(jì)的認(rèn)知技術(shù)設(shè)備也是如此。有研究發(fā)現(xiàn),在人們的自然語(yǔ)言中,人們更傾向于將典型的女性名字與家庭詞而不是職業(yè)詞配對(duì),將典型的非裔美國(guó)人名與令人不悅的詞匯相連,將典型的男性名字與科學(xué)、數(shù)學(xué)詞匯關(guān)聯(lián)等。[18]因?yàn)樽匀徽Z(yǔ)言中存在這些潛在偏見(jiàn),人們使用自然語(yǔ)言訓(xùn)練認(rèn)知技術(shù)設(shè)備時(shí),這些偏見(jiàn)自然而然地滲透到了技術(shù)設(shè)備中。因此,當(dāng)人們與這些設(shè)備發(fā)生交互時(shí),可以通過(guò)設(shè)備輸出的異常結(jié)果來(lái)認(rèn)識(shí)自己的偏見(jiàn),并由此能夠更加深入地理解認(rèn)知域中不同要素之間是如何相互關(guān)聯(lián)和協(xié)同作用的。同時(shí),為了提升認(rèn)知域的合作質(zhì)量,人們也應(yīng)該思考如何向設(shè)備輸入高質(zhì)量的、少偏見(jiàn)的訓(xùn)練數(shù)據(jù),讓整個(gè)認(rèn)知域產(chǎn)出的結(jié)果變得相對(duì)公正。
結(jié)論
認(rèn)知域包含的不僅僅是人類(lèi)大腦內(nèi)部的因素,它還可以囊括人們所使用的認(rèn)知技術(shù)設(shè)備,甚至容納社會(huì)機(jī)構(gòu)等更多異質(zhì)性的構(gòu)成要素。面對(duì)認(rèn)知域的延展,人們?cè)诟叨戎匾曊J(rèn)知安全問(wèn)題的同時(shí),應(yīng)該清楚地認(rèn)識(shí)到認(rèn)知域延展過(guò)程中出現(xiàn)的“人—技”關(guān)系新特點(diǎn)。人們需要建立與認(rèn)知技術(shù)合作共存的信心,準(zhǔn)備好應(yīng)對(duì)策略。對(duì)于政府來(lái)說(shuō),需要考慮制定規(guī)則防止他人侵犯?jìng)€(gè)人的認(rèn)知域,創(chuàng)造安全的認(rèn)知環(huán)境。對(duì)于專(zhuān)家來(lái)說(shuō),需要在認(rèn)知技術(shù)設(shè)備的設(shè)計(jì)中納入更全面的倫理考量,促進(jìn)認(rèn)知域內(nèi)的人機(jī)順暢交互。對(duì)于民眾來(lái)說(shuō),需要提升自己的數(shù)字素養(yǎng),學(xué)會(huì)用好認(rèn)知技術(shù),在與認(rèn)知技術(shù)的交互中增強(qiáng)認(rèn)知能力,實(shí)現(xiàn)認(rèn)知主體和認(rèn)知技術(shù)的協(xié)調(diào)發(fā)展。
(本文系教育部人文社會(huì)科學(xué)重點(diǎn)研究基地重大項(xiàng)目“當(dāng)代認(rèn)知哲學(xué)基礎(chǔ)理論問(wèn)題研究”的階段性成果,項(xiàng)目編號(hào):22JJD720007;北京大學(xué)哲學(xué)系博士研究生廖新媛、楊軍潔對(duì)本文亦有重要貢獻(xiàn))
注釋
[1]P. Smart, "The Web–Extended Mind," Metaphilosophy, 2012, 43(4).
[2]A. Clark and D. Chalmers, "The Extended Mind," Analysis, 1998, 58(1).
[3]劉曉力:《延展認(rèn)知與延展心靈論辨析》,《中國(guó)社會(huì)科學(xué)》,2010年第1期。
[4]D. Chalmers, Reality+: Virtual worlds and the problems of philosophy, W. W. Norton & Company, 2022.
[5]D. S. Alberts, "Network centric warfare: current status and way ahead," Journal of Defence Science, 2003, 8(3).
[6]K. Sterelny, "Minds: Extended or scaffolded?" Phenomenology and the Cognitive Sciences, 2021, 9(4).
[7]J. A. Carter. "Varieties of (Extended) Thought Manipulation," in M. J. Blitz and J. C. Bublitz (eds.), The Law and Ethics of Freedom of Thought, Volume 1, Springer International Publishing, 2021, pp. 291–309.
[8]D. Ihde, A phenomenology of technics, Chichester UK: Wiley–Blackwell, 2010.
[9]G. Marcus, "Deep Learning: A Critical Appraisal," ArXiv, 2018.
[ 0]J. Zerilli, et al., "Transparency in Algorithmic and Human Decision–Making: Is There a Double Standard?" Philosophy & Technology, 2019, 32(4).
[11]P. Smart, "Human–extended machine cognition," Cognitive Systems Research, 2018, 49.
[12]A. E. Buchanan, Beyond humanity? The ethics of biomedical enhancement, Oxford University Press, 2011.
[13]N. Levy, Neuroethics: Challenges for the 21st Century, Cambridge University Press, 2007.
[14]M. Blitz, "Freedom of Thoughts for the Extended Mind: Cognitive Enhancement and the Constitution," Wisconsin Law Review, 2010, 4.
[15]J. A. Carter and S. O. Palermos, "Is Having Your Computer Compromised a Personal Assault? The Ethics of Extended Cognition," Journal of the American Philosophical Association, 2016, 2(4).
[16]P. Gilster, Digital literacy, New York: Wiley Computer Pub, 1997.
[17]李正風(fēng)、王碩:《數(shù)字素養(yǎng)、數(shù)據(jù)權(quán)利與數(shù)字倫理》,《科普研究》,2022年第6期。
[18]G. M. Johnson, "Algorithmic bias: On the implicit biases of social technology," Synthese, 2021, 198(10).
Extended Cognition: Security Challenges and Strategies
Zhou Cheng
Abstract: The cognitive domain, encompassing the content and space of cognitive activities, has been considered as confined solely to the human brain. However, more and more scholars now argue that human cognition can be partially composed by factors outside of human brains, resulting in the extension of the cognitive domain to include various elements, such as cognitive technology. The concept of extended cognition raises concerns regarding the potential intrusion of false information and manipulation of individuals' cognitive domains. Consequently, addressing the security challenges associated with extended cognition necessitates a comprehensive understanding of the intricate "human-technology relations". Meanwhile, cognitive security requires a collaborative approach involving ethical and legal considerations, technical design, and digital literacy, which should involve joint efforts from governments, experts, and individuals.
Keywords: cognitive domain, cognition extension, cognitive security, false information, man-machine collaboration