【摘要】人工智能技術(shù)在工業(yè)和商業(yè)領(lǐng)域蓬勃興起,為現(xiàn)代社會(huì)注入新動(dòng)能。與此同時(shí),人工智能技術(shù)也存在倫理責(zé)任主體缺失、社會(huì)失業(yè)人數(shù)增加、個(gè)人信息和隱私泄露、智能技術(shù)失控等問題。對(duì)此,應(yīng)建立人工智能技術(shù)倫理規(guī)制,加強(qiáng)算法權(quán)力法律規(guī)約,完善專業(yè)人才隊(duì)伍建設(shè)和相關(guān)業(yè)務(wù)培訓(xùn),對(duì)確保人工智能技術(shù)符合人類共同利益和普遍價(jià)值的發(fā)展方向尤為必要。
【關(guān)鍵詞】人工智能時(shí)代 風(fēng)險(xiǎn)隱憂 制度防范 【中圖分類號(hào)】D035 【文獻(xiàn)標(biāo)識(shí)碼】A
隨著大數(shù)據(jù)、云計(jì)算和神經(jīng)網(wǎng)絡(luò)等技術(shù)快速發(fā)展,人工智能技術(shù)已經(jīng)滲透到社會(huì)各個(gè)角落,對(duì)人們生產(chǎn)、生活和思維方式產(chǎn)生了深遠(yuǎn)影響。以網(wǎng)絡(luò)神經(jīng)元為支撐的深度學(xué)習(xí)系統(tǒng)正深入各個(gè)行業(yè)和場(chǎng)景,為經(jīng)濟(jì)社會(huì)發(fā)展注入強(qiáng)大動(dòng)力。同時(shí)也要看到,一旦人工智能技術(shù)達(dá)到超級(jí)模仿、無(wú)限放大的程度,將會(huì)危及人類切身利益,并引發(fā)一系列問題,如失業(yè)問題、道德風(fēng)險(xiǎn)、社會(huì)倫理問題等。全面認(rèn)識(shí)人工智能的潛在風(fēng)險(xiǎn),深入分析人工智能技術(shù)與社會(huì)風(fēng)險(xiǎn)的內(nèi)在聯(lián)系,提出規(guī)范人工智能技術(shù)的有效舉措,對(duì)維護(hù)社會(huì)根本利益和人民長(zhǎng)遠(yuǎn)利益具有重要意義。
人工智能時(shí)代的到來(lái)
長(zhǎng)期以來(lái),人類對(duì)人工智能發(fā)展和前景都存有極大的好奇和憧憬,并試圖通過各種不同機(jī)器程序來(lái)模擬人類思維,希望將人類從繁重的體力勞動(dòng)中解放出來(lái)。2016年3月,AlphaGo和韓國(guó)棋王李世石在韓國(guó)首爾進(jìn)行一場(chǎng)比賽,AlphaGo在大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的支持下,憑借出奇制勝的算法和謀略,以總比分4比1擊敗了李世石,讓各方大跌眼鏡。從AlphaGo身上可以看到,新一代人工智能已經(jīng)基本具備人類智能,其憑借強(qiáng)大的學(xué)習(xí)能力和算法技術(shù)支持,在不遠(yuǎn)的將來(lái)完全有可能超越人類,并對(duì)社會(huì)生產(chǎn)生活各個(gè)方面產(chǎn)生深刻影響,這在人工智能發(fā)展史上具有劃時(shí)代意義。更為要害的是,人工智能技術(shù)具有以往技術(shù)不曾具有的內(nèi)在特質(zhì),顛覆了人類獲取知識(shí)的傳統(tǒng)模式,并對(duì)思想觀念、價(jià)值理念、行為方式產(chǎn)生革命性影響。
第一,以個(gè)性化社會(huì)生產(chǎn)方式推動(dòng)人們思想觀念、價(jià)值判斷的多重變革。人工智能技術(shù)實(shí)現(xiàn)了對(duì)以往機(jī)器技術(shù)和智能化功能的升級(jí)改造。新一代智能系統(tǒng)變得更加聰明,更加善解人意,成為人們?nèi)找嬗H密的合作“伙伴”,擺脫了舊式分工的束縛,把人們從繁重單調(diào)的工作中解放出來(lái)。人工智能技術(shù)不是刻板地模擬人類的大腦結(jié)構(gòu),也不是簡(jiǎn)單地模仿人腦工作原理,而是一種創(chuàng)造性的模擬。它通過海量數(shù)據(jù)分析和科學(xué)推斷,為人類提供個(gè)性化服務(wù),有力地支撐了人類思維創(chuàng)新和產(chǎn)品創(chuàng)新。人工智能系統(tǒng)被賦予“豐富的知識(shí)”“敏捷的思維”“冷靜的態(tài)度”等多面的外在表征,通過分析海量數(shù)據(jù)來(lái)幫助人們觀察社會(huì)變遷,全面把握社會(huì)發(fā)展變化趨勢(shì),為科學(xué)認(rèn)識(shí)世界和改造世界提供指導(dǎo)。
第二,以神經(jīng)網(wǎng)絡(luò)模型為原理的深度學(xué)習(xí)推動(dòng)社會(huì)相關(guān)行業(yè)和領(lǐng)域的技術(shù)變革。在諸多人工智能學(xué)習(xí)模式中,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)是借鑒人類大腦結(jié)構(gòu)及功能的學(xué)習(xí)模型,通過神經(jīng)元節(jié)點(diǎn)連接組成的網(wǎng)絡(luò),模擬大腦信息處理、知識(shí)表征和學(xué)習(xí)過程,從而完成處理海量信息的任務(wù),這是人工智能技術(shù)強(qiáng)大的關(guān)鍵所在。深度學(xué)習(xí)的特殊之處在于它在面對(duì)復(fù)雜對(duì)象時(shí),能夠通過多層提煉、分析總結(jié),在沒有預(yù)設(shè)性條件下實(shí)現(xiàn)自我學(xué)習(xí)和自我創(chuàng)新。近年來(lái),深度學(xué)習(xí)在圖像識(shí)別、語(yǔ)音識(shí)別、自動(dòng)駕駛、機(jī)器翻譯等方面的突破性進(jìn)展,引起了較大的社會(huì)反響。
第三,人工智能技術(shù)在商業(yè)領(lǐng)域廣泛應(yīng)用,延伸社會(huì)產(chǎn)品服務(wù)鏈、產(chǎn)業(yè)鏈和價(jià)值鏈。新一代人工智能技術(shù),無(wú)論是在社會(huì)適用范圍上,還是在自動(dòng)化、智能化水平上,都達(dá)到前所未有的程度。隨著人工智能技術(shù)被廣泛運(yùn)用到自動(dòng)駕駛、生物識(shí)別、醫(yī)療健康、保險(xiǎn)投資等多個(gè)領(lǐng)域,其內(nèi)在社會(huì)價(jià)值和商業(yè)價(jià)值逐步彰顯。目前,人工智能技術(shù)以全方位、多領(lǐng)域的方式改變著人類社會(huì)的生存方式和運(yùn)行結(jié)構(gòu),并很快形成了巨大的經(jīng)濟(jì)效益和社會(huì)效益。
人工智能時(shí)代的風(fēng)險(xiǎn)隱憂
在智能技術(shù)產(chǎn)生之前,所有技術(shù)和發(fā)明創(chuàng)造都可以看作是人類身體器官的投影或放大。第一代和第二代人工智能也不過是利用數(shù)據(jù)和技術(shù)工具對(duì)人腦思維能力無(wú)限放大、延伸或投影的嘗試。人工智能潛在風(fēng)險(xiǎn)可能會(huì)蘊(yùn)含于人類新技術(shù)產(chǎn)生之中,也可能會(huì)內(nèi)嵌于社會(huì)制度風(fēng)險(xiǎn)中。由于時(shí)代變化和不可預(yù)測(cè)性,加上不同民族、文化、經(jīng)濟(jì)等條件的影響和制約,它不僅具有復(fù)雜性、綜合性的特點(diǎn),而且?guī)в腥蛐院蛥^(qū)域性共存、自然地理特征與文化融合的特征。
人工智能技術(shù)帶來(lái)的倫理風(fēng)險(xiǎn)。在人工智能倫理規(guī)約設(shè)計(jì)中,技術(shù)設(shè)計(jì)目標(biāo)與技術(shù)行為后果陷入不相協(xié)調(diào)的兩難境地:一方面,人們希望通過科技發(fā)展給人們生產(chǎn)生活帶來(lái)更多便利;另一方面,他們又不希望技術(shù)發(fā)展僭越倫理規(guī)范預(yù)設(shè)的行為邊界。人工智能風(fēng)險(xiǎn)的獨(dú)特性和現(xiàn)行規(guī)制的局限性加劇了技術(shù)風(fēng)險(xiǎn)爆發(fā)的可能性。目前,人工智能已經(jīng)造成難以應(yīng)對(duì)的各種風(fēng)險(xiǎn),如與大數(shù)據(jù)技術(shù)結(jié)合后的人工智能技術(shù),以及對(duì)復(fù)雜問題的分析帶有種族主義和性別歧視。自動(dòng)駕駛、無(wú)人駕駛技術(shù)的應(yīng)用使人類時(shí)常面臨著意想不到的道德困境。在這種情況下,人工智能倫理責(zé)任界定成為了不可回避的現(xiàn)實(shí)問題。
人工智能時(shí)代面臨的社會(huì)結(jié)構(gòu)性失業(yè)。2013年9月,牛津大學(xué)研究者卡爾·弗瑞(Carl Benedikt Frey)及邁克爾·奧斯本(Michael A. Osborne)發(fā)表了《就業(yè)的未來(lái)》研究報(bào)告,調(diào)查各項(xiàng)工作在未來(lái)20年被計(jì)算機(jī)取代的可能性。根據(jù)算法估計(jì),美國(guó)有47%的工作有很高風(fēng)險(xiǎn)被計(jì)算機(jī)取代。麻省理工學(xué)院教授邁克斯·泰格馬克(Max Tegmark)針對(duì)如何分析未來(lái)職業(yè)被計(jì)算機(jī)取代的可能性提出了三條判斷標(biāo)準(zhǔn),即該工作是否需要與人互動(dòng)?該工作是否涉及創(chuàng)造性?該工作是否需要在不可預(yù)測(cè)的環(huán)境下進(jìn)行?根據(jù)分析,對(duì)于教師、護(hù)士、科學(xué)家、企業(yè)家、程序員、藝術(shù)家等具有更多創(chuàng)造性,需要與人打交道的工作,相對(duì)比較安全;對(duì)收銀員、貨車司機(jī)、廚師等職業(yè),這些具有高度重復(fù)、結(jié)構(gòu)化以及可以預(yù)測(cè)的工作看起來(lái)不久將要被機(jī)器自動(dòng)化取代。
人工智能技術(shù)可能引發(fā)個(gè)人信息泄露和隱私權(quán)侵犯問題。人工智能系統(tǒng)本質(zhì)是通過從外部輸入涉及個(gè)人、商業(yè)、政府等大量信息的海量數(shù)據(jù)來(lái)訓(xùn)練學(xué)習(xí)算法,然而所涉及大量數(shù)據(jù)無(wú)法通過傳統(tǒng)數(shù)據(jù)分析軟件和程序?qū)?shù)據(jù)有效地分析、攝取和管理,這些信息一旦泄露會(huì)給政府和個(gè)人帶來(lái)極大風(fēng)險(xiǎn)。2018年3月18日,劍橋數(shù)據(jù)分析公司就被爆出對(duì)Facebook上5000萬(wàn)個(gè)人用戶資料進(jìn)行不當(dāng)分析,并干擾2016年的美國(guó)大選。為此,美國(guó)國(guó)會(huì)和歐盟議會(huì)要求Facebook就個(gè)人隱私數(shù)據(jù)泄露接受質(zhì)詢并追究其責(zé)任。
人工智能時(shí)代隱含著技術(shù)失控風(fēng)險(xiǎn)。據(jù)專家估計(jì),根據(jù)目前人工智能系統(tǒng)發(fā)展態(tài)勢(shì),21世紀(jì)中葉極有可能出現(xiàn)“具有人類思維水平的機(jī)器智能”,甚至出現(xiàn)能夠相互學(xué)習(xí)、相互作用、自我完善而不斷升級(jí)的“超級(jí)智能組織”。但是,具有自主意識(shí)的超級(jí)智能很有可能突破設(shè)計(jì)者預(yù)先設(shè)定的臨界點(diǎn)而走向“失控”,進(jìn)而反過來(lái)對(duì)人類進(jìn)行控制和統(tǒng)治。
人工智能社會(huì)的制度防范
面對(duì)人工智能技術(shù)的迅猛發(fā)展,不應(yīng)采取消極甚至排斥的態(tài)度,將其置于人類社會(huì)發(fā)展的對(duì)立面,而是應(yīng)當(dāng)從倫理層面展開反思,慎思技術(shù)開發(fā)和運(yùn)用的制度性規(guī)范,嚴(yán)格約束責(zé)任主體的行為,以積極行動(dòng)解決人工智能技術(shù)發(fā)展過程中面臨的難題。
建立人工智能技術(shù)的倫理規(guī)制。建立過程中要考慮人類整體利益和最高利益,建立人機(jī)共生協(xié)作的密切關(guān)系,在人工智能設(shè)計(jì)和運(yùn)用中堅(jiān)持人類的基本價(jià)值原則。堅(jiān)持人類基本價(jià)值原則,最為根本的是堅(jiān)持人本原則、公開原則和責(zé)任原則。人本原則就是要堅(jiān)持以人為本的原則,滿足人工智能造福人類的崇高目的。既不能像反對(duì)技術(shù)的浪漫主義那樣拒斥、放棄人工智能造福人類社會(huì)的機(jī)會(huì),也不能放任自流,給人類帶來(lái)技術(shù)失控的風(fēng)險(xiǎn)。公正原則,是指讓更多人獲得益處,成果讓多數(shù)人共享的同時(shí),防止“資本邏輯”的橫行,并建立健全社會(huì)福利保障體系,對(duì)弱勢(shì)群體、落后地區(qū)進(jìn)行扶持,切實(shí)維護(hù)各方的尊嚴(yán)和合法權(quán)益。責(zé)任原則,是指人工智能研發(fā)、應(yīng)用和管理過程中,必須確定不同道德主體的權(quán)利和義務(wù),一旦人工智能系統(tǒng)出現(xiàn)破壞性后果,不同責(zé)任主體必須及時(shí)作出回應(yīng)并采取相應(yīng)措施。
加強(qiáng)算法技術(shù)權(quán)力的法律規(guī)約。人工智能技術(shù)發(fā)展程度受制于算法權(quán)力變量,然而算法權(quán)力過大會(huì)引發(fā)資本和權(quán)力操控的風(fēng)險(xiǎn),帶來(lái)人工智能技術(shù)異化傾向。應(yīng)合理界定算法技術(shù)的權(quán)力,調(diào)整不同社會(huì)資本利用分配,避免因受到特定集團(tuán)利益支配而導(dǎo)致的算法權(quán)力濫用?,F(xiàn)代社會(huì)算法技術(shù)的研發(fā)應(yīng)用主要依托物聯(lián)網(wǎng)企業(yè),算法權(quán)力遵循市場(chǎng)邏輯,在利益誘導(dǎo)下呈現(xiàn)出一定的歧視性和偏好性。人工智能算法結(jié)果并不單純是技術(shù)自動(dòng)化的結(jié)果,而是遵循著人工編譯的運(yùn)算規(guī)則和程序規(guī)范,蘊(yùn)含著程序設(shè)計(jì)者的價(jià)值導(dǎo)向和意識(shí)形態(tài)觀念。要確保智能技術(shù)在良性軌道上運(yùn)行,需要在人工智能算法程序中賦予一定的權(quán)力限制。通過完善法律規(guī)范,將法的價(jià)值和理念融入算法程序,將算法技術(shù)馴化為服從人類根本利益和普遍價(jià)值的工具。從人工智能算法權(quán)力運(yùn)行程度看,應(yīng)不斷完善算法技術(shù)的程序,完善算法程序設(shè)計(jì)的監(jiān)督環(huán)節(jié),細(xì)化算法計(jì)算相關(guān)法律條文,追究因技術(shù)失范帶來(lái)的法律責(zé)任。
建立可信任的人工智能發(fā)展制度。人工智能技術(shù)在現(xiàn)實(shí)層面上還面臨不少難題,要加強(qiáng)對(duì)人工智能技術(shù)的法律規(guī)制,既要考慮到人工智能技術(shù)創(chuàng)新需要一定的發(fā)展空間,也需要考慮到用法律制度來(lái)保障人工智能技術(shù)應(yīng)用的合理性。如果因人工智能可能帶來(lái)風(fēng)險(xiǎn)而對(duì)智能技術(shù)開發(fā)責(zé)任設(shè)置嚴(yán)格法律限制,或者因人工智能技術(shù)水平不夠成熟為此降低門檻,都會(huì)影響到人工智能企業(yè)健康發(fā)展。這其中的界限需要監(jiān)管部門和專業(yè)人士開展深入合作,從專利制度、侵權(quán)責(zé)任和政府管制等方面進(jìn)行綜合考慮。
完善人工智能技術(shù)人才支撐。加強(qiáng)人工智能倫理教育和技術(shù)培訓(xùn)。將符合特定倫理價(jià)值的倫理規(guī)范融入教育培訓(xùn)內(nèi)容中,增強(qiáng)全社會(huì)對(duì)人工智能技術(shù)的共識(shí),根據(jù)不同教育對(duì)象因材施教。在學(xué)校系統(tǒng)教育中,側(cè)重對(duì)學(xué)生開展人工智能的倫理道德教育,提高對(duì)人工智能道德規(guī)范認(rèn)識(shí),增強(qiáng)人工智能技術(shù)安全意識(shí)。加強(qiáng)職業(yè)技術(shù)培訓(xùn),提高解決人工智能技術(shù)應(yīng)用問題的能力。在政府培訓(xùn)中,政府公職人員作為政策的制定者、執(zhí)行者,需要準(zhǔn)確理解未來(lái)人工智能的相關(guān)政策。加強(qiáng)人工智能技術(shù)實(shí)際應(yīng)用知識(shí)學(xué)習(xí),提升科學(xué)素養(yǎng)、倫理素養(yǎng)以滿足人工智能社會(huì)發(fā)展要求。在社會(huì)開放教育中,開展人工智能知識(shí)普及教育,通過網(wǎng)絡(luò)、電視、互聯(lián)網(wǎng)等多種公眾媒體全方位加強(qiáng)人工智能知識(shí)的宣傳教育,消除公眾對(duì)人工智能的恐懼感和陌生感,增強(qiáng)人工智能的人性化、科學(xué)化的知識(shí)教育,努力創(chuàng)造有溫度、有力度的社會(huì)倫理教育環(huán)境。
(作者為齊魯工業(yè)大學(xué)(山東省科學(xué)院)馬克思主義學(xué)院講師,山東大學(xué)政治學(xué)與公共管理學(xué)院博士后)
【注:本文系山東省社會(huì)科學(xué)規(guī)劃項(xiàng)目“基于人與自然和諧共生的現(xiàn)代化研究”(項(xiàng)目編號(hào):19CXSXJ14)及2020年山東省人文社會(huì)科學(xué)項(xiàng)目“高校專業(yè)課和思政課同向而行的內(nèi)在機(jī)理和實(shí)現(xiàn)路徑研究”(項(xiàng)目編號(hào):2020-ZXGJ-04)研究成果】
【參考文獻(xiàn)】
①[美]哈里·亨德森著、王華等譯:《人工智能之路》,上海:科學(xué)技術(shù)文獻(xiàn)出版社,2019年。
②李恒威、王昊晟:《人工智能威脅論溯因》,《浙江學(xué)刊》,2019年第2期。
③何清、李寧等:《大數(shù)據(jù)下的機(jī)器學(xué)習(xí)算法綜述》,《模式識(shí)別與人工智能》,2014年第4期。
責(zé)編/俞海韻(見習(xí)) 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。