【摘要】人工智能是引領(lǐng)未來的戰(zhàn)略性技術(shù),主要發(fā)達(dá)國(guó)家都將其作為提升國(guó)家競(jìng)爭(zhēng)力、維護(hù)國(guó)家安全、占據(jù)前沿科技主導(dǎo)權(quán)的重大戰(zhàn)略。中國(guó)推動(dòng)人工智能發(fā)展戰(zhàn)略,是中國(guó)作為全球性大國(guó)提升綜合實(shí)力和順應(yīng)國(guó)際形勢(shì)發(fā)展的產(chǎn)物。然而,人工智能又是一種顛覆性的技術(shù),我們要對(duì)人工智能的負(fù)面影響和沖擊充分預(yù)估,構(gòu)筑人工智能多層次治理體系。人工智能治理既是其技術(shù)和運(yùn)用發(fā)展到一定階段的必然結(jié)果,又是對(duì)其研究、開發(fā)、生產(chǎn)和運(yùn)用過程中可能會(huì)出現(xiàn)的公共安全、道德倫理等問題進(jìn)行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程。中國(guó)作為人工智能大國(guó),應(yīng)抓住未來發(fā)展機(jī)遇,積極參與國(guó)際人工智能規(guī)則和標(biāo)準(zhǔn)設(shè)計(jì),為人工智能全球治理貢獻(xiàn)中國(guó)智慧,以“善治”謀求人工智能的“善智”而造福于人類。
【關(guān)鍵詞】人工智能 道德倫理 規(guī)則標(biāo)準(zhǔn) 全球治理
【中圖分類號(hào)】TP18 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2017.20.006
前言
人工智能是人類科技文明發(fā)展到一定階段的產(chǎn)物,是研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的技術(shù)科學(xué)。作為一種快速發(fā)展的并具有劃時(shí)代意義的高科技,其廣泛應(yīng)用必將對(duì)現(xiàn)代人類社會(huì)發(fā)展產(chǎn)生全面而又深刻的影響。人工智能將極大地促進(jìn)全要素生產(chǎn)率提升,據(jù)埃森哲發(fā)布的報(bào)告預(yù)測(cè),2035年人工智能預(yù)期可以為12個(gè)發(fā)達(dá)經(jīng)濟(jì)體帶來兩倍的經(jīng)濟(jì)增長(zhǎng)速度,中國(guó)的經(jīng)濟(jì)增長(zhǎng)率將從6.3%提速至7.9%。①軍事上,人工智能和機(jī)器人有可能大規(guī)模投入未來戰(zhàn)場(chǎng),或?qū)⒏淖儜?zhàn)爭(zhēng)模式乃至國(guó)際軍事格局。人工智能在極大地解放生產(chǎn)力的同時(shí),也將深刻地改變?nèi)祟惖纳a(chǎn)方式、工作方式和生活方式。然而,作為一種顛覆性的技術(shù),我們要對(duì)人工智能的負(fù)面影響和沖擊充分預(yù)估,理性思考人工智能的安全治理問題。實(shí)際上,一些科學(xué)家、有識(shí)之士以及社會(huì)各界也開始認(rèn)識(shí)到這一問題的重要性。一般來說,安全性評(píng)估和審慎監(jiān)管原則適合于任何一項(xiàng)科學(xué)技術(shù)革命,但由于人類利益動(dòng)機(jī)、預(yù)估不足、外部性和道德風(fēng)險(xiǎn)等問題的存在,往往導(dǎo)致治理滯后、治理赤字和治理失靈等現(xiàn)象,如工業(yè)革命以來走過的“先污染,后治理”的教訓(xùn)以及溫室氣體排放與氣候談判的曲折等,都是這一問題的表現(xiàn)。人工智能由于其技術(shù)復(fù)雜性、擴(kuò)展性、不可控性和不可預(yù)知性,可能更需要做好風(fēng)險(xiǎn)預(yù)估和防范,引導(dǎo)其健康、有序、安全發(fā)展,以規(guī)范人工智能研發(fā)、生產(chǎn)和消費(fèi)秩序,通過對(duì)人工智能的“善治”謀求人工智能造福于人類的“善智”。②
人工智能引發(fā)的治理問題
人類社會(huì)需要面對(duì)人工智能正在發(fā)生的問題,也需要預(yù)估、評(píng)判和預(yù)防未來人工智能發(fā)展可能引發(fā)的問題。應(yīng)該說,從問題的嚴(yán)重性來講,人們最擔(dān)心的是未來人工智能對(duì)人類生存的挑戰(zhàn)。從科學(xué)家霍金的“人類最后的文明”到人工智能預(yù)測(cè)家?guī)炱濏f爾全面超越人類智慧的“奇點(diǎn)”論,都表現(xiàn)為對(duì)人工智能未來的“超人類性”、“另人類性”以及“非可控性”的擔(dān)憂。在霍金看來,人工智能的廣泛使用具有極高的風(fēng)險(xiǎn)性,一方面人工智能帶來的收益是巨大的,人類或許可以借助這一強(qiáng)大的工具,減少工業(yè)化對(duì)自然的傷害。但是“我們不確定我們是會(huì)被智能無限地幫助,還是被無限地邊緣化,甚至毀滅”,人工智能的崛起可能是人類文明的終結(jié)。因此,人類必須建立有效機(jī)制盡早識(shí)別威脅所在,防止人工智能對(duì)人類帶來的威脅進(jìn)一步上升。③