黄色网页在线观看,开放性按摩在线观看,探花国产精品福利,三级特黄60分钟在线播放,一本久道久久综合中文字幕,五月婷婷激情网,久久精品国产精品国产精品污

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 理論前沿 > 深度原創(chuàng) > 正文

人工智能是否應(yīng)具有法律主體地位

【摘要】人工智能技術(shù)發(fā)展如火如荼,也引發(fā)了相關(guān)法律問(wèn)題的激烈討論。面對(duì)人工智能帶來(lái)的新型權(quán)利分配和責(zé)任承擔(dān)問(wèn)題,有人提出應(yīng)賦予強(qiáng)人工智能,甚至是特定的弱人工智能以某種形式的法律主體地位來(lái)應(yīng)對(duì)。然而這一路徑看似便捷,卻忽視了人工智能無(wú)法充分承擔(dān)責(zé)任的情形,也未充分考慮人工智能發(fā)展與人類(lèi)中心主義的社會(huì)規(guī)則產(chǎn)生的沖突。

【關(guān)鍵詞】人工智能 法律主體 人類(lèi)中心主義 【中圖分類(lèi)號(hào)】D90 【文獻(xiàn)標(biāo)識(shí)碼】A

人工智能已成為近幾年的熱門(mén)詞匯,發(fā)展勢(shì)頭迅猛,這也同時(shí)引發(fā)了人們對(duì)人工智能可能造成的法律風(fēng)險(xiǎn)的熱烈討論,其中一個(gè)非常重要的理論問(wèn)題就是人工智能是否應(yīng)被視為法律主體。法律主體是能夠締結(jié)法律關(guān)系的“人”,因各個(gè)國(guó)家法律制度的差異,大致包括自然人、法人、非法人團(tuán)體,甚至是一些非生命物體,如河流、公園、生態(tài)環(huán)境等。法律主體的確定對(duì)解決任何爭(zhēng)議都至關(guān)重要,因?yàn)橹挥邢却_定法律主體,才能接下來(lái)討論法律責(zé)任的分配問(wèn)題。對(duì)人工智能應(yīng)否被承認(rèn)為法律主體的討論也因此而起。

人工智能可以劃分為弱人工智能和強(qiáng)人工智能,法律主體地位問(wèn)題主要針對(duì)強(qiáng)人工智能

然而,并非所有人工智能都具備成為法律主體的特征。按照目前普遍接受的分類(lèi)方式,人工智能分為弱人工智能和強(qiáng)人工智能。弱人工智能系統(tǒng)只能執(zhí)行為其設(shè)計(jì)好的任務(wù),如語(yǔ)言翻譯、導(dǎo)航等,除了其既定程序之外做不了別的事情,因此其能力范圍很窄。目前應(yīng)用的所有人工智能,包括最復(fù)雜的通過(guò)機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)來(lái)自主提升的人工智能,都屬于弱人工智能的范疇。強(qiáng)人工智能可以完全像人類(lèi)一樣學(xué)習(xí)、認(rèn)知、理解并行動(dòng),能夠完成多個(gè)目標(biāo),甚至可以在不確定或者模糊的情況下獨(dú)立設(shè)定新目標(biāo)。事實(shí)上,強(qiáng)人工智能就是我們?cè)陔娪?、文學(xué)作品中所熟悉的機(jī)器人和人工智能的形象。但是,目前強(qiáng)人工智能還不存在,也有人對(duì)強(qiáng)人工智能究竟是否可能出現(xiàn)持懷疑態(tài)度。

因?yàn)槟壳皯?yīng)用的各類(lèi)人工智能都屬于弱人工智能,也就是專(zhuān)注于且只能解決特定領(lǐng)域問(wèn)題的人工智能,例如我們所熟知的AlphaGo。這些人工智能因能力所限,還屬于工具的范疇,是法律上的客體,人們對(duì)此定位并無(wú)爭(zhēng)議,也不在我們這里的討論范圍之內(nèi)。人們爭(zhēng)議的焦點(diǎn)是強(qiáng)人工智能,即能勝任人類(lèi)所有工作的人工智能。雖然目前技術(shù)上還無(wú)法實(shí)現(xiàn)強(qiáng)人工智能,但是很多科學(xué)家都很樂(lè)觀,認(rèn)為這一天很快會(huì)到來(lái),因此針對(duì)此類(lèi)人工智能的法律主體地位問(wèn)題開(kāi)展前瞻性的討論非常有必要。我們后面所提到的人工智能都是指強(qiáng)人工智能。

不少人提出人工智能應(yīng)成為法律主體,認(rèn)為人工智能可以自主決策、享受權(quán)利、承擔(dān)法律責(zé)任

目前,國(guó)內(nèi)外不少人認(rèn)為應(yīng)考慮賦予人工智能或者與法人主體類(lèi)似或者具有一定限制的法律主體地位,主要基于以下幾點(diǎn)理由:一是人工智能可以自主決策,具備和人類(lèi)一樣的“理性”和“自由意志”。持此觀點(diǎn)的人認(rèn)為,法律上主客體的根本區(qū)別在于是否具有“自由意志”,人工智能可以自主決策,表現(xiàn)出與人類(lèi)似的行為,能力與人類(lèi)已經(jīng)無(wú)異,符合法律主體的“自由意志”的要件,應(yīng)賦予其主體地位。況且,人工智能表現(xiàn)得與人如此類(lèi)似,人類(lèi)很容易與之共情,再將其視為工具或者為人類(lèi)服務(wù)的電子奴隸,倫理上和感情上都難以接受,賦予其法律主體地位才更為恰當(dāng)。

二是人工智能可以享受權(quán)利。人工智能成為法律主體可以解決目前人工智能創(chuàng)造物的知識(shí)產(chǎn)權(quán)權(quán)利分配的難題。事實(shí)上,人工智能創(chuàng)作出來(lái)的歌曲、詩(shī)歌等已經(jīng)達(dá)到了讓普通人類(lèi)受眾難以將之與其他人類(lèi)作品區(qū)分開(kāi)來(lái)的水平,不少人認(rèn)為應(yīng)將這樣的作品視為知識(shí)產(chǎn)權(quán)意義上的“作品”。但是這種做法卻難以在由誰(shuí)來(lái)?yè)碛羞@個(gè)作品的問(wèn)題上達(dá)成共識(shí)。目前認(rèn)為由算法設(shè)計(jì)者或者人工智能所有者擁有作品,或者甚至使此類(lèi)作品進(jìn)入公共流通領(lǐng)域的解決方案都難以自圓其說(shuō),若承認(rèn)人工智能為法律主體,則此類(lèi)問(wèn)題立即迎刃而解。

三是人工智能可以承擔(dān)法律責(zé)任,從而解決人工智能致害的責(zé)任分配問(wèn)題。在人工智能可以享受權(quán)利的情況下,其既可以擁有知識(shí)產(chǎn)權(quán)權(quán)利,也可以擁有其他財(cái)產(chǎn)權(quán)利以及獲得報(bào)酬等。因此,在對(duì)其他法律主體造成損害的情況下,人工智能可以用其所擁有的財(cái)產(chǎn)提供金錢(qián)上的救濟(jì)。從這個(gè)意義上來(lái)講,人工智能與法人非常類(lèi)似:獨(dú)立決策、擁有財(cái)產(chǎn)并承擔(dān)法律責(zé)任。而且因?yàn)槿斯ぶ悄茏灾鳑Q策,其導(dǎo)致的損害如果讓設(shè)計(jì)者、生產(chǎn)者或者擁有者其中任何一方或者共同來(lái)承擔(dān)責(zé)任都有失公平,讓人工智能獨(dú)立承擔(dān)責(zé)任更為恰當(dāng)。

人工智能成為法律主體存在不少潛在風(fēng)險(xiǎn),不應(yīng)賦予人工智能法律主體地位

盡管人工智能成為法律主體可以解決上述諸多問(wèn)題,但是此種做法帶來(lái)的不利后果卻應(yīng)更加重視。首先,人工智能的自主決策能力是算法運(yùn)行的結(jié)果,是對(duì)人類(lèi)行為的模擬,而非其自發(fā)產(chǎn)生的能力。實(shí)際上,人工智能是人造出來(lái)的產(chǎn)物,其生命產(chǎn)生機(jī)理以硅基為基礎(chǔ),與人類(lèi)這樣的碳基生物完全不同。因此,盡管人工智能可以學(xué)習(xí)、思考、決策,卻不會(huì)與人類(lèi)一樣感受痛苦,也不必面臨死亡。如果人工智能成為法律主體,因?yàn)槠淠芰σ呀?jīng)與人類(lèi)無(wú)異,將來(lái)甚至有可能迅速過(guò)渡到超人工智能時(shí)代。屆時(shí)整個(gè)社會(huì)將不再以“人類(lèi)為中心”。人工智能也許可以與人類(lèi)和平共處,但其更有可能成為人類(lèi)的強(qiáng)大競(jìng)爭(zhēng)對(duì)手,而且因其不會(huì)死亡,無(wú)法感知痛苦,允許人工智能成為和人類(lèi)一樣的法律主體,人類(lèi)很可能失去主體地位,淪為客體,甚至滅亡。

其次,權(quán)利對(duì)人工智能可能具有與人類(lèi)不同的意義。人工智能作為法律主體,可以享有大部分其他法律主體享有的權(quán)利,如包括知識(shí)產(chǎn)權(quán)在內(nèi)的財(cái)產(chǎn)權(quán)利,締約權(quán)利,甚至言論自由權(quán)利等。但是人工智能作為人造物,其價(jià)值追求與人類(lèi)并不一定相同,這些權(quán)利對(duì)其而言可能并不具備與對(duì)人類(lèi)相同的價(jià)值。比如人工智能無(wú)需積累財(cái)富,提升生活水平,追求幸福等。人工智能也可能不像人類(lèi)那樣有各種各樣的消費(fèi)需求。因此,人工智能在對(duì)其財(cái)產(chǎn)作出處分決定的時(shí)候可能并不會(huì)遵循人類(lèi)社會(huì)的經(jīng)濟(jì)規(guī)律。如果為了規(guī)避這一問(wèn)題而給人工智能配備監(jiān)護(hù)人,則人工智能的“自主決策”能力就失去了意義,也為人類(lèi)主體侵犯人工智能的財(cái)產(chǎn)權(quán)利留下了空間。

最后,人工智能承擔(dān)的法律責(zé)任有限。人工智能致人損害時(shí),僅能通過(guò)金錢(qián)賠償?shù)姆绞教峁┚葷?jì),在此種救濟(jì)方式不充分的情況下,通常適用于人類(lèi)的懲罰方式如緩刑、監(jiān)禁、死刑等都不適用于人工智能,因?yàn)槿斯ぶ悄芗炔粫?huì)感知痛苦,也不會(huì)死亡,有些甚至沒(méi)有固定的實(shí)體,這些刑罰方式對(duì)人工智能沒(méi)有震懾作用。雖然人工智能可以比較充分地承擔(dān)民事責(zé)任,但是其作為與人類(lèi)一樣擁有“自由意志”的法律主體,自主決策,并非像其他非人類(lèi)主體一樣由人類(lèi)代表其意志,卻可以不受懲罰地侵害其他法律主體的利益,或者更確切地說(shuō),懲罰方式對(duì)人工智能失去了效用,就會(huì)形成一塊法律責(zé)任的“真空地帶”。這就造成了一個(gè)局面,即能力上人工智能與人類(lèi)相同,行為后果上,人工智能比人類(lèi)承擔(dān)的責(zé)任要少。在這種情況下,承認(rèn)人工智能的法律主體地位,人類(lèi)相當(dāng)于主動(dòng)把自己置于一個(gè)劣勢(shì)的不平等位置,可能導(dǎo)致人類(lèi)受到人工智能的欺壓,甚至直接面臨生存危機(jī)。

從上面的討論中,我們可以看出:人工智能不應(yīng)被承認(rèn)為法律主體,因?yàn)槿祟?lèi)將為此承擔(dān)不必要的風(fēng)險(xiǎn),甚至有可能威脅全體人類(lèi)的生存。但是人工智能技術(shù)的發(fā)展不容忽視,未來(lái)必將更多地融入并影響人類(lèi)的生活。應(yīng)對(duì)人工智能引發(fā)的法律問(wèn)題,一方面需要深入研究如何規(guī)范人工智能算法的倫理,使設(shè)計(jì)者、生產(chǎn)者和使用者都成為利益相關(guān)者,盡量增強(qiáng)算法的透明度和可解釋性,確保人工智能技術(shù)的發(fā)展與人類(lèi)的價(jià)值和愿望相符合。另一方面,可能需要我們打破傳統(tǒng)的主客體二元范式,不再局限于傳統(tǒng)的人類(lèi)以及非人類(lèi)法人實(shí)體的討論,創(chuàng)造出新的可以適用于人工智能的規(guī)則。

(作者為對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)英語(yǔ)學(xué)院講師)

【注:本文系北京市社科基金青年項(xiàng)目“首都人工智能發(fā)展中的民事責(zé)任研究”(項(xiàng)目編號(hào):18FXC019)的研究成果】

【參考文獻(xiàn)】

①吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào)),2017年第5期。

②潘文軒:《人工智能技術(shù)發(fā)展對(duì)就業(yè)的多重影響及應(yīng)對(duì)措施》,《湖湘論壇》,2018年第4期。

責(zé)編/于洪清 美編/王夢(mèng)雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:李一丹]
標(biāo)簽: 人工智能