結語:“強人工智能”與人類繁殖倫理前瞻
如上所述,沒進入量子力學之前,所有的人造機器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機器的目的,即人為了自身的內在價值實現(xiàn)同時不斷改進人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機器不會失控,如果有所謂“失控”的話,這與我們對飛機、高鐵、大壩、核能之類的失控基本上屬于同類性質。
AlphaGo的確有隱喻意義上的“學習”能力,自行調整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內容(qualia)不相干。
當然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應用中也應當秉持審慎的人文理性態(tài)度。
不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報”的態(tài)勢,人類既有的道德資源和倫理框架或許難以覆蓋技術飛躍變革提出的新議題。他們提出應當發(fā)展一種叫做機器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學伯克利分校計算機學教授拉塞爾(StuartRussell)在美國時代雜志發(fā)表觀點認為,避免機器的不當使用威脅人類的生存,就應該考慮如何把人類價值變成可編程的代碼,把人類的道德轉化為人工智能語言。他認為,在機器人領域,“道德哲學將是一個非常重要的產(chǎn)業(yè)部門”。
歸根結底,這些訴求跟當前的一系列技術推進所遭遇的倫理困境并無實質上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實、擴展現(xiàn)實領域應當引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術以更便捷更隱蔽的手段損害人的自由與尊嚴的問題。其中需要的關鍵要素有兩點:第一,如何更準確更敏銳地分析科技推進中的結構性變革,以技術手段防范技術黑箱操作,這需要技術的發(fā)展始終在一個社會開放空間中進行,使技術不被少數(shù)人的權力和資本所壟斷;第二,如何在技術推進中注入人文理性,這需要哲學家、藝術家以及社會科學各界在技術變革中積極參與,及時發(fā)現(xiàn)技術當中隱含的道德議題、社會議題,向科學界、技術界和企業(yè)界發(fā)出他們觀察慎思后的最強音,以起到建立一個人文倫理防火墻的作用。
此外,我們需要著重提出的是,弱人工智能和強人工智能之間,鑒于其生發(fā)機理性質的全然不同,在應對的倫理規(guī)則方面,也必然需要在認清本有的界限的基礎上分別制定。
如果讓我們對“強人工智能”的可能實現(xiàn)做一點倫理前瞻的話,那么,基于上述分析,“強人工智能”實現(xiàn)以后的這種造物就不能被當做純粹的工具了。這時,它們已經(jīng)具有自主意識,具有與人類對等的人格結構,今日人類成員所擁有的權利地位、道德地位、社會尊嚴等等,他們就應該平等地擁有。
與我們平起平坐的具有獨立人格的“機器人”,還是機器嗎?不是了,這才是真正的“奇點”和“智能大爆發(fā)”。但是,有人會認為,最為關鍵的問題是,這樣的“強人工智能”主體,不就可以與人類對抗,毀滅人類了嗎?
要理解這種擔憂的實質,就需要我們以價值理性和科學理性出發(fā)進行自我反思。所謂的人類毀滅恐懼與人類身份認同焦慮,實際上是把基于個體經(jīng)驗形成的一己情懷,等價于有效的價值判斷了。我們主動設計、制造了某種新型主體的存在,但并不對他們的個體特質進行設計,不就等于以新的途徑繁殖了我們的后代嗎?我們千萬不要以一時的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。
因此,如果真有強人工智能實現(xiàn)的一天,最合理的態(tài)度就是:承認他們是我們自己進化了的后代,人類進入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實現(xiàn)更好的發(fā)展,這不是人類的災難,而是人類的進化飛躍到了一個新階段。退一萬步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。
至于以量子計算為基礎的人工智能到底會給我們的生活帶來何種沖擊,恐怕我們的想象力暫時還是鞭長莫及。
注釋
【1】http://www.thinkwithgoogle.co.uk/quarterly/innovation/transgressive-man.html.
【2】Crevier, Daniel, AI: The Tumultuous Search for Artificial Intelligence, NewYork, NY: BasicBooks, 1993, p.115. Moravec explains, "Their initialpromises to DARPA had been much too optimistic. Of course, what they deliveredstopped considerably short of that. But they felt they couldn't in their nextproposal promise less than in the first one, so they promised more."
【3】https://www.newscientist.com/blogs/onepercent/2012/06/bot-with-boyish-personality-wi.html?DCMP=OTC-rss&nsref=online-news.
【4】TheSingularity Is Near: When Humans Transcend Biology是Raymond Kurzweil于2005年出版的關于未來學的書籍。中文譯著已由機械工業(yè)出版社于2011年10月1日出版發(fā)行,譯著書名為“奇點臨近”。
【5】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。
【6】http://sports.sina.com.cn/go/2016-01-30/doc-ifxnzanh0397466.shtml.
【7】Wired,"Google's Go Victory Is Just a Glimpse of How Powerful AI Will Be, "http://www.wired.com/2016/01/googles-go-victory-is-just-a-glimpse-of-how-powerful-ai-will-be/,2016.1.29.
【8】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:518/5236。
【9】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:1199/5236。
【10】One can imaginesuch technology outsmarting financial markets, out-inventing human researchers,out-manipulating human leaders, and developing weapons we cannot evenunderstand. Whereas the short-term impact of AI depends on who controls it, thelong-term impact depends on whether it can be controlled at all.見http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html.
【11】http://www.huffingtonpost.com/daniel-faggella/artificial-intelligence-r_b_9344088.html.
【12】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,Kindle位置:2416/5236。
【13】Frankenstein or The Modern Prometheus,又譯作《弗蘭肯斯坦》,后世有部分學者認為這部小說可視為科幻小說或恐怖小說的始祖。
【14】見翟振明:《虛擬現(xiàn)實比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年11月。
【15】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,kindle版位置:685/5236。
【16】[英]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,kindle版位置:867/5236。
【17】翟振明:《有無之間——虛擬實在的哲學探險》,北京大學出版社,2007年。(Zhai, Philip, Get real: A philosophical adventure invirtual reality,Rowman& Littlefield, 1998.)
【18】【19】詳見翟振明、李豐:《心智哲學中的整一性投射謬誤與物理主義困境》,《哲學研究》,2015年06期。
【20】見于:Dick J. Bierman and Stephen Whitmarsh, "Consciousness andQuantum Physics: Empirical Research on the Subjective Reduction of the StateVector," in Jack A. Tuszynski (Ed), The Emerging Physics ofConsciousness, 2006, pp. 27-48.C. M. H. Nunn et. al.,"Collapse of aQuantum Field May Affect Brain Function," Journal ofConsciousness Studies, 1994, 1(1), pp.127-139.
【21】Anderson, Michael,and Susan Leigh Anderson, "Machine ethics: Creating an ethical intelligentagent," AI Magazine 28.4 , 2007, p.15.
【22】Stuart Russell,"Moral Philosophy Will Become Part of the Tech Industry,"http://time.com/4026723/stuart-russell-will-ai-overtake-humans/.
【23】哲學家丹尼爾·丹尼特在其著作《意識的解釋》(Consciousness Explained)里錯誤地認為,人也不過是一臺有靈魂的機器而已,為什么我們認為:“人可以有智能,而普通機器就不能”呢?有的哲學家認為如果弱人工智能是可實現(xiàn)的,那么強人工智能也是可實現(xiàn)的。比如西蒙·布萊克本(SimonBlackburn)在其哲學入門教材Think里說道,一個人的看起來是“智能”的行動并不能真正說明這個人就真的是智能的。我永遠不可能知道另一個人是否真的像我一樣是智能的,還是說她/他僅僅是看起來是智能的。布萊克本認為這個“他心問題”是一個主觀認定的問題。本文引入量子力學解釋方向,就是試圖回答意識和智能的認定問題的可能途徑的問題。量子力學中的遙距糾纏,很可能就是解決“他心問題”的有效途徑,最后并不需要訴諸“主觀認定”。這種認定的實現(xiàn),也許才是真正的“奇點來臨”。
How Will "Strong Artificial Intelligence" Change the World?
——Prospects of the Technological Progress and Application Ethics of Artificial Intelligence
Zhai Zhenming Peng Xiaoyun
Abstract: After years of silence, artificial intelligence has become a heated topic of debate again recently. For software based on the "neural network" architecture, their progress in terms of the machine learning ability not only make people feel new and fresh, but also cause a lot of them to worry and fear. This is because the "learning" ability was originally thought to be a unique human ability which the machine could not acquire. Now the boundary between machine and humans seems to have been removed. Among all the concerns about artificial intelligence, the most important one is the ethics behind the application of artificial intelligence and the technical limitations about the value implanting. In fact, the application-related ethical issue resulting from the leap-forward technological development of artificial intelligence or the so-called "smart revolution" is not new, it is just the aggregation of a series of old problems. It will challenge our past experience, yet it is not completely "subversive". No matter how effectively artificial intelligence could imitate human brain's "neural network" or how much it is like people, as long as there is no breakthrough development in the ultimate explanation of the phenomenon of human mind, there will be a lack of the necessary premise for the question about whether artificial intelligence is gaining on human intelligence.
Keywords: weak artificial intelligence, strong artificial intelligence, quantum mechanics, physicalism, ethical dilemma, value rationality
作者簡介:
翟振明,中山大學哲學系教授,中山大學人機互聯(lián)實驗室創(chuàng)始人、主任。研究方向為虛擬現(xiàn)實哲學與技術、倫理學、現(xiàn)象學、心智哲學。主要著作有《Get Real: A Philosophical Adventure in Virtual Reality》《整一性投射謬誤與心智哲學中的物理主義困境》等。彭曉蕓,中山大學哲學系博士研究生。