法國生產(chǎn)的EZ10無人駕駛公交車已正式投入運行,隨著人工智能技術不斷發(fā)展,相關法律、法規(guī)亟待完善。 (資料圖片)
當前,人工智能浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智能技術的不斷發(fā)展,它引發(fā)的倫理爭議也不斷出現(xiàn)
近日,中國發(fā)展研究基金會發(fā)布報告——《未來基石——人工智能的社會角色與倫理》。針對人工智能倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。
對人工智能的討論足夠了嗎
迄今為止,我們對人工智能可能會帶來的挑戰(zhàn)仍知之甚少,嚴肅的公共討論還十分缺乏
要理解人工智能的社會影響,首先要認識人工智能在社會發(fā)展中的獨特作用。在人類發(fā)展進程中,知識的增長和社會協(xié)作體系的擴展起到了重要作用,而這一切都離不開人類大腦提供的智能基礎。
報告認為,人工智能的發(fā)展,將帶來知識生產(chǎn)和利用方式的深刻變革,人工智能不僅意味著前沿科技和高端產(chǎn)業(yè),未來也可以廣泛用于解決人類社會面臨的長期性挑戰(zhàn)。從消除貧困到改善教育,從提供醫(yī)療到促進可持續(xù)發(fā)展,人工智能都大有用武之地。
例如,人工智能可以大幅度降低醫(yī)療服務的成本,緩解醫(yī)療人才不足的局面。在教育領域,人工智能能夠分析人們獲取知識的方式,然后利用這些信息開發(fā)出相應模型,來預測人們的投入和理解程度。人工智能還可以改變貧困地區(qū)高水平教師不足、教學質(zhì)量低下的局面,促進教育公平。
此外,人工智能可以服務于殘障人士。例如,微軟最近在ios應用程序商店推出了一款名為“seeing AI”的產(chǎn)品,幫助失明和弱視人群應對日常生活中的問題。“seeing AI”的開發(fā)團隊包括一名在7歲時就失明的工程師,這一應用程序盡管還處于早期階段,但已證明人工智能可以捕捉用戶周圍的圖像并即時描述。比如,它可以讀取菜單、清點貨幣等,從而幫助殘障人士提高生活能力。
然而,迄今為止,我們對人工智能可能會帶來的挑戰(zhàn)仍知之甚少,嚴肅的公共討論還十分缺乏。社會公眾對人工智能的想象在很大程度上仍被科幻小說和影視作品所主導,而對于人工智能在未來可能產(chǎn)生的影響,更是缺乏認知和關切。在政策層面,對于人工智能的關注很大程度上仍集中于技術和經(jīng)濟層面,缺乏整體性的思考和討論。盡管有少數(shù)哲學和社科領域的學者開始關注人工智能帶來的倫理問題和社會挑戰(zhàn),但這些討論并未進入公共政策視界,而且討論的重點也多集中在超級人工智能這樣仍相對遙遠的議題上。
報告認為,在人工智能問題上,圍繞可能出現(xiàn)的挑戰(zhàn),無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。
人工智能會帶來哪些倫理挑戰(zhàn)
從人文視角來看,人工智能帶來了一些有可能撼動社會基礎的根本性問題
中國發(fā)展研究基金會副理事長兼秘書長盧邁表示,人工智能發(fā)展將進一步釋放社會活力,中國應積極擁抱人工智能,充分利用好它對生產(chǎn)力的解放效應。但是,把握機遇的前提是了解并預防風險,這需要我們在倫理學和社會治理上下功夫。
中國發(fā)展研究基金會秘書長助理、研究一部主任俞建拖認為,社會應該正視人工智能帶來的挑戰(zhàn),并超越純技術和經(jīng)濟的視角,從社會和人文視角去探討人工智能帶來的影響。
報告認為,從人文視角來看,人工智能帶來了一些已經(jīng)在發(fā)生或即將發(fā)生、有可能撼動我們社會基礎的根本性問題。
隨著人工智能的不斷發(fā)展,我們對于人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的后果。我們該如何對待機器和自身的關系?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那么,人還有參與社會互動的需要和動力嗎?
人工智能還帶來了新的社會權力結(jié)構問題。借助人工智能,企業(yè)可以賦予每個用戶大量的數(shù)據(jù)標簽,并基于這些標簽了解人的偏好和行為,甚至超過用戶對自己的了解,這是巨大的權利不對稱。
此外,人工智能可能會造成偏見強化。在社交媒體中,人工智能將觀點相近的人相互推薦,新聞推送也常常存在路徑依賴。當人們的信息來源越來越依賴于智能機器,偏見會在這種同化和路徑依賴中被強化。
人工智能還使社會的信息和知識加工處理能力被極大放大,信息和知識的冗余反而使人陷入選擇困境。如果人參與社會互動的次數(shù)和范圍縮小,而人工智能越來越多介入到知識的生產(chǎn)中,知識與人的需求之間的關系將變得越來越間接,甚至會反過來支配人的需求。
盡管人工智能也會推動進一步的專業(yè)化分工和創(chuàng)造新的工作機會,但并非所有人都有能力邁過技術性和社會性壁壘。尤瓦爾·赫拉利在《未來簡史》中警告,未來社會可能會出現(xiàn)“無用階級”,這種擔心并非全無道理。
人工智能也對傳統(tǒng)的法律法規(guī)和社會規(guī)范提出了挑戰(zhàn)。譬如,無人駕駛汽車一旦出現(xiàn)事故,我們究竟該歸因于開發(fā)產(chǎn)品的企業(yè)、產(chǎn)品擁有者還是人工智能產(chǎn)品本身?
如何構建人工智能的倫理規(guī)范
考慮到人工智能的深遠影響,需要全社會共同努力,制定開發(fā)和應用的倫理規(guī)范和政策方向
人工智能正幫助人類社會向充滿不確定性的未來疾馳。在沖進未知之門之前,需要給它裝上剎車,讓它真正能行穩(wěn)致遠,這個剎車就是倫理規(guī)范和公共政策準則。
當前,已經(jīng)有一些人工智能領先企業(yè)關注人工智能開發(fā)和應用的倫理問題。微軟公司總裁施博德表示,要設計出可信賴的人工智能,必須采取體現(xiàn)道德原則的解決方案,因此微軟提出6個道德基本準則:公平、包容、透明、負責、可靠與安全、隱私與保密。谷歌公司也表示,在人工智能開發(fā)應用中,堅持包括公平、安全、透明、隱私保護在內(nèi)的7個準則,并明確列出了谷歌“不會追求的AI應用”。
報告認為,這些企業(yè)的前瞻性探索十分重要。但是,考慮到人工智能對未來社會的深遠影響,還需要全社會和各國政府的共同努力,制定人工智能開發(fā)和應用的倫理規(guī)范和政策方向,為其未來健康發(fā)展奠定基礎。
為此,報告提出了一系列建議:在社會層面,高校和研究機構開展前瞻性科技倫理研究,為相關規(guī)范和制度的建立提供理論支撐;各國政府、產(chǎn)業(yè)界、研究人員、民間組織和其他利益攸關方展開廣泛對話和持續(xù)合作,通過一套切實可行的指導原則,鼓勵發(fā)展以人為本的人工智能;人工智能企業(yè)應該將倫理考量納入企業(yè)社會責任框架中;投資機構應將倫理問題納入ESG(環(huán)境、社會和治理)框架,引導企業(yè)進行負責任的人工智能產(chǎn)品開發(fā);社會組織可以通過培訓、發(fā)布倫理評估報告、總結(jié)代表性案例等方式,推動人工智能倫理規(guī)范的構建。
報告建議,在公共政策層面,人工智能研發(fā)和應用的政策應該將人置于核心,滿足人全面發(fā)展的需求,促進社會的公平和可持續(xù)發(fā)展;政府需要設立專項資金,支持大學和研究機構開展人工智能等前沿科技的倫理研究;政府還需要給予不同人群以學習了解人工智能的機會,推動全社會對人工智能的知識普及和公共政策討論;優(yōu)先鼓勵人工智能應用于解決社會領域的突出挑戰(zhàn),包括減少貧困和不平等,促進弱勢群體融入社會并參與社會發(fā)展進程;應組建由政府部門和行業(yè)專家組成的人工智能倫理委員會,對人工智能的開發(fā)和應用提供倫理指引,并對具有重大公共影響的人工智能產(chǎn)品進行倫理與合法性評估。
此外,對于人工智能的規(guī)范發(fā)展也需要更廣泛的國際合作。清華大學公共管理學院院長薛瀾表示,“人工智能的發(fā)展將在創(chuàng)新治理、可持續(xù)發(fā)展和全球安全合作3個方面對現(xiàn)行國際秩序產(chǎn)生深刻影響,需要各國政府與社會各界從人類命運共同體的高度予以關切和回應。只有加強各國之間的合作與交流,才可能真正構建起一套全球性的、共建共享、安全高效、持續(xù)發(fā)展的人工智能治理新秩序”。
報告也建議,各國政府應促進數(shù)據(jù)共享技術,為人工智能培訓和測試提供共享的公共數(shù)據(jù)集。在個人信息得到保護的前提下,促進數(shù)據(jù)的自由流通;并加強國際合作,建立多層次的國際人工智能治理機制。各國政府應通過聯(lián)合國、G20以及其他國際平臺,將人工智能發(fā)展納入國際合作議程,利用人工智能推動聯(lián)合國2030年可持續(xù)發(fā)展目標的實現(xiàn)。