新一輪科技革命和產(chǎn)業(yè)變革迅猛發(fā)展,數(shù)字技術(shù)、智能經(jīng)濟與數(shù)字化產(chǎn)業(yè)成為催生新產(chǎn)業(yè)、新業(yè)態(tài)、新模式的重點領(lǐng)域。發(fā)布僅6個月的ChatGPT,已掀起全球人工智能(AI)產(chǎn)業(yè)的大模型熱潮。在日前舉辦的中國人工智能產(chǎn)業(yè)年會中,AI大模型帶來的安全挑戰(zhàn)和發(fā)展機遇成為與會專家熱議話題。
賦能千行百業(yè)
ChatGPT在與人類對話、寫作文、寫代碼等方面令人驚艷的表現(xiàn),是AI大模型GPT通過大算力、大規(guī)模訓(xùn)練數(shù)據(jù)突破自然語言處理瓶頸的結(jié)果。但大模型本身并不是新鮮事物,AI大模型也不止GPT這一條路線,很多科技巨頭近幾年都在“煉”大模型,且各有積累。這也是ChatGPT走紅之后,各巨頭短短數(shù)月內(nèi)就紛紛推出競品的原因。
“以ChatGPT為代表的多模態(tài)通用大模型,將深刻變革各行各業(yè)。”電子科技大學(xué)教授、考拉悠然科技有限公司聯(lián)合創(chuàng)始人沈復(fù)民說,行業(yè)人工智能可有效推動技術(shù)與市場供需平衡,將是人工智能產(chǎn)業(yè)化的最大機遇。人工智能技術(shù)落地行業(yè)時,需要克服開發(fā)效率低、落地成本高、場景復(fù)雜多元等難題。
沈復(fù)民所在的研發(fā)團隊獲得了2022年度吳文俊人工智能科學(xué)技術(shù)獎自然科學(xué)一等獎。據(jù)他介紹,團隊開發(fā)了為垂直行業(yè)賦能的多模態(tài)AI操作系統(tǒng),基于行業(yè)多模態(tài)大模型、多模態(tài)融合分析、機器視覺等核心AI算法支持,可以讓企業(yè)擺脫繁雜的算法、算力、數(shù)據(jù)整合工作,快速孵化行業(yè)大模型,高效率應(yīng)用到工業(yè)制造、城市治理、消費、能源、交通、建材等業(yè)務(wù)場景。
“通用對話技術(shù)是人工智能領(lǐng)域最具挑戰(zhàn)性的方向之一,也被認為是通用人工智能的必備能力。如今備受關(guān)注的對話式人工智能,其背后就有通用對話技術(shù)。”百度首席技術(shù)官、深度學(xué)習(xí)技術(shù)及應(yīng)用國家工程研究中心主任王海峰說。中國人工智能產(chǎn)業(yè)年會期間,由他帶領(lǐng)團隊完成的“知識與深度學(xué)習(xí)融合的通用對話技術(shù)及應(yīng)用”成果,獲2022年度吳文俊人工智能科技進步獎特等獎。
公開資料顯示,這一研究項目已獲授權(quán)發(fā)明專利82項,發(fā)表高水平論文36篇,在國際權(quán)威評測中獲世界冠軍11項。目前項目成果實現(xiàn)了大規(guī)模產(chǎn)業(yè)應(yīng)用,已支持5億智能設(shè)備,服務(wù)超過10億用戶,覆蓋包括通信、金融、汽車、能源等20多個行業(yè)。
爭取“主動安全”
技術(shù)是把雙刃劍。人工智能大模型能力越大,一旦濫用帶來的危害也就越大。當前,ChatGPT等工具被用于生成假新聞、假照片、假視頻,甚至實施詐騙等犯罪行為,引發(fā)人們對大模型安全性的擔(dān)憂。
西北工業(yè)大學(xué)教授王震是網(wǎng)絡(luò)空間智能對抗應(yīng)用研究領(lǐng)域的專家,他認為,要用人工智能驅(qū)動網(wǎng)絡(luò)空間智能對抗。比如,用人工智能檢測、識別有害信息,搭建“主動安全”的智能防御網(wǎng)。
“只有在AI發(fā)展過程中,我們才能面對問題、解決問題,并找到機遇。”螞蟻集團AI風(fēng)險管理負責(zé)人楊舟表示,在AI管理中,安全事件對日常風(fēng)險管理至關(guān)重要。“我們需要重視和預(yù)測相關(guān)事件,分析安全問題,避免發(fā)展帶來的風(fēng)險。”
了解機理是安全管理的基礎(chǔ)。不過,大模型的“智能涌現(xiàn)”目前還是個難以解釋的黑箱,沒有人能理解、預(yù)測或可靠地控制這些大模型,甚至模型的創(chuàng)造者也不能。開發(fā)出ChatGPT的公司OpenAI,也為大模型做了大量價值敏感設(shè)計和道德嵌入工作,但仍然存在明顯的漏洞和局限。
“雖然大模型的能力在不斷變強,但如果不對其進行專門的安全性訓(xùn)練或安全性加固,其脆弱性不會得到任何改善。”瑞萊智慧公司首席執(zhí)行官田天認為,人工智能大模型的安全性面臨很多挑戰(zhàn)。
“大模型是人工智能發(fā)展的轉(zhuǎn)折點,研究人員需要進一步了解這些大模型為何具備類人思考的能力。”香港科技大學(xué)教授馮雁表示,ChatGPT最初只作為科研項目發(fā)布,但通過加入人機交互界面,迅速變成網(wǎng)紅產(chǎn)品。其爆紅帶來的倫理問題始料未及,也給生成式人工智能的管理提出了挑戰(zhàn)。“只有真正的開源,才能共同研究,理解大模型存在的問題和產(chǎn)生的根源,更好地進行管理。”
“商湯一直是開源開放的貢獻者和支持者,但在開源上我們要謹慎一些,特別是目前對于大模型而言,安全防護體系還未健全。”商湯科技人工智能倫理與治理研究主任胡正坤說,在智能時代把底層模型開源,不見得安全,因為在開放能力的同時,也在開放薄弱點,而薄弱點有可能被不法分子利用。
亟需深度治理
專家們對未來的人工智能長遠治理做出種種設(shè)想。
“不能把價值設(shè)計看成治理的唯一路徑。”復(fù)旦大學(xué)應(yīng)用倫理學(xué)研究中心教授王國豫認為,針對現(xiàn)階段人工智能治理的局限性,可從三方面采取措施。一是充分評估數(shù)據(jù)和模型的倫理影響和風(fēng)險點;二是從流程方面,不僅要考慮通用模型,還要把通用模型納入到社會生態(tài)系統(tǒng)、社會政治經(jīng)濟系統(tǒng)來考慮;三是探索倫理方法,充分探索“價值敏感設(shè)計”“負責(zé)任創(chuàng)新”等倫理方法在通用模型語境下的可行性。
中國社會科學(xué)院哲學(xué)所科技哲學(xué)研究室主任、研究員段偉文表示,需要警惕機器對人類思維的馴化。比如,有的人不擅社交,可能用人工智能生成對話的方式幫他社交聊天,這樣的對話機制會反過來馴化人類。他建議加強人類和人工智能的交互和溝通,不僅要了解人類怎么去修機器,也要研究機器如何影響人類。
中科院自動化研究所研究員曾毅期待構(gòu)建人工智能的道德直覺,“為機器人立心、為人工智能立心”是重要的長遠工作目標。“強化學(xué)習(xí)的獎懲只是加加減減,它不是真正對道德的理解,除非人工智能實現(xiàn)基于自我的道德直覺。缺乏自我的人工智能無法擁有真正的道德直覺,做真正的道德決策。我們在做一個基于類腦的脈沖神經(jīng)網(wǎng)絡(luò)構(gòu)建創(chuàng)生的人工智能引擎,希望讓它像兒童一樣去學(xué)習(xí),獲得自我感知。”曾毅說。
“從要求人工智能大模型合乎倫理,到真正構(gòu)建有道德的人工智能。”曾毅表示,未來通用人工智能和超級智能的倫理安全問題,要從現(xiàn)在就開始關(guān)注和準備。