大模型的高速發(fā)展和滲透帶來生成式人工智能的廣泛應(yīng)用,形形色色的生成式人工智能插件在短短幾個(gè)月內(nèi)交互到了人類社會(huì)的生產(chǎn)生活中,引發(fā)新一輪智能化浪潮。正如數(shù)十年前計(jì)算機(jī)技術(shù)、互聯(lián)網(wǎng)革命引領(lǐng)了技術(shù)與生產(chǎn)方式的歷史性變革,生成式人工智能開始深刻地影響人們生活的方方面面。當(dāng)我們使用生成式人工智能高效搜索、生成文本、提高工作效率,當(dāng)我們感受訓(xùn)練聊天機(jī)器人的新鮮感,當(dāng)我們?cè)谖谋局鲜褂脠D像生成、音頻視頻生成,生成式人工智能的潛在風(fēng)險(xiǎn)也在不知不覺中逐漸滲透。
科技創(chuàng)新的二元性歷來受到社會(huì)廣泛關(guān)注,從互聯(lián)網(wǎng)的數(shù)據(jù)隱私到智能機(jī)器人的道德倫理,再到生成式人工智能對(duì)于個(gè)人隱私的處理和引發(fā)潛在欺詐行為風(fēng)險(xiǎn),如何規(guī)范應(yīng)用值得我們深度思考。
用戶會(huì)給生成式人工智能工具提供個(gè)人、公司或所屬社會(huì)組織的非公開信息,模型獲得了這些數(shù)據(jù),便有可能在后續(xù)各類生成任務(wù)中泄露信息。過去擔(dān)憂手機(jī)APP等軟件在用戶未察覺時(shí)對(duì)其隱私進(jìn)行觀察和調(diào)用,而在生成式人工智能應(yīng)用場(chǎng)景中,亦存在隱私和信息泄露風(fēng)險(xiǎn)。例如,生成式人工智能可以被用來創(chuàng)建背景豐富、看似來源可靠的信息,進(jìn)而誘導(dǎo)用戶點(diǎn)擊惡意鏈接或下載惡意軟件;可以塑造豐富立體的社交媒體形象,甚至模仿某人的聲音或外貌,引導(dǎo)造謠與詐騙;可以被訓(xùn)練為向特定用戶推薦誤導(dǎo)性內(nèi)容,或在某些情況下加強(qiáng)他們已有的偏見,等等。
生成式人工智能可處理海量數(shù)據(jù),但也給知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人隱私保護(hù)、打擊虛假信息等方面帶來新挑戰(zhàn)。積極推進(jìn)人工智能治理,法治與社會(huì)教育是促進(jìn)守正創(chuàng)新的兩大抓手。
一方面,營造安全有序的法治環(huán)境,規(guī)范生成式人工智能服務(wù)。為減少虛假信息的傳播,建議明確禁止或限制其在特定領(lǐng)域的使用。例如,批量化的虛擬形象創(chuàng)建和對(duì)話;為降低隱私泄露風(fēng)險(xiǎn),建議規(guī)定生成式人工智能使用個(gè)人數(shù)據(jù)時(shí)需經(jīng)用戶同意,確保數(shù)據(jù)隱私得到保護(hù),用戶有權(quán)決定哪些數(shù)據(jù)可以被使用,以及生成的內(nèi)容如何使用;為減少對(duì)社會(huì)公序良俗的破壞,建議嚴(yán)格限制仇恨言論、歧視性內(nèi)容創(chuàng)建??煽剂吭O(shè)立專門的機(jī)構(gòu)負(fù)責(zé)技術(shù)審查和認(rèn)證,評(píng)估生成式人工智能系統(tǒng)的安全性、可信度、倫理問題等。
同時(shí),對(duì)于生成式人工智能系統(tǒng)出現(xiàn)問題時(shí)的法律責(zé)任和賠償機(jī)制,可考慮進(jìn)行系統(tǒng)設(shè)計(jì),對(duì)開發(fā)者、運(yùn)營商以及使用者的責(zé)任分配展開討論。本質(zhì)上,機(jī)器產(chǎn)生的任何行為都需要有主體負(fù)責(zé),而生成式人工智能能否以及如何界定責(zé)任主體,是一個(gè)重要而緊迫的問題。自動(dòng)駕駛的技術(shù)發(fā)展、商業(yè)應(yīng)用和社會(huì)問題,為我們作出了可參考的探索。
另一方面,加強(qiáng)對(duì)公眾的教育與培訓(xùn)也至關(guān)重要。技術(shù)的風(fēng)險(xiǎn)不僅來源于自身,也來自于不當(dāng)使用。如何讓公眾更好地理解技術(shù)、更明智地利用技術(shù),進(jìn)一步完善科技倫理體系,都需要強(qiáng)有力的社會(huì)教育作為支撐。要加強(qiáng)對(duì)公眾進(jìn)行教育和培訓(xùn),強(qiáng)調(diào)倫理和法律約束,以提高對(duì)這些潛在風(fēng)險(xiǎn)的認(rèn)識(shí);要增強(qiáng)用戶對(duì)倫理和法律問題重要性的認(rèn)識(shí),特別是在生成內(nèi)容時(shí),明白不應(yīng)該濫用工具;要鼓勵(lì)公眾充分了解生成式人工智能的邏輯和可解釋性、推斷和生成過程,鼓勵(lì)選擇更透明和可解釋的模型,以便更好理解生成內(nèi)容的來源和原理,不輕信在看似嚴(yán)肅的行文和環(huán)境中插入的各類信息和煽動(dòng)性觀點(diǎn);要提醒用戶保護(hù)個(gè)人隱私和數(shù)據(jù)安全,不分享敏感信息尤其是機(jī)密信息;政府、行業(yè)、企業(yè)等相關(guān)各方應(yīng)加強(qiáng)風(fēng)險(xiǎn)研判,有效防控人工智能的科技倫理風(fēng)險(xiǎn),進(jìn)一步加強(qiáng)行業(yè)自律,不斷推動(dòng)科技向善、造福人類。
(作者系清華大學(xué)技術(shù)創(chuàng)新研究中心主任、教授)