黄色网页在线观看,开放性按摩在线观看,探花国产精品福利,三级特黄60分钟在线播放,一本久道久久综合中文字幕,五月婷婷激情网,久久精品国产精品国产精品污

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

人工智能技術(shù)治理應(yīng)抓住要害

自ChatGPT-4上線之后,人工智能技術(shù)創(chuàng)新浪潮再度掀起,如果說之前還有觀點質(zhì)疑當下并非規(guī)制人工智能技術(shù)的最佳時機,那么ChatGPT-4所展現(xiàn)出的高度智能化功能使得這些質(zhì)疑觀點逐漸消散。正如過去各類信息技術(shù)發(fā)展規(guī)律,生成式人工智能技術(shù)在不斷進行創(chuàng)新的同時,也正在擴大社會風險的波及范圍和損害程度。尤其是在網(wǎng)絡(luò)信息內(nèi)容生態(tài)領(lǐng)域,人工智能技術(shù)能夠根據(jù)用戶提出的具體需求,在短時間內(nèi)生成海量文本信息、圖片信息乃至視頻信息,一旦這些生成信息在網(wǎng)上傳播,網(wǎng)絡(luò)空間將不得不面對新一輪的信息浪潮的沖擊。一方面,生成類信息具有典型的同質(zhì)性特征,加之平臺以用戶偏好推送相關(guān)信息,這使得用戶可以獲取的信息內(nèi)容、信息類型均有所衰減;另一方面,人工智能技術(shù)所生成的信息越發(fā)貼合人類的表達邏輯,這使得一般用戶無法輕易辨別信息內(nèi)容的真?zhèn)?。當然,人工智能的技術(shù)風險遠不止于此。例如,在科研教學領(lǐng)域,人工智能技術(shù)能夠成為學生自主學習的輔導工具,但過度依賴人工智能技術(shù)完成課程作業(yè)或文獻撰寫,從長遠來看只會削弱學生批判意識和獨立學習能力。在網(wǎng)絡(luò)安全領(lǐng)域,人工智能技術(shù)已經(jīng)能夠為部分代碼片段編寫提供輔助指導和查漏補缺功能,這無疑會降低惡意代碼編寫的技術(shù)門檻與時間成本,進而導致網(wǎng)絡(luò)安全態(tài)勢的惡化。

事實上,人工智能技術(shù)所引發(fā)的諸多社會風險問題早已不再是理論空想,在當下的社會生活中,已經(jīng)存在濫用人工智能技術(shù)進行違法犯罪活動的事件。在今年4月偵破的一起利用人工智能發(fā)布網(wǎng)絡(luò)虛假信息的犯罪活動,犯罪嫌疑人為了規(guī)避平臺的信息內(nèi)容審核機制,利用ChatGPT對新聞素材進行修改編輯,上傳至平臺非法獲利。無論是專家學者預估的社會風險,還是現(xiàn)實生活已經(jīng)發(fā)生的犯罪活動,無不說明當下人工智能技術(shù)需要規(guī)范治理。國家互聯(lián)網(wǎng)信息辦公室也在4月發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,用于指引和規(guī)范生成式人工智能技術(shù)的應(yīng)用活動。

然而,這遠遠不足以規(guī)制潛在的技術(shù)濫用風險,傳統(tǒng)的治理理念和治理工具在人工智能技術(shù)治理領(lǐng)域正在逐漸失效。其中的原因正是技術(shù)服務(wù)提供者無法完全控制用戶的使用行為,作為技術(shù)工具的人工智能應(yīng)用,其輸出結(jié)果是否合理合法,在很大程度上取決于用戶所輸入的問題和需求。更重要的是,對于部分海外人工智能服務(wù)提供者而言,國內(nèi)立法難以在域外予以適用,非法使用者利用境外技術(shù)服務(wù)從事違法活動,監(jiān)管者往往難以在事前階段就予以預防。繼續(xù)僵化沿用“危險制造者承擔責任”的治理邏輯只會適得其反,既會限制人工智能技術(shù)的創(chuàng)新應(yīng)用,也會浪費既有的社會治理資源。因此,根據(jù)技術(shù)創(chuàng)新應(yīng)用實踐特征,適時調(diào)整治理理念和治理方式越來越重要。

在治理理念層面,首先需要明確的是,人工智能技術(shù)治理應(yīng)當秉要執(zhí)本,優(yōu)先預防和規(guī)制核心的技術(shù)濫用風險。在人工智能技術(shù)引發(fā)的諸多社會風險中,危害性最大的風險類型當屬網(wǎng)絡(luò)信息內(nèi)容生態(tài)風險。AI換臉、AIGC生成仿真照片等信息服務(wù)內(nèi)容正在重新塑造網(wǎng)絡(luò)信息內(nèi)容生態(tài),這些服務(wù)所生成的信息內(nèi)容“半真半假”,這使得用戶更加難以在信息大爆炸時代辨別信息真?zhèn)?。同樣的,平臺運營者乃至監(jiān)管機構(gòu)也需要花費更多的時間和精力去一一核對這些信息的可靠性與真實性。而人工智能技術(shù)所引發(fā)的數(shù)據(jù)安全、網(wǎng)絡(luò)安全、算法歧視等風險類型本質(zhì)上并沒有超出現(xiàn)有的技術(shù)風險治理框架,數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī)對此均有提及,并且監(jiān)管機構(gòu)和平臺也能夠采取技術(shù)手段實現(xiàn)高效的事前監(jiān)管效果。進一步而言,人工智能技術(shù)治理活動應(yīng)當分階段、分重點,在不同的技術(shù)創(chuàng)新發(fā)展階段,技術(shù)風險的類型、特征具有不同特點,倘若“眉毛胡子一把抓”,顯然無法從根本上規(guī)制技術(shù)風險,只會讓技術(shù)風險危害性逐步加深。因此,在現(xiàn)階段人工智能技術(shù)治理的首要任務(wù)應(yīng)當是全面預防和治理濫用人工智能生成違法信息內(nèi)容,保障網(wǎng)絡(luò)信息生態(tài)安全。

在治理方式層面,監(jiān)管機構(gòu)、平臺運營者、技術(shù)研發(fā)者以及用戶應(yīng)當共同參與到人工智能技術(shù)治理活動中,以網(wǎng)絡(luò)信息生態(tài)安全為基本導向,細化多元主體共治的基本內(nèi)容,避免陷入單一主體承擔責任的治理誤區(qū)。對于技術(shù)研發(fā)者而言,應(yīng)當將技術(shù)研發(fā)與安全評估同步實施、同步進行,在相關(guān)信息服務(wù)商業(yè)化應(yīng)用之前,進行算法安全風險評估、科技倫理審查,重點對生成內(nèi)容的合法性和可控性進行評估和調(diào)整。對于平臺運營者而言,應(yīng)當嚴格落實網(wǎng)絡(luò)實名制的基本要求,在用戶注冊和使用時,提醒用戶合理使用人工智能信息技術(shù)服務(wù)。同時,平臺運營者應(yīng)當定期更新優(yōu)化信息內(nèi)容審核機制,一方面以關(guān)鍵詞、圖片自動化識別等方式屏蔽、刪除明顯違法的網(wǎng)絡(luò)信息內(nèi)容,另一方面要求用戶在上傳人工智能生成信息時進行標注和說明,用以提示其他用戶該信息內(nèi)容的來源和產(chǎn)生方式。對于監(jiān)管而言,應(yīng)當適時調(diào)整監(jiān)管模式,除了社會公眾舉報投訴等傳統(tǒng)方式之外,還可以充分利用監(jiān)管技術(shù),以人工智能監(jiān)管技術(shù)輔助識別可能涉嫌違法違規(guī)的人工智能生成信息。此外,還需要根據(jù)技術(shù)創(chuàng)新發(fā)展趨勢,周期性調(diào)整人工智能技術(shù)重點監(jiān)管事項,重視科技倫理審查機制的靈活性,引導人工智能產(chǎn)業(yè)良性發(fā)展。對于用戶而言,應(yīng)當合理使用人工智能信息服務(wù),樹立法治觀念,充分認識到發(fā)布網(wǎng)絡(luò)虛假信息可能承擔的法律責任;也需要保持警惕意識,不輕信非正規(guī)來源的網(wǎng)絡(luò)信息,理性發(fā)布網(wǎng)絡(luò)評論信息。

人工智能技術(shù)治理難以“畢其功于一役”,需要在技術(shù)創(chuàng)新發(fā)展的進程中抓住技術(shù)風險的主要內(nèi)容和作用方式,適時調(diào)整和更新治理理念和治理方式,方能消解人工智能技術(shù)濫用所導致的社會危害性。

[責任編輯:潘旺旺]
標簽: 人工智能   技術(shù)治理   ChatGPT   AI