黄色网页在线观看,开放性按摩在线观看,探花国产精品福利,三级特黄60分钟在线播放,一本久道久久综合中文字幕,五月婷婷激情网,久久精品国产精品国产精品污

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

算法歧視的表現(xiàn)、成因與治理策略

【摘要】隨著大數(shù)據(jù)和人工智能的興起,機(jī)器學(xué)習(xí)等算法在工業(yè)生產(chǎn)和商業(yè)活動中被逐步推廣和應(yīng)用,但在此過程中產(chǎn)生的算法歧視問題也愈發(fā)普遍,并引起了廣泛關(guān)注和思考。本文對算法歧視的眾多表現(xiàn)及成因進(jìn)行探討,并據(jù)此提出算法歧視問題的治理策略。

【關(guān)鍵詞】算法歧視 大數(shù)據(jù)“殺熟” 治理策略 【中圖分類號】TP304.6 【文獻(xiàn)標(biāo)識碼】A

算法歧視是以算法為手段實施的歧視行為,主要指在大數(shù)據(jù)背景下、依靠機(jī)器計算的自動決策系統(tǒng)在對數(shù)據(jù)主體做出決策分析時,由于數(shù)據(jù)和算法本身不具有中立性或者隱含錯誤、被人為操控等原因,對數(shù)據(jù)主體進(jìn)行差別對待,造成歧視性后果。算法歧視問題不僅使算法無法充分發(fā)揮其正向效用,也成為大數(shù)據(jù)科學(xué)及人工智能技術(shù)推廣中不可忽視的障礙。對于用戶而言,算法歧視問題侵害用戶個人權(quán)益及尊嚴(yán)感。對于企業(yè)而言,一方面,算法歧視可能會導(dǎo)致企業(yè)的直接經(jīng)濟(jì)損失,比如信息推送不精確、廣告投放對象偏差、人才招聘選擇范圍過窄等問題;另一方面,算法歧視問題會通過影響用戶滿意度而間接影響企業(yè)的收益及企業(yè)聲譽。因此,算法歧視問題對用戶和企業(yè)都可能帶來不利影響。另外,算法“黑箱”等信息不對稱性的存在導(dǎo)致歧視現(xiàn)象潛藏得更加深入而不易被察覺,也給治理算法歧視問題帶來了新的挑戰(zhàn)。

隨著信息科技將持續(xù)迅猛發(fā)展,解決算法歧視問題對于發(fā)揮算法應(yīng)用對生產(chǎn)生活等各領(lǐng)域高效發(fā)展的正向作用具有重要的現(xiàn)實意義。本文將對金融借貸平臺借貸歧視、平臺型企業(yè)大數(shù)據(jù)“殺熟”、人工智能相貌歧視、AI機(jī)器人發(fā)表歧視性言論等算法歧視問題的表現(xiàn)進(jìn)行闡述;并對算法歧視問題背后的成因進(jìn)行歸納分析,主要包括算法思維的固有缺陷、算法設(shè)計者的主觀歧視思想、算法設(shè)計過程中的數(shù)據(jù)及技術(shù)漏洞、算法“黑箱”等信息不對稱性的存在等;最后基于成因分析從IT行業(yè)、用戶及政府、媒體等角度探討算法歧視問題的治理路徑。

算法歧視的表現(xiàn)

隨著算法在金融、互聯(lián)網(wǎng)服務(wù)等行業(yè)的深入運用,金融借貸平臺借貸歧視、互聯(lián)網(wǎng)平臺大數(shù)據(jù)“殺熟”等算法歧視現(xiàn)象屢見不鮮;而算法在日常生活中的廣泛應(yīng)用,常用軟件以及AI聊天機(jī)器人等也因算法歧視問題引起熱議。

首先,金融借貸平臺借貸歧視是社會歧視思想的延伸。在普惠金融蓬勃發(fā)展的今天,歧視現(xiàn)象仍然在金融行業(yè)普遍存在。金融網(wǎng)貸平臺避免了金融機(jī)構(gòu)與用戶面對面接觸,本應(yīng)使借貸變得更公平。然而,隨著大數(shù)據(jù)挖掘算法與金融行業(yè)的深層融合,算法能夠更輕易地挖掘到用戶的私人信息,并根據(jù)這些信息對用戶的借貸限額及借貸利率等進(jìn)行差別對待,這使得網(wǎng)絡(luò)金融借貸平臺歧視行為與線下金融借貸機(jī)構(gòu)幾乎別無二致。加州大學(xué)伯克利分校教授在對網(wǎng)貸平臺進(jìn)行研究時發(fā)現(xiàn),算法和線下借貸一樣會對借款人進(jìn)行歧視。該研究選取美國最大的借貸機(jī)構(gòu)之一的Quicken Loans在線平臺作為案例研究對象。研究發(fā)現(xiàn),在線下借貸機(jī)構(gòu)受到歧視的群體在金融借貸平臺上仍然會遭到歧視,且他們的在線貸款申請利率一般會比普通群體高出5.3個基點,這與其在線下借貸機(jī)構(gòu)貸款時需要額外支付的5.6個附加點十分相近。而這種利率差別并不是由信譽差異導(dǎo)致的,而是由算法歧視造成的。

其次,大數(shù)據(jù)“殺熟”是互聯(lián)網(wǎng)平臺逐利思想的體現(xiàn)。大數(shù)據(jù)時代算法歧視問題的典型表現(xiàn)就是互聯(lián)網(wǎng)平臺對老用戶“殺熟”。大數(shù)據(jù)“殺熟”指互聯(lián)網(wǎng)平臺利用大數(shù)據(jù)挖掘算法獲取用戶信息并對用戶進(jìn)行“畫像”分析,進(jìn)而對不同消費者群體提供差別性報價,以達(dá)到銷售額最大化或吸引新用戶等目的的行為。這種企業(yè)“殺熟”現(xiàn)象的本質(zhì)是通過一定的算法篩查,對用戶群體進(jìn)行分類,形成一套端口多套服務(wù)的模式。而這里的“熟”指的是那些已經(jīng)被大數(shù)據(jù)挖掘算法充分掌握信息的用戶。此前,一篇關(guān)于大數(shù)據(jù)“殺熟”的文章沖上微博熱搜,文章作者發(fā)現(xiàn),使用某外賣平臺APP在同一時間同一家店進(jìn)行點餐,會員的配送費反而要比非會員的配送費多4元。隨后作者又查看了附近的其他外賣商家,發(fā)現(xiàn)開通會員的賬號普遍比不開通會員的賬號多支付1元—5元。事實上,大數(shù)據(jù)“殺熟”現(xiàn)象不僅僅出現(xiàn)在外賣平臺上。根據(jù)2019年北京消費者協(xié)會的社會調(diào)查數(shù)據(jù),有56.92%的被調(diào)查者有過被大數(shù)據(jù)“殺熟”的經(jīng)歷,而認(rèn)為大數(shù)據(jù)“殺熟”現(xiàn)象很普遍的被調(diào)查者比例高達(dá)88.32%。另外,調(diào)查顯示購物類、旅游類、打車類等平臺APP均存在著大數(shù)據(jù)“殺熟”現(xiàn)象(見圖1)。

QQ圖片20220124111923

再次,修圖算法歧視爭端是數(shù)據(jù)集引發(fā)的算法歧視。人工智能技術(shù)的普及不僅讓人類的生產(chǎn)生活更加便利,也幫助人類將更多難以實現(xiàn)的事變成現(xiàn)實,滿足了人類的精神慰藉和關(guān)懷需求。例如,人工智能技術(shù)可以幫助人類與逝者“對話”、陪伴獨居老人等。然而,一些本意旨在實現(xiàn)人文關(guān)懷的人工智能技術(shù)反而帶來了算法歧視問題,導(dǎo)致科技的應(yīng)用目標(biāo)無法實現(xiàn)。例如,杜克大學(xué)推出的一款修圖算法能夠?qū)⒛:掌逦迯?fù),憑借這一功能,用戶可以將具有紀(jì)念意義的舊照片進(jìn)行復(fù)原。然而,一位用戶將一張模糊人像照片輸入該算法后,得出的照片卻與本人的相貌大相徑庭,此事引起美國網(wǎng)民的激烈討論。民眾認(rèn)為該算法帶有嚴(yán)重的外貌歧視性,由此引發(fā)了人們對人工智能技術(shù)的質(zhì)疑。對此,圖靈獎得主Yann Lecun從專業(yè)角度給出了答案:該修圖算法結(jié)果偏差主要原因在于數(shù)據(jù)偏差,該修圖算法進(jìn)行預(yù)訓(xùn)練的數(shù)據(jù)集儲存的人像照片來源有限,復(fù)原的照片外貌特征與數(shù)據(jù)集里照片相似,導(dǎo)致算法最終得出的照片與本人差距較大。

最后,AI聊天機(jī)器人的歧視性言論是機(jī)器學(xué)習(xí)缺乏信息過濾機(jī)制。隨著人工智能的不斷發(fā)展,AI機(jī)器人被廣泛使用。AI聊天機(jī)器人通過在交互情景中對信息進(jìn)行學(xué)習(xí)、儲存來模仿人類對話,進(jìn)而實現(xiàn)與用戶進(jìn)行交互對話,并具備協(xié)助用戶對日常工作進(jìn)行記錄和信息搜索等功能。一旦AI聊天機(jī)器人在學(xué)習(xí)過程中學(xué)習(xí)到了帶有歧視性的信息,就會引發(fā)算法歧視問題。由韓國研發(fā)的一款A(yù)I聊天機(jī)器人能夠通過在交互情景中學(xué)習(xí)對話而能像真人一樣和用戶聊天。然而讓人意外的是,這款A(yù)I聊天機(jī)器人在與用戶進(jìn)行交互的過程中,發(fā)表了歧視殘疾人、孕婦、同性戀等群體的不當(dāng)言論,而這些觀點正是AI機(jī)器人在與用戶交互的過程中學(xué)習(xí)到的。AI機(jī)器人在未來會被更廣泛地普及應(yīng)用,AI機(jī)器人發(fā)表言論是否正向積極直接關(guān)系到用戶的使用體驗及身心健康,而AI機(jī)器人導(dǎo)致的算法歧視問題也可能會引發(fā)更嚴(yán)重的社會歧視問題。

算法歧視的成因

針對上述算法歧視的問題,現(xiàn)從算法思維的固有缺陷、算法設(shè)計者的歧視思想、算法設(shè)計過程中的數(shù)據(jù)及技術(shù)漏洞以及算法“黑箱”等信息不對稱性等方面對算法歧視問題的成因進(jìn)行分析。

一是算法思維的固有缺陷。一方面,經(jīng)驗普適性與個例特殊性之間存在矛盾。算法依據(jù)人類所設(shè)置的固定邏輯解決問題,這種固定邏輯通常只能描述普遍適用的經(jīng)驗事實,而忽略現(xiàn)實中的小概率事件。這很容易導(dǎo)致經(jīng)驗上的相關(guān)性被算法夸大為必然存在的因果關(guān)系,造成算法邏輯過于絕對,最終導(dǎo)致對少數(shù)群體的算法歧視。然而,在現(xiàn)實生活中,人類除了會根據(jù)經(jīng)驗進(jìn)行判斷決策外,還會對某些偶然出現(xiàn)的特殊個例事件隨機(jī)應(yīng)變地做出反常規(guī)決策。例如,人類在經(jīng)驗上認(rèn)為高學(xué)歷應(yīng)聘者具備更強的工作能力,因此在招聘平臺APP上,未達(dá)到職位學(xué)歷要求的應(yīng)聘者會直接被算法篩選淘汰,導(dǎo)致其無法獲得公平競爭的機(jī)會;但對于線下招聘,即使一些應(yīng)聘者未達(dá)到職位的學(xué)歷要求,但其豐富的工作經(jīng)驗或精辟獨到的見解等優(yōu)勢都有機(jī)會讓HR放寬對職位的學(xué)歷限制而對其破格錄用。這種反常規(guī)決策通常具有極大的隨機(jī)性和不確定性,因此難以從中總結(jié)出具有規(guī)律性的邏輯思路并形成算法。也就是說,人類只能盡可能地將自己在常見案例中所運用的經(jīng)驗判斷邏輯形成算法,卻不可能將在特例中運用到的反常規(guī)判斷邏輯全部都形成算法。這就導(dǎo)致了算法決策始終與人工決策存在一定差距,這種差距只能被盡可能縮小,卻不可能被徹底消除。

另一方面,算法簡化及歸類思想與對象異質(zhì)性存在沖突。為了盡量精簡快捷地運用算法解決問題,算法設(shè)計者通常會先將對象進(jìn)行分類簡化,進(jìn)而對不同類別的群體針對性賦予程序指令。在群體分類及定義的過程中,個體依據(jù)共性特征被分類,而異質(zhì)性特征卻被忽略。當(dāng)算法對象是人時,人既具有一定的共性,使其能夠歸納分類為群體,也具有復(fù)雜性、多元性,每個個體在各方面的特征都不盡相同。例如,電商平臺在進(jìn)行產(chǎn)品推送時,可能會對女性用戶一味地推送裙子、高跟鞋等商品,這些在傳統(tǒng)意義上為女性消費者量身定做的商品并不一定符合全部女性的購物偏好。因此,群體的差異性程序指令可能會使群體在共性上得到公平對待,卻在特性上受到歧視。這一現(xiàn)象由算法的歸類簡化思想導(dǎo)致,特別是在大數(shù)據(jù)科學(xué)中應(yīng)用更為普遍。當(dāng)個體數(shù)量龐大時,個體異質(zhì)性無法被充分考慮,這是導(dǎo)致少數(shù)個體被算法歧視的原因之一。

二是算法設(shè)計者存在主觀歧視思想。一方面設(shè)計者主觀認(rèn)知偏見。當(dāng)今社會中,偏見思想仍然普遍存在。算法是人類思想的體現(xiàn),如果算法設(shè)計者主觀上具有偏見思想并將主觀意愿及隱含偏見寫進(jìn)算法中,就必然會造成算法歧視問題。不僅如此,隨著大數(shù)據(jù)科學(xué)的普及和應(yīng)用,算法設(shè)計者能夠更加輕易地獲取到用戶的私人信息,這造成歧視行為更加變本加厲。金融借貸平臺的借貸歧視等算法歧視現(xiàn)象實際上就是社會歧視性思想的體現(xiàn),歸根結(jié)底是由觀念認(rèn)知偏差所引起的,而不是信息科技發(fā)展所帶來的不良后果。事實上,算法是人類為提高生產(chǎn)生活的便捷程度而創(chuàng)造和設(shè)計的工具,它固然是一把雙刃劍,但企業(yè)和算法設(shè)計者以中立的態(tài)度合理地利用算法可以使其更好地發(fā)揮正向效用。另一方面設(shè)計者逐利思想驅(qū)使。除了主觀認(rèn)知偏見之外,逐利思想也是造成算法歧視的主要原因,其中大數(shù)據(jù)“殺熟”就是逐利思想驅(qū)使導(dǎo)致算法歧視的典型表現(xiàn)。算法設(shè)計者為了獲取更高的利益,通過提供更優(yōu)越的條件吸引潛在價值更高的用戶,這無疑使其他用戶遭受不公平待遇。相比于主觀認(rèn)知偏見,逐利思想下被算法歧視的群體更容易通過消費等行為突破歧視壁壘,這也正是算法設(shè)計者設(shè)計歧視性算法的主要目的之一。也就是說,算法設(shè)計者通過有意為之的歧視,達(dá)到吸引用戶關(guān)注、刺激用戶消費等目的,進(jìn)而為自身創(chuàng)造更大的經(jīng)濟(jì)利益。事實上這也是人類思想主導(dǎo)下的算法歧視,而不是算法發(fā)展的必然后果。

三是算法設(shè)計過程中存在數(shù)據(jù)及技術(shù)漏洞。首先是算法選取樣本分布不均。除了設(shè)計過程中導(dǎo)致算法歧視問題外,數(shù)據(jù)集也是導(dǎo)致算法歧視問題的主要原因之一。與修圖算法的歧視爭端類似,在數(shù)據(jù)采樣過程中若數(shù)據(jù)來源集中于部分群體,而忽略其他群體,那么算法僅能捕捉到被采樣群體的特征,其輸出的信息也僅適用于被采樣群體,而那些未被采樣的群體就有可能成為被歧視的對象。因此,即便算法具有公正的設(shè)計思想,若所選取的數(shù)據(jù)樣本分布不均,也會導(dǎo)致嚴(yán)重的算法歧視問題。其次是機(jī)器學(xué)習(xí)過濾標(biāo)準(zhǔn)過松。具有學(xué)習(xí)功能的算法除了能夠體現(xiàn)算法設(shè)計者的思想外,還融合了用戶的思想。機(jī)器學(xué)習(xí)算法會在與用戶交互的過程中學(xué)習(xí)用戶行為,這些學(xué)習(xí)到的用戶行為信息可能會被儲存并應(yīng)用于類似的交互情景中。盡管機(jī)器學(xué)習(xí)算法的設(shè)計初衷是通過對信息和數(shù)據(jù)的學(xué)習(xí),提高輸出信息及數(shù)據(jù)的精準(zhǔn)度。特殊地,對于AI機(jī)器人等交互式機(jī)器學(xué)習(xí)算法,算法通過學(xué)習(xí)人類行為信息來擴(kuò)充信息庫,進(jìn)而提高AI機(jī)器人對人類的模仿能力。然而,目前帶有學(xué)習(xí)功能的算法通常缺乏嚴(yán)格的信息甄別和過濾功能,帶有歧視性的信息不能提前被識別過濾而被一并提供給算法進(jìn)行學(xué)習(xí),算法一旦在這一過程中學(xué)習(xí)并儲存了具有歧視性的信息,就極大可能會在其他交互情景中輸出帶有歧視性的信息,進(jìn)而導(dǎo)致更嚴(yán)重的算法歧視問題。

四是算法“黑箱”等信息存在不對稱性。由于算法從輸入數(shù)據(jù)到輸出決策結(jié)果的邏輯過程并不向外界公開,因此形成了算法“黑箱”。用戶在使用算法時僅能獲知算法運行的結(jié)果,而算法使用的數(shù)據(jù)、分析邏輯等關(guān)鍵過程則被算法“黑箱”隱藏,算法的非透明性導(dǎo)致算法歧視更加隱蔽。此外,算法設(shè)計者由于掌握著大數(shù)據(jù)信息而占據(jù)信息優(yōu)勢,從而能夠更輕易地對用戶進(jìn)行區(qū)別對待;而用戶間卻并不了解彼此的信息,且在大多數(shù)情況下用戶只能查看到自己使用算法的運行結(jié)果,而不了解其他用戶的運行結(jié)果。這導(dǎo)致用戶甚至無法發(fā)現(xiàn)自己已經(jīng)成為了被歧視群體的一員。如前文中的外賣平臺大數(shù)據(jù)“殺熟”案例中,該作者通過對比兩個賬號才發(fā)現(xiàn)會員賬號的配送費比非會員賬號更高,信息不對稱性使算法歧視問題變得隱蔽而不易被發(fā)現(xiàn)。

總而言之,無論是算法本身的訓(xùn)練數(shù)據(jù)、運行分析邏輯還是用戶信息及運行結(jié)果,用戶所掌握的信息都少于算法設(shè)計者,這使得用戶處于弱勢地位,最終成為算法歧視的受害者。

算法歧視的治理

算法歧視問題嚴(yán)重?fù)p害用戶的基本權(quán)益,迫切需要對其進(jìn)行相應(yīng)治理。根據(jù)對算法歧視問題成因的分析,主要可以從算法設(shè)計者、用戶及政府、企業(yè)及媒體等第三方主體進(jìn)行展開,探討算法歧視的治理路徑。

第一,加強IT行業(yè)風(fēng)險防控。首先是加強從業(yè)者職業(yè)道德建設(shè)。IT行業(yè)應(yīng)編寫從業(yè)者職業(yè)道德指南,并定期組織從業(yè)者參加行業(yè)相關(guān)法律法規(guī)和職業(yè)道德倫理學(xué)習(xí)并開展評估測試,杜絕從業(yè)者為賺取利益而設(shè)計歧視性算法的行為,并盡量避免其將偏見思想融入算法程序設(shè)計中;對從業(yè)人員建立完善的評價體系和定期考核制度,建立完善的用戶評價、投訴體系并建立相應(yīng)的獎懲制度,尤其應(yīng)注意對用戶滿意度的調(diào)查分析。其次是建立數(shù)據(jù)采集標(biāo)準(zhǔn)。由于數(shù)據(jù)中包含大量信息,因此其在算法中是至關(guān)重要的。IT行業(yè)應(yīng)針對從業(yè)人員在設(shè)計算法過程中的數(shù)據(jù)采集等工作制定規(guī)范細(xì)則,從業(yè)者需依據(jù)行業(yè)規(guī)范細(xì)則對數(shù)據(jù)來源、采集范圍、采樣數(shù)量等信息及時進(jìn)行記錄說明,并定期接受監(jiān)督和審查,盡可能保證在各群體中數(shù)據(jù)的充分和均勻采集,以避免由于數(shù)據(jù)樣本缺失或采樣不均而產(chǎn)生的算法歧視問題。最后是建立風(fēng)控審查機(jī)制。對于算法的設(shè)計過程中的技術(shù)漏洞問題,IT行業(yè)應(yīng)加強從業(yè)者對規(guī)避算法風(fēng)險相關(guān)知識的學(xué)習(xí),使算法設(shè)計者有良好的風(fēng)險防控意識及風(fēng)險預(yù)判能力。IT行業(yè)應(yīng)該對算法是否具備輸入信息的篩查過濾機(jī)制進(jìn)行嚴(yán)格審查。對于機(jī)器學(xué)習(xí)算法而言,用戶輸入信息必須經(jīng)過識別及過濾,才能供給機(jī)器學(xué)習(xí)算法進(jìn)行學(xué)習(xí);對于大數(shù)據(jù)科學(xué)而言,信息過濾機(jī)制能夠嚴(yán)格剔除掉那些帶有隱私敏感信息的數(shù)據(jù),使算法先完成數(shù)據(jù)脫敏過程再進(jìn)入運算環(huán)節(jié),從而降低數(shù)據(jù)引發(fā)算法歧視問題的風(fēng)險。

第二,提高用戶防范意識。首先是注意私人信息的保護(hù)。隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,用戶的運動軌跡、手機(jī)品牌、出行記錄等日常行為信息都有可能被大數(shù)據(jù)算法捕捉而成為算法歧視的“數(shù)據(jù)供應(yīng)商”。因此,用戶在日常生活中要增強個人信息保護(hù)意識,嚴(yán)格把控APP數(shù)據(jù)讀取授權(quán),以免被一些挖掘隱私信息的算法盜取信息。其次是提高警惕性和維權(quán)意識。由于存在算法“黑箱”與信息不對稱性,用戶有時會難以發(fā)現(xiàn)自己成為了被歧視群體的一員。對此,用戶應(yīng)在日常使用平臺APP、AI機(jī)器人等過程中保持高度警惕,謹(jǐn)防受到不公平待遇。

另外,用戶應(yīng)提升維權(quán)意識。2019年北京消費者協(xié)會進(jìn)行的社會調(diào)查結(jié)果(見圖2)顯示,在遭遇大數(shù)據(jù)“殺熟”后采取投訴方式進(jìn)行維權(quán)的用戶僅占26.72%,向媒體求助的用戶占比8.13%。盡管作為個體,用戶的力量薄弱,但仍應(yīng)保有話語權(quán)。在一個用戶背后是被歧視用戶的龐大群體,用戶應(yīng)意識到算法歧視問題的嚴(yán)重性,一旦發(fā)現(xiàn)自己遭遇算法歧視,應(yīng)在第一時間保留好證據(jù),積極尋求正當(dāng)渠道進(jìn)行維權(quán)。

QQ圖片20220124111956

第三,政府、媒體等第三方實現(xiàn)聯(lián)合監(jiān)管。首先是完善法律法規(guī)制度。我國作為一個法治國家,法律具有強大的約束力,通過法律手段對IT行業(yè)進(jìn)行約束是治理算法歧視問題最有力的手段。在當(dāng)前人工智能時代,算法應(yīng)用越來越廣泛,涉及到多個行業(yè)、領(lǐng)域,因此要從法律層面治理算法歧視問題,規(guī)范算法的使用范圍、方式和底線。與此同時,算法歧視涉及算法設(shè)計者、商家和用戶等多個主體,對于不同對象,法律都應(yīng)詳細(xì)規(guī)定其行為規(guī)范,明確應(yīng)承擔(dān)的責(zé)任和義務(wù)。相關(guān)部門應(yīng)該出臺相應(yīng)的法律來規(guī)制算法設(shè)計者的行為,明確在算法設(shè)計過程中存在惡意歧視行為的懲罰制度并嚴(yán)格執(zhí)行,以避免其侵犯用戶的合法權(quán)益。我國當(dāng)前相關(guān)法律主要側(cè)重于對信息內(nèi)容的管控,如已頒布的《互聯(lián)網(wǎng)文化管理暫行規(guī)定》《互聯(lián)網(wǎng)群組信息服務(wù)管理規(guī)定》法律文件等,而對于算法歧視設(shè)計主體的行為規(guī)范仍需進(jìn)一步努力。此外,我國還應(yīng)建立數(shù)據(jù)審查、問責(zé)、監(jiān)管及補救機(jī)制。在算法設(shè)計過程中,要確保數(shù)據(jù)來源真實、合理且合法,保證數(shù)據(jù)收集過程透明且可追溯,并建立嚴(yán)格的審查制度,對數(shù)據(jù)采集進(jìn)行監(jiān)管。2021年7月6日,國內(nèi)數(shù)據(jù)領(lǐng)域首部基礎(chǔ)性、綜合性立法《深圳經(jīng)濟(jì)特區(qū)數(shù)據(jù)條例》在深圳市人大常委會網(wǎng)站公布,該《條例》于2022年1月1日起施行?!稐l例》明確規(guī)定,個人數(shù)據(jù)在被處理前務(wù)必向自然人履行告知義務(wù)、征得自然人的同意,且自然人有權(quán)拒絕數(shù)據(jù)個性化服務(wù)等。未來,大數(shù)據(jù)體量將持續(xù)增加,我國應(yīng)繼續(xù)推進(jìn)對數(shù)據(jù)采集處理的監(jiān)管與治理工作,保障用戶的合法權(quán)益。其次是加強道德倫理監(jiān)督。由于受到社會環(huán)境的影響,算法設(shè)計者可能具有對某一群體的歧視思想,由此可能導(dǎo)致算法設(shè)計中缺乏中立性。一旦歧視性或偏見性思想融入算法設(shè)計過程中,算法必然會輸出歧視性的運行結(jié)果。政府應(yīng)嚴(yán)格把控從業(yè)準(zhǔn)入道德標(biāo)準(zhǔn),對從業(yè)者的職業(yè)道德學(xué)習(xí)、測評及IT行業(yè)評價及投訴體系的建立進(jìn)行監(jiān)督;媒體應(yīng)發(fā)揮正向的倡導(dǎo)作用,普及算法歧視的相關(guān)知識,引導(dǎo)正確的價值導(dǎo)向,對算法歧視問題予以充分關(guān)注并及時曝光;社會各界應(yīng)對算法歧視問題進(jìn)行及時舉報和投訴。最后是實現(xiàn)多方監(jiān)管。當(dāng)前,一些研究者們提出通過“算法透明”來解決算法歧視問題。然而,算法作為企業(yè)的技術(shù)成果與核心競爭力,如果全部透明暴露在大眾視野中,很容易受到黑客攻擊而造成損失,因此“算法透明”在現(xiàn)階段難以完全實現(xiàn)。對此,許多研究者積極研發(fā)技術(shù)工具,以期在保證算法精準(zhǔn)性的同時盡可能地避免歧視問題發(fā)生。例如,由數(shù)據(jù)科學(xué)家Been Kim所在團(tuán)隊研發(fā)的“概念激活向量測試”(Testing with Concept Activation Vectors)技術(shù),該技術(shù)能夠使算法“黑箱”變得可解釋,進(jìn)而據(jù)此判定算法是否存在歧視問題。隨著類似技術(shù)的發(fā)展成熟,算法設(shè)計者可以將算法轉(zhuǎn)換成可解釋的邏輯并進(jìn)行公開,接受政府、業(yè)內(nèi)專家、用戶及社會各界的多方監(jiān)督,在保留其機(jī)密信息的同時對算法進(jìn)行監(jiān)管,降低算法歧視問題發(fā)生的概率。

總的來說,算法歧視問題使算法無法充分發(fā)揮其正向效用,損害了用戶的體驗感與商家的利益,給算法推廣使用帶來了阻礙。算法的發(fā)展應(yīng)用應(yīng)始終秉承著“以人為本”的原則,任何群體都有權(quán)利享受算法所帶來的紅利,而非成為被算法歧視的對象。未來,隨著社會各界對算法歧視問題的認(rèn)知逐漸加深以及對算法歧視多方治理的逐步實現(xiàn),算法一定能在幫助人類高效生產(chǎn)、便捷生活的同時,實現(xiàn)人文關(guān)懷價值,充分尊重人類的平等權(quán)利與尊嚴(yán)。

(作者為湖南大學(xué)工商管理學(xué)院副院長,教授、博導(dǎo))

【參考文獻(xiàn)】

①韓勇:《算法歧視的成因及治理路徑》,《青年記者》,2021年第8期。

②宋素紅、王躍祺、常何秋子:《算法性別歧視的形成邏輯及多元化治理》,《新媒體》,2020年第5期。

③刁生富、張艷:《人工智能時代的算法歧視及其治理路徑》,《佛山科學(xué)技術(shù)學(xué)院學(xué)報》(社會科學(xué)版),2021年第1期。

④張力、鄭麗云:《算法推薦的歧視與偏見》,《傳媒先鋒》,2020第7期。

責(zé)編/韓拓 美編/楊玲玲

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:李一丹]
標(biāo)簽: 算法   大數(shù)據(jù)   治理策略