算法智能帶來麻煩 大數(shù)據(jù)社會(huì)需要考慮算法治理
2019-01-08 06:19:01 來源: 人民日?qǐng)?bào)
關(guān)注新華網(wǎng)
微博
Qzone
評(píng)論
圖集

  大數(shù)據(jù)社會(huì)需要考慮算法治理

  算法,曾被描述為一件相當(dāng)溫和的事情——計(jì)算過程明確,步驟可控,結(jié)果一目了然。近年來,算法通常與大數(shù)據(jù)結(jié)合,通過打分、排序、評(píng)級(jí)的方式在用戶、環(huán)境和推薦對(duì)象之間建立聯(lián)系,進(jìn)行自動(dòng)化推薦。搜索引擎中的網(wǎng)頁(yè)呈現(xiàn),電子商務(wù)中的商品推薦,社交網(wǎng)絡(luò)中“你可能認(rèn)識(shí)的好友”,內(nèi)容推薦引擎中的新聞推薦等,都是算法應(yīng)用的豐富場(chǎng)景。

  然而,算法的廣泛應(yīng)用也引發(fā)一些問題。不久前,英國(guó)伯明翰地方警局表示正在研發(fā)一套名為“國(guó)家數(shù)據(jù)分析方案”的系統(tǒng),旨在通過對(duì)居民個(gè)人數(shù)據(jù)資料的分析,預(yù)測(cè)公民的“犯罪指數(shù)”,引導(dǎo)警方提前干預(yù)。盡管警方一再?gòu)?qiáng)調(diào)不會(huì)僅根據(jù)風(fēng)險(xiǎn)指數(shù)就進(jìn)行逮捕,但這個(gè)消息還是引發(fā)了廣泛爭(zhēng)議。

  由于算法具有技術(shù)門檻,很多時(shí)候出現(xiàn)問題難以追責(zé),造成傷害無(wú)從補(bǔ)償。如何讓數(shù)據(jù)分析系統(tǒng)自證其算法“公平有效”,這是人們十分關(guān)心的問題,也是一道現(xiàn)實(shí)難題。2015年,美國(guó)芝加哥法院使用的犯罪風(fēng)險(xiǎn)評(píng)估算法就被證明對(duì)黑人造成了系統(tǒng)性歧視:黑人更有可能被這個(gè)系統(tǒng)錯(cuò)誤地標(biāo)記為具有高犯罪風(fēng)險(xiǎn),從而被法官判處更長(zhǎng)的刑期。另外,數(shù)百萬(wàn)人由于該算法無(wú)法獲得保險(xiǎn)、貸款和租房等服務(wù),如同被算法“囚禁”。美國(guó)皮尤研究中心發(fā)布的《公眾對(duì)計(jì)算機(jī)算法的態(tài)度》報(bào)告則顯示,58%的受訪者認(rèn)為,算法和其他計(jì)算機(jī)程序總會(huì)包含偏見。

  顯然,算法的設(shè)計(jì)、目的、數(shù)據(jù)使用等都是設(shè)計(jì)開發(fā)者的主觀選擇,其主觀偏見有可能被嵌入算法系統(tǒng)。數(shù)據(jù)的有效性和準(zhǔn)確性,也會(huì)影響整個(gè)算法決策和預(yù)測(cè)的準(zhǔn)確性。正是由于設(shè)計(jì)偏向、數(shù)據(jù)缺陷,再加上無(wú)法公開透明的“算法黑箱”,使得算法過濾、算法偏見、算法歧視和算法操控的情況屢屢發(fā)生。近幾年,全球互聯(lián)網(wǎng)平臺(tái)紛紛開發(fā)智能推薦系統(tǒng),大多數(shù)都是根據(jù)用戶使用痕跡進(jìn)行關(guān)聯(lián)推薦。算法越智能,越能使用戶被“安排”進(jìn)所謂“信息繭房”,即陷入為其量身定制的信息之中。久而久之,用戶處于信息“自我禁錮”困境,從而失去了解更大范圍事物的機(jī)會(huì)。其后果,有可能就是導(dǎo)致人們視野日趨偏狹,思想日趨封閉、僵化甚至極化。

  大數(shù)據(jù)背景下,解決算法智能帶來的麻煩已是不可回避的課題。越來越多人提出著手研究算法治理的主張,雖然注定是十分艱巨的事情,但也當(dāng)屬值得邁出的一步。(方師師)

+1
【糾錯(cuò)】 責(zé)任編輯: 張樵蘇
新聞評(píng)論
加載更多
福建武警:特戰(zhàn)訓(xùn)練礪精兵
福建武警:特戰(zhàn)訓(xùn)練礪精兵
昆明:滇池上游濕地美如畫
昆明:滇池上游濕地美如畫
梅香小寒
梅香小寒
江蘇海安:國(guó)粹進(jìn)課堂
江蘇海安:國(guó)粹進(jìn)課堂

?
010020020110000000000000011105701123958869