全球专业中文经管百科,由121,994位网友共同编写而成,共计436,047个条目

演算法歧視

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

目錄

演算法歧視

  演算法內在力量是自動化決策,它包括排序、分類、關聯和過濾。演算法歧視就發生在自動化決策之中,比如排序被濫用和誤用引發風險分配的不公平問題。建立在數據基礎之上的演算法系統也會犯錯、帶有偏見,而且比以往的數字歧視更加隱秘。

演算法歧視的表現[1]

一、價格歧視。例如,早在2000年,某網站就曾經搞過演算法“殺熟”,同一款DVD碟片,對老用戶報價26.24美元,對新用戶僅報價22.74美元。近年來,我國一些網購平臺利用大數據“殺熟”的現象也是屢見不鮮。

二、性別歧視。例如,某網站研發了一套篩選簡歷的演算法系統,結果顯示其對男性求職者有著明顯的偏好,女性求職者的簡歷常常分數不高。其三,種族歧視。例如,某國外著名網站上的高薪工作廣告更多地向白人顯示;智能照相機在照相時不停提醒亞裔睜開眼睛等。此外,基於宗教信仰、經濟狀況、外貌等形式的演算法歧視也廣泛存在。

  演算法歧視特殊的一面:

一、演算法歧視更加精準。演算法能夠對每個用戶精準畫像,被打上歧視標簽的用戶絕無逃脫可能。

二、演算法歧視更加多元。人類歧視通常依據的是性別、學歷等顯形特征,但演算法能夠挖掘出更加深層次的隱形特征來作為其歧視處理的依據,包括網頁瀏覽記錄、購物記錄、行車路線等。

三、演算法歧視更為片面。人類社會對於個體的判斷通常是綜合和動態的,而演算法無法獲取或處理用戶的全部數據。

四、演算法歧視更加隱蔽。傳統基於種族、性別、民族等特征的歧視是法律所禁止的,但演算法卻可以規避這些規定

演算法歧視引發的危害

  演算法將個體的分類、排序和過濾,對個人生活產生了深遠的影響。演算法不僅僅是個人隱私的問題、信息安全問題,還包括社會公正的問題。

  一、繼續固化和擴大偏見和歧視。演算法歧視延續著傳統,即處於不利地位的群體實際上應該得到更少的優待。如果沒有刻意的關註,這些創新可以很容易地固化歧視,強化偏見,掩蓋機會。在沒有任何特殊處理的情況下,數據挖掘可以重現原有的歧視模式,繼承決策者的偏見,或者僅僅反映出社會中普遍存在的偏見。

  二、不斷蠶食消費者剩餘,壓榨消費者個人財富。根據經濟學家雜誌顯示,2014年在排名前100名最受歡迎網站中,超過1300多家公司在追蹤消費者。利用演算法技術,根據消費者網頁瀏覽歷史來調整價格會增加企業14%到55%的利潤,而只使用人口統計數據來個性化定價只會使利潤增長0.30%,這意味著企業通過演算法和大數據進行的個性化定價利潤增長已經增加了48倍。在企業利潤增加的同時,消費者的剩餘被企業剝奪,消費者個人福利被減少。

  三、剝奪個人自我決定權,破壞了信息的多樣性。演算法推薦信息可以點對點提供個性化、定製化信息,但也讓個體放棄了自我決斷權,數據控制者比我們更瞭解我們,可以告訴我們需要什麼信息,演算法操縱著我們的世界和決定,又強加給我們另一種特定的價值體系。個性化的選擇引發了信息偏向,我們的視野更加狹隘,成為了井蛙效應、信息繭房效應,還可能帶來群集化風險。個體沉浸在演算法推薦營造的信息世界,逃避和過濾那些與自己不同看法,容易形成信息偏向問題(陳昌鳳, 張心蔚,2017)。

  四是對個體生命構成潛在的威脅。研究者發現將數據轉化為信息的演算法系統並不是絕對可靠的,它依賴於不完美的輸入、邏輯、概率和設計人員,即使有過於樂觀的假設,數據挖掘演算法準確率為99.9%。當應用到2億人的時候,有成千上萬的人會經歷錯誤的治療。因此,在醫學領域,大規模篩查的方法備受爭議(Helbing,2015)。換句話說,儘管大數據的挖掘者可能會假裝採取更科學、更好、更公平的決策,但結果往往會有隨意性,只具有有限的精確性。許多數據挖掘者可能不知道這一點,但也不關心。許多演算法在沒有警告的情況下產生輸出,這一事實在其結果中造成了危險的過度自信,極有可能對個體的生命造成損害。

演算法歧視的解決之道[1]

  完善演算法的法律規制。一方面,規範演算法利用的範圍、方式和限度。對於演算法歧視,既要從公法層面嚴厲製裁濫用演算法的企業等主體,也可以考慮在私法層面引入大規模侵權規則和懲罰性賠償規則。與此同時,對於高度敏感的數據應當禁止演算法處理,包括種族、民族、宗教信仰等。另一方面,要賦予用戶更多的權利。用戶可以通過被遺忘權來刪除過時的數據,通過更正權來補充或更改錯誤或不完整的數據。還應參照歐盟《一般數據保護法》的規定,賦予用戶拒絕權和解釋權,即如果用戶認為演算法的自動化決策存在歧視,那麼其有權拒絕接受處理結果。

  重視演算法的技術規制。面對日新月異的人工智慧技術,依靠單一的法律規則來應對演算法歧視是難以奏效的。對此,建議引入演算法的倫理設計,從一開始就將演算法透明、演算法可解釋、演算法問責、演算法審計等價值需求嵌入演算法的設計當中。相較於法律的事後救濟,演算法的倫理設計更強調預防的重要性,要求設計者在演算法的設計階段遵守禁止歧視的法律和倫理規則,並通過自然語言將法律語言嵌入到演算法的全生命運行周期中。

  探索演算法規制的市場路徑。傳統理論認為,演算法公平與企業的營利目標是衝突的,企業沒有動力推動演算法公平的實現。然而,隨著用戶對於演算法公平的需求越來越強烈,市場將會淘汰那些濫用演算法的企業。對此,企業可以通過發佈透明度報告等方式來公佈演算法公平指數,以贏得用戶信任。此外,公權力機關通過投資和採購的方式,也可以引導企業提高演算法公平指數,減少演算法歧視的發生。

相關條目

參考資料

本條目對我有幫助15
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您認為本條目還有待完善,需要補充新內容或修改錯誤內容,請編輯條目投訴舉報

本条目由以下用户参与贡献

滴滴,LuyinT,essilco,Tracy.

評論(共0條)

提示:評論內容為網友針對條目"演算法歧視"展開的討論,與本站觀點立場無關。

發表評論請文明上網,理性發言並遵守有關規定。

打开APP

以上内容根据网友推荐自动排序生成

官方社群
下载APP

闽公网安备 35020302032707号