全球专业中文经管百科,由121,994位网友共同编写而成,共计436,012个条目

算法歧视

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

目录

算法歧视

  算法内在力量是自动化决策,它包括排序、分类、关联和过滤。算法歧视就发生在自动化决策之中,比如排序被滥用和误用引发风险分配的不公平问题。建立在数据基础之上的算法系统也会犯错、带有偏见,而且比以往的数字歧视更加隐秘。

算法歧视的表现[1]

一、价格歧视。例如,早在2000年,某网站就曾经搞过算法“杀熟”,同一款DVD碟片,对老用户报价26.24美元,对新用户仅报价22.74美元。近年来,我国一些网购平台利用大数据“杀熟”的现象也是屡见不鲜。

二、性别歧视。例如,某网站研发了一套筛选简历的算法系统,结果显示其对男性求职者有着明显的偏好,女性求职者的简历常常分数不高。其三,种族歧视。例如,某国外著名网站上的高薪工作广告更多地向白人显示;智能照相机在照相时不停提醒亚裔睁开眼睛等。此外,基于宗教信仰、经济状况、外貌等形式的算法歧视也广泛存在。

  算法歧视特殊的一面:

一、算法歧视更加精准。算法能够对每个用户精准画像,被打上歧视标签的用户绝无逃脱可能。

二、算法歧视更加多元。人类歧视通常依据的是性别、学历等显形特征,但算法能够挖掘出更加深层次的隐形特征来作为其歧视处理的依据,包括网页浏览记录、购物记录、行车路线等。

三、算法歧视更为片面。人类社会对于个体的判断通常是综合和动态的,而算法无法获取或处理用户的全部数据。

四、算法歧视更加隐蔽。传统基于种族、性别、民族等特征的歧视是法律所禁止的,但算法却可以规避这些规定

算法歧视引发的危害

  算法将个体的分类、排序和过滤,对个人生活产生了深远的影响。算法不仅仅是个人隐私的问题、信息安全问题,还包括社会公正的问题。

  一、继续固化和扩大偏见和歧视。算法歧视延续着传统,即处于不利地位的群体实际上应该得到更少的优待。如果没有刻意的关注,这些创新可以很容易地固化歧视,强化偏见,掩盖机会。在没有任何特殊处理的情况下,数据挖掘可以重现原有的歧视模式,继承决策者的偏见,或者仅仅反映出社会中普遍存在的偏见。

  二、不断蚕食消费者剩余,压榨消费者个人财富。根据经济学家杂志显示,2014年在排名前100名最受欢迎网站中,超过1300多家公司在追踪消费者。利用算法技术,根据消费者网页浏览历史来调整价格会增加企业14%到55%的利润,而只使用人口统计数据来个性化定价只会使利润增长0.30%,这意味着企业通过算法和大数据进行的个性化定价利润增长已经增加了48倍。在企业利润增加的同时,消费者的剩余被企业剥夺,消费者个人福利被减少。

  三、剥夺个人自我决定权,破坏了信息的多样性。算法推荐信息可以点对点提供个性化、定制化信息,但也让个体放弃了自我决断权,数据控制者比我们更了解我们,可以告诉我们需要什么信息,算法操纵着我们的世界和决定,又强加给我们另一种特定的价值体系。个性化的选择引发了信息偏向,我们的视野更加狭隘,成为了井蛙效应、信息茧房效应,还可能带来群集化风险。个体沉浸在算法推荐营造的信息世界,逃避和过滤那些与自己不同看法,容易形成信息偏向问题(陈昌凤, 张心蔚,2017)。

  四是对个体生命构成潜在的威胁。研究者发现将数据转化为信息的算法系统并不是绝对可靠的,它依赖于不完美的输入、逻辑、概率和设计人员,即使有过于乐观的假设,数据挖掘算法准确率为99.9%。当应用到2亿人的时候,有成千上万的人会经历错误的治疗。因此,在医学领域,大规模筛查的方法备受争议(Helbing,2015)。换句话说,尽管大数据的挖掘者可能会假装采取更科学、更好、更公平的决策,但结果往往会有随意性,只具有有限的精确性。许多数据挖掘者可能不知道这一点,但也不关心。许多算法在没有警告的情况下产生输出,这一事实在其结果中造成了危险的过度自信,极有可能对个体的生命造成损害。

算法歧视的解决之道[1]

  完善算法的法律规制。一方面,规范算法利用的范围、方式和限度。对于算法歧视,既要从公法层面严厉制裁滥用算法的企业等主体,也可以考虑在私法层面引入大规模侵权规则和惩罚性赔偿规则。与此同时,对于高度敏感的数据应当禁止算法处理,包括种族、民族、宗教信仰等。另一方面,要赋予用户更多的权利。用户可以通过被遗忘权来删除过时的数据,通过更正权来补充或更改错误或不完整的数据。还应参照欧盟《一般数据保护法》的规定,赋予用户拒绝权和解释权,即如果用户认为算法的自动化决策存在歧视,那么其有权拒绝接受处理结果。

  重视算法的技术规制。面对日新月异的人工智能技术,依靠单一的法律规则来应对算法歧视是难以奏效的。对此,建议引入算法的伦理设计,从一开始就将算法透明、算法可解释、算法问责、算法审计等价值需求嵌入算法的设计当中。相较于法律的事后救济,算法的伦理设计更强调预防的重要性,要求设计者在算法的设计阶段遵守禁止歧视的法律和伦理规则,并通过自然语言将法律语言嵌入到算法的全生命运行周期中。

  探索算法规制的市场路径。传统理论认为,算法公平与企业的营利目标是冲突的,企业没有动力推动算法公平的实现。然而,随着用户对于算法公平的需求越来越强烈,市场将会淘汰那些滥用算法的企业。对此,企业可以通过发布透明度报告等方式来公布算法公平指数,以赢得用户信任。此外,公权力机关通过投资和采购的方式,也可以引导企业提高算法公平指数,减少算法歧视的发生。

相关条目

参考资料

本条目对我有帮助15
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您认为本条目还有待完善,需要补充新内容或修改错误内容,请编辑条目投诉举报

本条目由以下用户参与贡献

滴滴,LuyinT,essilco,Tracy.

评论(共0条)

提示:评论内容为网友针对条目"算法歧视"展开的讨论,与本站观点立场无关。

发表评论请文明上网,理性发言并遵守有关规定。

打开APP

以上内容根据网友推荐自动排序生成

下载APP

闽公网安备 35020302032707号