全球专业中文经管百科,由121,994位网友共同编写而成,共计436,008个条目

过滤气泡

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

过滤气泡(The Filter Bubble)、过滤泡泡、过滤器气泡、认知气泡

简单地说,过滤器气泡就是根据你的个人数据来操纵你的搜索结果。

目录

什么是过滤气泡

  过滤气泡是社会活动家兼作家伊莱·帕里泽( Eli Pariser )2010年在他的著作《别让算法控制你》(或称过滤气泡 The Filter Bubble )中提出,他认为社交网络的依赖会影响人们世界观的形成,人们在网上冲浪所处的个人化的信息世界,是由一系列个性化的过滤器为网络用户构造出来的独特环境,而这些过滤器盛行于互联网。过滤气泡是指基于大数据与算法推荐为底层架构,根据用户的使用时间、地区以及浏览习惯生成用户画像,并通过算法技术为其呈现独一无二的界面体验。这种网络针对个人化搜索而提供筛选后结果的推荐算法,被称为“过滤气泡”。

  帕里泽在提出这一概念时提到的典型例子是谷歌的个性化搜索和Facebook的个性化新闻。不同的用户在谷歌上搜索同一个词语,呈现给他们的是不同的内容;用户在Facebook首页刷到什么内容,根据Facebook的说法,很大程度上取决于“您过去如何与类似帖子进行互动”。

  奥巴马在2017年卸任时的告别演讲中也曾引用这一概念,他说:“尤其是我们的社交媒体,周围是看起来和我们相像的人,拥有相同的政治观点,从不挑战我们的假设……而且我们越来越在自己的泡沫中感到安全,以至于我们开始只接受符合我们观点的信息……”

  认知气泡是指人们的认知总是受到周围环境和所接受信息的影响,特别是在网络时代,信息大爆炸,我们在网络上所看到的信息其实是网络媒介经过算法推送给人们的,也就是说,这些信息是经过过滤的,仿佛是一个过滤气泡,在这个气泡中,很难听到对立的观点和声音。

  认知气泡是搜索引擎和社交媒体对发布的在线内容进行过滤后产生的,这种过滤基于用户的搜索历史、位置和过去的点击行为等用户信息。例如,Facebook新闻提要和谷歌(Google)搜索结果,就是根据用户信息(存储在“cookies”中)为用户定制的。 比如我有一段时间喜欢在网上看围棋的比赛视频,后来打开头条,推送给我的就是大量的围棋视频。当我在当当网或亚马逊上买一本书后,它会自动推送若干内容相似的书籍。

过滤气泡相关著作

  在著作《过滤气泡》中,作者开篇就讲述了自己试图将从社交媒体获得的信息扩散给朋友的经历:“政治上,我是偏向左翼的,但我很愿意了解保守主义者的想法,于是我与他们中的有些人成了朋友,同时关注了他们的Facebook账号。我想要知道他们会发送什么样的链接,我会浏览他们的评论,并从中吸取经验教训。不过这些链接从来不会出现在我的置顶帖子里。”

  由于Facebook运行优势排行( EdgeRank )的算法,置顶帖子的页面是按照一定优先顺序排列的,因此帕里泽的保守主义者朋友无法显示在置顶面里。你看到的帖子具有时效性,受更新类型的影响(留言往往比评论更醒目) , 同时也取决于你与发帖人的“亲密度”。后,你与发帖人互动的频率也是重要的因素,包括多久访问一次他的主项或是否经常给他发消息。相此于少有互动的高中同学,那些每天与你有信息往来的人自然更受关注。帕里泽与朋友圈里的保守主义者朋友亲密度较低。

  帕里泽表示:“Facebook就像在做数学运算,它留意到我常常关注激进的朋友发布的帖子,却很少点击保守主义朋友转发的链接…于是,从来不向我推送保守派的链接。”帕里泽担心,优势排行等个性化技术的发展,会减少我们收获意外惊喜的机会,世界会变得越来越狭小,这还是我们希望看到的。搜索引|擎等个性化工具潜移默化的影响,尤其让帕里泽担忧,我们原本希望看到和其他人一样的搜索结果,但实际上看到了为我们量身定做的内容。他的担忧或许有些言时过早,因为大多数此类服务是可以关闭的,谷歌工程师也对他的《过滤气泡》做出了回应,称个性化技术的影响,远没有他列举的那么显著。

过滤气泡、信息茧房、回音室的区别与联系

  区别

  信息茧房是由于自身主动的信息接触行为产生的,回音室效应是封闭环境内相同或者相似观点的重复产生的。即,信息茧房是主观原因造成的,回音室效应是客观原因造成的。而过滤气泡与信息茧房和回音室所指涉的主体不同,过滤气泡更多的是指向技术与平台,而信息茧房与回音室指向的更多的是受众。[1]

  回声室效应指的是:当我们过多地接触我们偏好的信息,我们对于现实的判断可能会被扭曲,因为我们过分关注事物的某一面,而忽略了另一面,并逐渐认为现实就是如此;而过滤气泡描述的是另一种情况:我们不喜欢或不同意的新闻内容会被自动过滤掉,而这会缩小我们的认知范围。这一区别十分关键,因为回音室可能是算法过滤的结果,也可能是其他原因造成的;而过滤气泡则一定是算法过滤的结果。

  联系

  主观原因造成的信息茧房和由平台造成的过滤气泡,让人沉在自己偏好的信息世界中,使相同或者相似的声音积聚,这声音经过二次发酵,就会容易催生回音室效应,进而容易引起“群体极化”。[1]

过滤气泡相关法案

  据美国媒体Axios消息,2021年11月,一个由众议院两党立法者组成的小组提出了一项法案,该法案要求在线平台向用户提供不使用个性化算法推荐的选项。该法案在众议院和参议院得到了两党的支持,但尚不清楚它是否会通过。

  该法案最早在2019年就曾被参议员提出,此次是在Facebook的算法操纵危机的背景下被重提。大型平台的个性化推荐算法很长时间以来都被质疑会加剧社会两极分化和极端主义,在美国,大型平台的算法推荐正引起日益激烈的争论,但目前没有相关的法律文件出台。

  这项法案名为《过滤气泡透明度法案》"(Filter Bubble Transparency Act"),其内容是对互联网平台的算法推荐进行规制,其中,搜索结果排序、个性化内容推荐、社交媒体帖子呈现等都被包含在内。

  该法案针对的核心问题是“算法是否使用了用户的特定数据”,如果平台基于用户的特定数据,如历史浏览记录、身体活动数据、转账记录等来向用户进行个性化内容推荐,而这些信息不是用户为了实现特定目的主动提供给平台的,这样的算法在这份文件中被定义为“不透明算法”。与“不透明算法”相对应的是“输入透明算法”,指的是除了用户主动输入和提供的信息外,不利用用户的特定个人信息来进行个性化推荐的算法。

  法案规定,使用“不透明算法”的平台,必须用户第一次使用时,以清晰、显著的方式告知用户,平台正在通过用户特定的个人数据来向其展示内容,并且,平台必须同时提供“输入透明算法”的版本,并在内容页面上给用户一个显著的按钮,让用户可以自己选择切换“输入透明算法”或“不透明算法”。

  也就是说,平台必须给用户提供关闭个性化推荐的选项,而且用户每一次使用个性化推荐时,都可以在页面上一键切换到非个性化推荐算法。

  对于提出该法案的原因,参与提出该法案的众议员Cicilline说:“Facebook 和其他占主导地位的平台通过不透明的算法操纵用户,这些算法将增长和利润置于其他一切之上。而且由于这些平台的垄断力量和支配地位,用户几乎没有办法替代这种剥削性的商业模式,无论是在社交媒体、广告还是搜索结果中。”

  值得注意的是,法案考虑到了未成年人的问题。如果平台收集用户个人信息是为了判断其是否达到一定年龄,从而过滤掉具有年龄限制的内容,这样的算法虽然收集了用户的特定数据,但是不属于“不透明算法”。

  此外,该法案主要针对大型平台,而过去半年雇员少于500人、过去三年公司年均收入低于5000万美元、每年收集或处理少于100万用户的个人数据的公司不受该法案限制。

参考文献

  1. 1.0 1.1 胡师姐新传考研.信息茧房、回音室、与过滤气泡的区别与联系|20北师大新传学硕真题解析06.知乎,2020-05-28

相关条目

本条目对我有帮助50
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您认为本条目还有待完善,需要补充新内容或修改错误内容,请编辑条目投诉举报

本条目由以下用户参与贡献

Llyn,essilco,陈cc.

评论(共0条)

提示:评论内容为网友针对条目"过滤气泡"展开的讨论,与本站观点立场无关。

发表评论请文明上网,理性发言并遵守有关规定。

打开APP

以上内容根据网友推荐自动排序生成

下载APP

闽公网安备 35020302032707号