過濾氣泡
出自 MBA智库百科(https://wiki.mbalib.com/)
過濾氣泡(The Filter Bubble)、過濾泡泡、過濾器氣泡、認知氣泡
簡單地說,過濾器氣泡就是根據你的個人數據來操縱你的搜索結果。
目錄 |
過濾氣泡是社會活動家兼作家伊萊·帕里澤( Eli Pariser )2010年在他的著作《別讓演算法控制你》(或稱過濾氣泡 The Filter Bubble )中提出,他認為社交網路的依賴會影響人們世界觀的形成,人們在網上衝浪所處的個人化的信息世界,是由一系列個性化的過濾器為網路用戶構造出來的獨特環境,而這些過濾器盛行於互聯網。過濾氣泡是指基於大數據與演算法推薦為底層架構,根據用戶的使用時間、地區以及瀏覽習慣生成用戶畫像,並通過演算法技術為其呈現獨一無二的界面體驗。這種網路針對個人化搜索而提供篩選後結果的推薦演算法,被稱為“過濾氣泡”。
帕里澤在提出這一概念時提到的典型例子是谷歌的個性化搜索和Facebook的個性化新聞。不同的用戶在谷歌上搜索同一個詞語,呈現給他們的是不同的內容;用戶在Facebook首頁刷到什麼內容,根據Facebook的說法,很大程度上取決於“您過去如何與類似帖子進行互動”。
奧巴馬在2017年卸任時的告別演講中也曾引用這一概念,他說:“尤其是我們的社交媒體,周圍是看起來和我們相像的人,擁有相同的政治觀點,從不挑戰我們的假設……而且我們越來越在自己的泡沫中感到安全,以至於我們開始只接受符合我們觀點的信息……”
認知氣泡是指人們的認知總是受到周圍環境和所接受信息的影響,特別是在網路時代,信息大爆炸,我們在網路上所看到的信息其實是網路媒介經過演算法推送給人們的,也就是說,這些信息是經過過濾的,仿佛是一個過濾氣泡,在這個氣泡中,很難聽到對立的觀點和聲音。
認知氣泡是搜索引擎和社交媒體對發佈的線上內容進行過濾後產生的,這種過濾基於用戶的搜索歷史、位置和過去的點擊行為等用戶信息。例如,Facebook新聞提要和谷歌(Google)搜索結果,就是根據用戶信息(存儲在“cookies”中)為用戶定製的。 比如我有一段時間喜歡在網上看圍棋的比賽視頻,後來打開頭條,推送給我的就是大量的圍棋視頻。當我在噹噹網或亞馬遜上買一本書後,它會自動推送若幹內容相似的書籍。
在著作《過濾氣泡》中,作者開篇就講述了自己試圖將從社交媒體獲得的信息擴散給朋友的經歷:“政治上,我是偏向左翼的,但我很願意瞭解保守主義者的想法,於是我與他們中的有些人成了朋友,同時關註了他們的Facebook賬號。我想要知道他們會發送什麼樣的鏈接,我會瀏覽他們的評論,並從中吸取經驗教訓。不過這些鏈接從來不會出現在我的置頂帖子里。”
由於Facebook運行優勢排行( EdgeRank )的演算法,置頂帖子的頁面是按照一定優先順序排列的,因此帕里澤的保守主義者朋友無法顯示在置頂面里。你看到的帖子具有時效性,受更新類型的影響(留言往往比評論更醒目) , 同時也取決於你與發帖人的“親密度”。後,你與發帖人互動的頻率也是重要的因素,包括多久訪問一次他的主項或是否經常給他發消息。相此於少有互動的高中同學,那些每天與你有信息往來的人自然更受關註。帕里澤與朋友圈裡的保守主義者朋友親密度較低。
帕里澤表示:“Facebook就像在做數學運算,它留意到我常常關註激進的朋友發佈的帖子,卻很少點擊保守主義朋友轉發的鏈接…於是,從來不向我推送保守派的鏈接。”帕里澤擔心,優勢排行等個性化技術的發展,會減少我們收穫意外驚喜的機會,世界會變得越來越狹小,這還是我們希望看到的。搜索引|擎等個性化工具潛移默化的影響,尤其讓帕里澤擔憂,我們原本希望看到和其他人一樣的搜索結果,但實際上看到了為我們量身定做的內容。他的擔憂或許有些言時過早,因為大多數此類服務是可以關閉的,谷歌的工程師也對他的《過濾氣泡》做出了回應,稱個性化技術的影響,遠沒有他列舉的那麼顯著。
- 區別
信息繭房是由於自身主動的信息接觸行為產生的,迴音室效應是封閉環境內相同或者相似觀點的重覆產生的。即,信息繭房是主觀原因造成的,迴音室效應是客觀原因造成的。而過濾氣泡與信息繭房和迴音室所指涉的主體不同,過濾氣泡更多的是指向技術與平臺,而信息繭房與迴音室指向的更多的是受眾。[1]
回聲室效應指的是:當我們過多地接觸我們偏好的信息,我們對於現實的判斷可能會被扭曲,因為我們過分關註事物的某一面,而忽略了另一面,並逐漸認為現實就是如此;而過濾氣泡描述的是另一種情況:我們不喜歡或不同意的新聞內容會被自動過濾掉,而這會縮小我們的認知範圍。這一區別十分關鍵,因為迴音室可能是演算法過濾的結果,也可能是其他原因造成的;而過濾氣泡則一定是演算法過濾的結果。
- 聯繫
主觀原因造成的信息繭房和由平臺造成的過濾氣泡,讓人沉在自己偏好的信息世界中,使相同或者相似的聲音積聚,這聲音經過二次發酵,就會容易催生迴音室效應,進而容易引起“群體極化”。[1]
據美國媒體Axios消息,2021年11月,一個由眾議院兩黨立法者組成的小組提出了一項法案,該法案要求線上平臺向用戶提供不使用個性化演算法推薦的選項。該法案在眾議院和參議院得到了兩黨的支持,但尚不清楚它是否會通過。
該法案最早在2019年就曾被參議員提出,此次是在Facebook的演算法操縱危機的背景下被重提。大型平臺的個性化推薦演算法很長時間以來都被質疑會加劇社會兩極分化和極端主義,在美國,大型平臺的演算法推薦正引起日益激烈的爭論,但目前沒有相關的法律文件出台。
這項法案名為《過濾氣泡透明度法案》"(Filter Bubble Transparency Act"),其內容是對互聯網平臺的演算法推薦進行規制,其中,搜索結果排序、個性化內容推薦、社交媒體帖子呈現等都被包含在內。
該法案針對的核心問題是“演算法是否使用了用戶的特定數據”,如果平臺基於用戶的特定數據,如歷史瀏覽記錄、身體活動數據、轉賬記錄等來向用戶進行個性化內容推薦,而這些信息不是用戶為了實現特定目的主動提供給平臺的,這樣的演算法在這份文件中被定義為“不透明演算法”。與“不透明演算法”相對應的是“輸入透明演算法”,指的是除了用戶主動輸入和提供的信息外,不利用用戶的特定個人信息來進行個性化推薦的演算法。
法案規定,使用“不透明演算法”的平臺,必須用戶第一次使用時,以清晰、顯著的方式告知用戶,平臺正在通過用戶特定的個人數據來向其展示內容,並且,平臺必須同時提供“輸入透明演算法”的版本,併在內容頁面上給用戶一個顯著的按鈕,讓用戶可以自己選擇切換“輸入透明演算法”或“不透明演算法”。
也就是說,平臺必須給用戶提供關閉個性化推薦的選項,而且用戶每一次使用個性化推薦時,都可以在頁面上一鍵切換到非個性化推薦演算法。
對於提出該法案的原因,參與提出該法案的眾議員Cicilline說:“Facebook 和其他占主導地位的平臺通過不透明的演算法操縱用戶,這些演算法將增長和利潤置於其他一切之上。而且由於這些平臺的壟斷力量和支配地位,用戶幾乎沒有辦法替代這種剝削性的商業模式,無論是在社交媒體、廣告還是搜索結果中。”
值得註意的是,法案考慮到了未成年人的問題。如果平臺收集用戶個人信息是為了判斷其是否達到一定年齡,從而過濾掉具有年齡限制的內容,這樣的演算法雖然收集了用戶的特定數據,但是不屬於“不透明演算法”。
此外,該法案主要針對大型平臺,而過去半年雇員少於500人、過去三年公司年均收入低於5000萬美元、每年收集或處理少於100萬用戶的個人數據的公司不受該法案限制。