过滤气泡(英语:filter bubble),又称为同温层、个人化资料过滤[1]、筛选小圈圈、资讯茧房、信息茧房 (information coccons)等[2][3],是一种网站针对个人化搜寻、推荐系统和算法管理筛选后内容的结果所造成的现象。搜寻结果根据用户信息,例如其位置、过去的点击行为和搜索历史记录。 [4]因此,这种结果可能会导致使用者越来越看不到他们不同意的观点或资讯,使得认知过于单向,并处于他们的文化、意识形态气泡之中,最终形成一种有限的、个人化的世界观。 [5]这些算法做出的选择只有有时是透明的。 [6]主要的例子包括Google搜索的个人化搜寻结果以及Facebook的个人化动态消息、亚马逊Netflix的过滤性推荐系统。这个词汇被网络活动家艾利·帕里泽英语Eli Pariser(英语:Eli Pariser)提出。

根据网络活动家艾利·帕里泽(Eli Pariser)的说法,社交媒体无意中将使用者隔离在各自的意识形态过滤泡泡中

然而,关于个性化过滤的发生程度以及此类活动是否有益或有害,存在相互矛盾的报告,且各项研究的结果并未得出明确结论。

“过滤气泡”一词由网络活动家艾利·帕里泽于2010年左右提出。在帕里泽于2011年出版的书籍《搜索引擎没告诉你的事》中预测 ,透过算法过滤进行的个性化定制的内容将导致智力孤立与社会分化。 [7]帕里泽认为,过滤气泡效应可能对公民讨论产生负面影响,但也有观点认为其影响有限且可解决。 [8][9]根据帕里泽的观点,使用者接触到的对立观点较少,思想被孤立在自己的过滤气泡中。 [10]他举例说明,一位使用者在Google搜索“BP”时,获得的内容是关于英国石油公司的投资新闻,而另一位搜寻者则得到了有关深水地平线漏油事件的资讯,并指出尽管使用相同关键字,两个搜寻结果页面“截然不同”。 [10] [11] [12] [8] 2016 年美国总统大选的结果与社交媒体平台如Twitter和Facebook的影响有关, 这引发了对“过滤泡泡”现象是否会影响用户接触假新闻回音室效应的质疑, 并引起了对该术语的新兴关注, [13]许多人担心这一现象可能通过加剧错误信息的影响来损害民主与福祉。 [14] [15] [13] [16] [17] [18]

概念

编辑
 
“过滤气泡”一词由网络活动家艾利·帕里泽于2010年左右提出

帕里泽(Pariser)将“过滤气泡”的概念正式定义为“由这些算法所构建的个人资讯生态系统”。 [10]网络使用者的过去浏览与搜寻纪录,会随着时间累积,当他们透过“点击连结、查看朋友、将电影加入观片清单、阅读新闻报导”等行为表达对特定议题的兴趣时,这些资讯会被收集。 [19] 随后,网络公司会利用这些资料针对使用者投放目标式广告,或使某些类型的资讯在搜寻结果页面中更加突出地显示。 [19]

这个过程并非随机,而是遵循帕里泽的三个步骤进行的,他表示:“首先,你需要了解使用者是谁以及他们的兴趣。接着,你提供最适合他们的内容和服务。最后,进行调整,你需要确保适配更为精确。使用者的身份会影响他们接触到的媒体。” [20] 帕里泽报告道:

根据《华尔街日报》的一项研究,从CNN到Yahoo,再到MSN,前50大网站平均安装64个含有大量数据的Cookie和个人追踪信标。在Dictionary.com搜寻“抑郁”这个词时,该网站会在你的电脑上安装多达223个追踪Cookie和信标,让其他网站可以针对你推送抗抑郁药物的广告。若在ABC News分享一篇关于烹饪的文章,你可能会在网络上被特氟龙锅具的广告所追踪。即使只是短暂打开一个显示配偶可能作弊征兆的页面,你也可能会被DNA亲子鉴定广告困扰。 [21]

根据网站流量测量显示的连结点击数据,过滤气泡可以是集体的,也可以是个人化的。 [22]

2011年,一位工程师告诉帕里泽,Google会根据57个不同的数据项目来个性化使用者的搜寻结果,其中包括非Cookie类型的资讯,例如使用的电脑类型及使用者的实际位置。 [23]

帕里泽的过滤气泡概念在2011年5月的TED 演讲后广为流传。在演讲中,他举例说明了过滤气泡的运作方式以及其可见的地方。在一项旨在展示过滤气泡效应的实验中,帕里泽要求几位朋友在Google搜索“埃及”一词并将结果发送给他。比较其中两位朋友的搜寻结果页面时,虽然他们在新闻和旅游等主题上有重叠,但其中一位朋友的结果页面显示了有关当时进行中的2011 年埃及革命的资讯连结,而另一位朋友的结果页面则未显示这些连结。[24]

在《搜索引擎没告诉你的事》一书中,帕里泽警告过滤搜寻可能带来的负面影响,指出它使我们远离新的想法、议题和重要资讯, [25]并创造出一种错觉,让我们认为狭隘的自我利益即是唯一存在的事物。 [11]他认为,过滤气泡可能对个人及社会造成伤害。他批评 GoogleFacebook为使用者提供“过多的糖果而不足够的胡萝卜”。 [26]他还警告,“无形的算法编辑”可能会限制我们接触新资讯的机会,并缩小我们的视野。[26]根据帕里泽的观点,过滤气泡的负面影响之一是可能对社会造成危害,因为它们有可能“削弱公民话语”,并使人们更易受到“宣传与操控”的影响。 [11]他写道:

一个由熟悉事物构成的世界,是一个无法学到新知的世界……(因为)存在着无形的自动宣传,让我们被自己的思想所洗脑。

——艾利·帕里泽2011年时在《经济学人》发表的内容[27]



许多人并未察觉过滤气泡的存在。这可以从《卫报》的一篇文章中得知,文章提到“超过60%的Facebook使用者完全不知Facebook存在任何内容策展,而是认为每一则来自朋友和关注页面的故事都会出现在他们的新闻动态中。”[28] 简单来说,Facebook会决定哪些内容应该出现在使用者的新闻动态中,依赖的是一种算法,该算法会考量“使用者过去如何与类似的帖子互动”。 [28]

概念的延伸

编辑

过滤气泡被形容为加剧了一种现象,称为“网络分裂”或“网络巴尔干化”, 这种现象发生于互联网被划分为由志同道合的人组成的子群体时,这些群体在自己的线上社群中相互隔离,无法接触到不同的观点。这一担忧可追溯至互联网的早期,“网络巴尔干化”这一术语于1996年首次提出 [29] [30] [31]其他术语也被用来描述此现象,包括“意识形态框架[11]和“你在搜寻网络上时所处的比喻性领域”。 [19]

过滤气泡的概念已被扩展至其他领域,用来描述那些根据政治观点、经济、社会和文化情况而自我隔离的社会。 [32]这种现象导致了广泛社群的丧失,并创造出一种感觉,例如,孩子们似乎不适合参加社交活动,除非这些活动特别为孩子设计,且对没有孩子的成年人缺乏吸引力 [32]

奥巴马在告别演说中提到了一个与过滤气泡相似的概念,并将其视为对“美国民主的威胁”,即“我们退缩进自己的气泡中,...特别是在我们的社交媒体动态中,周围都是与我们相似的人,拥有相同的政治观点,并且从不挑战我们的假设...而且,随着时间推移,我们变得如此安于自己的气泡,以至于只接受符合我们观点的信息,无论其真伪,而不是根据现有的证据来形成我们的看法。”[33]

与回音室效应的比较

编辑

“回音室”与“过滤气泡”都描述了个体暴露于狭窄范围的观点和立场,这些观点和立场加强了他们既有的信念与偏见,但两者之间存在一些微妙的区别,特别是在社交媒体的使用方式上[34] [35]

新闻媒体中,回音室是用来比喻一种情况,其中信念在封闭系统内通过沟通和重复而被放大或强化。[36] [37]该这个术语源自社会学中的选择性接触理论,并以声音在空心回音室中反射的现象作为比喻。关于社交媒体,这种情况促进了自我选择的个性化机制,该机制指的是用户在特定平台上可以主动选择进入或退出资讯消费的过程,例如用户能够关注其他用户或加入群组。 [38]

在回音室中,人们可以寻找强化自己既有观点的信息,这可能无意中成为确认偏差的一种表现。这种反馈机制可能会加剧政治与社会的两极分化和极端主义。并促使用户在社交网络中形成同质性群体,进而加剧群体极化。 [39] “回音室”强化了个人的信念,却缺乏事实支持。个体被认同并遵循相同观点的人围绕,但他们同时也有能力突破回音室的限制。 [40]

另一方面,过滤气泡是隐性预设的个性化机制,使用者的媒体消费由个性化算法所塑造;用户看到的内容会经由人工智能驱动的算法过滤,进一步强化他们既有的信念和偏好,并可能排除相对或多元的观点。在在这种情况下,使用者扮演的是较为被动的角色,被视为技术的受害者,因为这项技术自动限制了他们接触那些可能挑战其世界观的信息。 [38]然而,部分研究者认为,因为使用者仍然透过与搜索引擎和社交媒体网络的互动,积极选择性地策划自己的新闻源和资讯来源,这使得他们实际上直接协助了由人工智能驱动的过滤过程,进而有效参与了自我隔离的过滤气泡[41]

尽管这些术语有所不同,但在学术界与平台研究中,它们的使用是密切相关的。在社交网络研究中,由于过滤算法的可存取性有限,往往难以区分这两个概念,这可能会限制研究者比较和对比这两个概念的作用 [42]随着许多社交媒体平台也开始限制学术研究所需的API存取,这类研究将变得越来越难以进行。 [43]

反应和研究

编辑

媒体反应

编辑

有关个性化过滤的发生程度以及这种行为是否有益或有害,存在相互矛盾的报告。分析师雅各布·韦斯伯格(Jacob Weisberg)于2011年6月为Slate撰文,撰文,进行了一项小型非科学实验来测试帕里泽的理论,实验中五名具有不同意识形态背景的同事进行了一系列搜寻,“约翰·博纳”、“巴尼·弗兰克”、“瑞安计划”和“ 患者保护与平价医疗法案 ”,并将他们的搜寻结果截图发送给韦斯伯格。结果显示,从人到人之间的差异仅限于些微之处,且任何差异似乎与意识形态无关,这让韦斯伯格得出结论,过滤气泡并未生效,并表示,大多数网络使用者“在每日的资讯流中喂食自己”的说法被过度夸大。 [11]韦斯伯格向Google询问回应,Google的发言人表示,该公司设有算法故意“限制个性化,并促进多样性” [11]书评人保罗·布廷(Paul Boutin)对拥有不同搜寻历史的人进行了类似的实验,结果发现不同的搜寻者几乎得到了相同的搜寻结果 [8]记者佩尔·格兰克维斯特(Per Grankvist​(瑞典语)私下访问了Google的程序员,发现用户数据对决定搜寻结果的作用较大,但经过测试,Google认为搜寻查询无疑是决定显示结果的最佳依据 [44]

有报导指出,Google 和其他网站会维护庞大的“档案”,这些档案包含用户的资讯,并且如果选择这么做,这些资讯可能会让它们进一步个性化使用者的网络体验。例如,Google 具备追踪用户历史纪录的技术,即使使用者没有 Google 账号或未登入,仍然能够实现。 [8]有报导提到,Google 收集了来自各种来源的“10 年资料”,例如GmailGoogle地图以及搜索引擎等服务, [12]美国有线电视新闻网 (CNN)分析师道格·格罗斯(Doug Gross)认为,过滤搜寻对消费者的帮助大于对公民的影响,并指出它能帮助寻找“披萨”的消费者根据个性化搜寻找到当地的外送选项,并过滤掉遥远的披萨店 [12]华盛顿邮报》、 《纽约时报》等媒体机构也曾试验创建新的个性化资讯服务,旨在量身定制搜寻结果,以符合使用者的喜好或立场[11]

平台研究

编辑
 
2019年微博研究中,两个社交媒体机器人的过程和增长的可视化。根据该研究,这些图表展示了过滤气泡结构的两个方面:围绕单一主题的大量用户集群,以及影响关键信息流的单向、星状结构。

对策

编辑

个人层面

编辑

在《搜索引擎没告诉你的事》一书中,[45] 互联网活动家Eli Pariser指出,过滤气泡的普及更加凸显了个人桥接社会资本的重要性,这一概念由罗伯特·普特南(Robert Putnam)所提出。Pariser认为,过滤气泡会加强社会同质化,使得不同利益和观点之间的联系逐渐削弱。[46] 从这个角度来看,高水平的桥接资本有助于通过扩大我们接触超越个人利益的社会空间来促进社会包容。提升桥接资本,例如通过在非正式场合与更多人建立联系,可能是减少过滤气泡效应的有效途径。

用户可以采取许多行动来突破过滤气泡,例如有意识地评估自己接触到的信息,并批判性地思考自己是否正在接触各种不同的内容。[47] 用户可以有意识地避开那些无法验证或资讯薄弱的新闻来源。IAB行销副总裁Chris Glushko建议使用事实查证网站来辨别假新闻。[48] 技术也可以在对抗过滤气泡方面发挥重要作用。[49]

一些浏览器插件旨在帮助用户走出过滤气泡,并让他们意识到自己偏向的观点;这些插件会显示与他们的信仰和观点相矛盾的内容。除了插件之外,还有一些应用程序专门设计来鼓励用户打破回音室效应。例如,像《Read Across the Aisle》这样的新闻应用会提示用户阅读不同的观点,特别是当他们的阅读习惯过于偏向某一方或意识形态时。[50] 尽管这些应用程序和插件为用户提供了工具,但Eli Pariser指出:“当然,这里也有个人责任,必须主动寻找那些与自己不同的来源和人群。”[51]

由于网络广告会加剧过滤气泡的影响,通过向用户展示更多相似的内容,用户可以通过删除搜寻历史、关闭定向广告或下载浏览器扩展来屏蔽大部分广告。部分用户会选择使用匿名或非个性化的搜索引擎,例如YaCyDuckDuckGoQwantStartpage.comDisconnectSearx,以避免公司收集他们的搜寻数据。《瑞士日报》《Neue Zürcher Zeitung》正在测试一款个性化新闻应用,该应用利用机器学习推测用户的兴趣,同时“始终包含惊喜元素”;其目的是将一些用户过去不太可能关注的故事加入到他们的新闻流中。[52]

欧盟已经开始采取措施,旨在减少过滤气泡的影响。欧洲议会正在资助对过滤气泡如何影响人们获取多元新闻的调查。[53] 同时,欧盟还推出了一项计划,旨在帮助市民提高对社交媒体的认识与使用方式。[54] 在美国,CSCW小组建议媒体消费者使用新闻聚合应用程序,以拓宽他们的新闻视野。这些新闻聚合应用会扫描当前的所有新闻文章,并引导用户阅读不同观点的内容。用户也可以使用一种视觉化的新闻平衡器,显示自己在阅读新闻时是否有偏向。若偏向右派,则显示红色条形增大;若偏向左派,则显示蓝色条形增大。针对这款新闻平衡器的研究结果表明,“在看到反馈的用户中,阅读行为有了小幅但明显的变化,向更加均衡的曝光转变,相较于对照组有所不同”。[55]

媒体公司方面

编辑

由于近期对社交媒体信息过滤的关注,Facebook已经承认了过滤气泡的存在,并开始采取措施来消除这一现象。[56] 2017年1月,Facebook因为一些用户未能看到热门事件,决定从“热门话题”列表中去除个性化设定。[57] Facebook的策略是推翻2013年推出的“相关文章”功能,该功能会在用户阅读完共享的文章后,展示相关新闻。如今,改进后的策略将颠倒这一过程,展示来自不同观点的文章,而非仅仅是相同观点的报导。此外,Facebook也在进行筛选过程,保证只有来自可信来源的文章会被展示。与Craigslist创始人及其他合作伙伴一起,Facebook已经投入1400万美元,旨在“提高全球对新闻的信任,并促进更有建设性的公共对话”。[56] 其理念是,即使人们只阅读来自朋友分享的帖子,这些帖子也应该是可信的。

同样地,Google于2018年1月30日也承认其平台存在过滤气泡的问题。由于目前的Google搜索结果会根据“权威性”和“相关性”的算法排名,这使得某些搜寻结果会被隐藏或显示出来,Google正在努力解决这一问题。为了限制过滤气泡的范围,Google正在训练其搜索引擎识别搜寻查询的用户意图,而不仅仅依据字面语法。这一训练的初步阶段将于2018年第二季度推出。然而,涉及偏见或争议性意见的问题将推迟处理,这引发了目前仍然存在的一个更大问题:搜索引擎究竟应该充当真理的裁决者,还是作为一个指导决策的知识性工具?[58]

2017年4月,报导指出,Facebook、Mozilla和Craigslist共同出资1400万美元,支持CUNY的“新闻诚信计划”,该计划旨在对抗假新闻并促进更诚实的新闻媒体。[59]

随后在8月,Mozilla(Firefox浏览器的开发者)宣布成立Mozilla信息信任计划(MITI)。此计划旨在作为一项集体努力,开发产品、进行研究,并提出基于社群的解决方案,以应对过滤气泡的影响以及假新闻的蔓延。Mozilla的开放创新团队负责领导此计划,专注于对抗虚假信息,并特别关注与信息素养、研究及创意干预相关的产品。[60]

伦理影响

编辑

随着云端服务的普及,构建过滤气泡的个人化算法预期将变得更加普遍。[61] 学者已开始从伦理学角度考量过滤气泡对社群媒体使用者的影响,尤其是在个人自由、安全性和资讯偏见等方面。[62] 社群媒体与个人化搜寻网站的过滤气泡,经常透过算法决定使用者看到的特定内容,且多数情况下未经使用者的直接同意或知悉,[61]因为内容的策展是由算法自动完成的。根据行为模式生成的个人化内容可能导致部分资讯盲区。[63] 批评者认为,由于过滤气泡的普遍存在,个人可能会失去对其社群媒体体验的控制权,且其身份有可能因此被社会建构。[61]

科技专家、社群媒体工程师与电脑专家也探讨了过滤气泡的广泛存在。[64] Facebook创办人马克·祖克伯与《过滤气泡》的作者伊莱·帕里泽都曾表达对隐私风险及资讯极化的担忧。[65][66] 个人化搜索引擎与社群媒体平台的使用者资讯并非完全保密,尽管一些人认为这些资料应该受到保护。[65] 对隐私的担忧引发了讨论,即资讯技术人员是否有道德责任在不操控用户未来资讯暴露的情况下,利用用户的线上活动数据。[66]

一些学者对过滤气泡对个人和社会福祉的影响表示关切,特别是在健康资讯向大众传播以及网络搜索引擎可能改变健康相关行为方面的潜在影响。[16][17][18][67] 一本2019年的跨学科书籍探讨了过滤气泡在健康错误资讯中的角色,并提供了相关的研究与观点。[18] 这本书结合了新闻学、法律、医学与健康心理学等不同领域,探讨了各种争议性健康信念(如替代医学和伪科学)以及应对过滤气泡和回音室对健康议题负面影响的潜在解决方案。2016年一项关于过滤气泡对自杀相关搜寻结果潜在影响的研究发现,算法在是否显示帮助热线和相关搜寻结果方面起著关键作用,并讨论了该研究对健康政策的潜在启示。[17] 另一项2016年克罗地亚医学期刊的研究则提出了一些减少过滤气泡对健康资讯有害影响的策略,例如:加强公众对过滤气泡及其影响的认识,鼓励用户选择其他[非Google]搜索引擎,并更多地解释搜索引擎如何决定显示结果的过程。[16]

由于个别社群媒体用户所见的内容会受到产生过滤气泡的算法影响,因此,使用社群媒体平台的用户更容易受到确认偏误的影响,[68] 并可能接触到有偏见和误导性的资讯。[69] 社会分类和其他无意的歧视性行为也预计会由个人化过滤所引发。[70]

鉴于2016年美国总统选举,学者们同样对过滤气泡对民主和民主过程的影响表示关切,以及“意识形态媒体”的兴起。[71] 这些学者担心,随着过滤气泡创建了个人化的社交媒体动态,用户将无法“超越自己狭隘的自我利益”,从而使他们与多元观点及周围社群隔离开来。[72] 因此,越来越多的讨论开始提到,应该设计更多随机性元素的社交媒体,亦即主动推荐超出用户过滤气泡的内容,包括具有挑战性的政治信息,并最终向用户提供赋能过滤器和工具。[73][74][75] 另一项相关的关切是,过滤气泡如何促进假新闻的蔓延,并且这可能会影响政治倾向,包括用户的投票行为。[71][76][77]

2018年3月,揭露了剑桥分析公司(Cambridge Analytica)在2016年总统选举期间,为至少8700万个Facebook用户收集并利用资料的事件,这突显了过滤气泡所带来的伦理问题。[78] 剑桥分析公司的联合创始人兼吹哨人Christopher Wylie详细说明了该公司如何通过这些用户资料建立“心理档案”,并利用这些资料来影响用户的投票行为。[79] 第三方如剑桥分析公司访问用户资料,可能加剧并放大已经存在的过滤气泡,人工强化现有的偏见,进一步加深社会的分裂。

过滤气泡的危害

编辑

过滤气泡源自于媒体个性化的兴起,这种现象可能会将使用者困在其中。人工智能用于个性化推送的方式,可能会导致使用者只看到强化其既有观点的内容,而不会挑战这些观点。像是 Facebook 等社交媒体网站,也可能以使使用者难以判断内容来源的方式呈现内容,迫使他们自行决定该来源是否可靠或是否为假讯息。 [80]这可能使人们习惯听取自己想听的内容,进而在看到相对立的观点时反应更为激烈。过滤气泡可能会使个人将任何反对的观点视为错误,从而使媒体能够将观点强加于消费者。 [81] [80] [82]

研究指出,过滤气泡会加强个人已经持有的想法[83]。因此,利用提供多元观点的资源变得极为重要。 [83]

参见

编辑
  • 帕里瑟.伊莱。 《搜索引擎没告诉你的事》 ,企鹅出版社(纽约,2011 年)ISBN 978-1-59420-300-8

外部链接

编辑


参考资料

编辑
  1. ^ Filter Bubble是甚麼?. 台湾搜索引擎优化与行销研究院:SEO:SEM. 2012-05-29 [2017-07-04]. (原始内容存档于2016-11-22) (中文(台湾)). 
  2. ^ 许竹. 微博的“信息繭房”效應及其思考. 人民网. 2018-09-27 [2022-04-23]. (原始内容存档于2022-04-23). 
  3. ^ Technopedia, Definition – What does Filter Bubble mean? 互联网档案馆存档,存档日期2017-10-10., Retrieved October 10, 2017, "....A filter bubble is the intellectual isolation, that can occur when websites make use of algorithms to selectively assume the information a user would want to see, and then give information to the user according to this assumption ... A filter bubble, therefore, can cause users to get significantly less contact with contradicting viewpoints, causing the user to become intellectually isolated...."
  4. ^ Bozdag, Engin. Bias in algorithmic filtering and personalization. Ethics and Information Technology. September 2013, 15 (3): 209–227. S2CID 14970635. doi:10.1007/s10676-013-9321-6. 
  5. ^ Huffington Post, The Huffington Post "Are Filter-bubbles Shrinking Our Minds?" 互联网档案馆存档,存档日期2016-11-03.
  6. ^ Encrypt, Search. What Are Filter Bubbles & How To Avoid Them. Search Encrypt Blog. 2019-02-26 [2019-03-19]. (原始内容存档于2019-02-25). 
  7. ^ Kitchens, Brent; Johnson, Steve L.; Gray, Peter. Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption. MIS Quarterly. 2020-12-01, 44 (4): 1619–1649. S2CID 229294134. doi:10.25300/MISQ/2020/16371. 
  8. ^ 8.0 8.1 8.2 8.3 Boutin, Paul. Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?. The Wall Street Journal. May 20, 2011 [August 15, 2011]. (原始内容存档于April 5, 2015). By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don't create a personal Google account or are not logged into one. ...  引用错误:带有name属性“twsO13”的<ref>标签用不同内容定义了多次
  9. ^ Zhang, Yuan Cao; Séaghdha, Diarmuid Ó; Quercia, Daniele; Jambor, Tamas. Auralist: Introducing serendipity into music recommendation. 2012: 13–22. ISBN 9781450307475. doi:10.1145/2124295.2124300. 
  10. ^ 10.0 10.1 10.2 Parramore, Lynn. The Filter Bubble. The Atlantic. October 10, 2010 [April 20, 2011]. (原始内容存档于August 22, 2017). Since December 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill.... 
  11. ^ 11.0 11.1 11.2 11.3 11.4 11.5 11.6 Weisberg, Jacob. Bubble Trouble: Is Web personalization turning us into solipsistic twits?. Slate. June 10, 2011 [August 15, 2011]. (原始内容存档于June 12, 2011).  引用错误:带有name属性“twsO11”的<ref>标签用不同内容定义了多次
  12. ^ 12.0 12.1 12.2 Gross, Doug. What the Internet is hiding from you. CNN. May 19, 2011 [August 15, 2011]. (原始内容存档于April 9, 2016). I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.  引用错误:带有name属性“twsO14”的<ref>标签用不同内容定义了多次
  13. ^ 13.0 13.1 Jasper Jackson. Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit: Upworthy chief warned about dangers of the internet's echo chambers five years before 2016's votes. The Guardian. 8 January 2017 [March 3, 2017]. (原始内容存档于7 March 2017). ..."If you only see posts from folks who are like you, you're going to be surprised when someone very unlike you wins the presidency," Pariser tells The Guardian.... 
  14. ^ Mostafa M. El-Bermawy. Your Filter Bubble is Destroying Democracy. Wired. November 18, 2016 [March 3, 2017]. (原始内容存档于March 9, 2017). ...The global village that was once the internet ... digital islands of isolation that are drifting further apart each day ... your experience online grows increasingly personalized ... 
  15. ^ Drake Baer. The 'Filter Bubble' Explains Why Trump Won and You Didn't See It Coming. New York Magazine. November 9, 2016 [March 3, 2017]. (原始内容存档于February 26, 2017). ...Trump's victory is blindsiding ... because, as media scholars understand it, we increasingly live in a "filter bubble": The information we take in is so personalized that we're blind to other perspectives.... 
  16. ^ 16.0 16.1 16.2 Holone, Harald. The filter bubble and its effect on online personal health information. Croatian Medical Journal. June 2016, 57 (3): 298–301. PMC 4937233 . PMID 27374832. doi:10.3325/cmj.2016.57.298. 
  17. ^ 17.0 17.1 17.2 Haim, Mario; Arendt, Florian; Scherr, Sebastian. Abyss or Shelter? On the Relevance of Web Search Engines' Search Results When People Google for Suicide. Health Communication. February 2017, 32 (2): 253–258. PMID 27196394. S2CID 3399012. doi:10.1080/10410236.2015.1113484. 
  18. ^ 18.0 18.1 18.2 Medical Misinformation and Social Harm in Non-Science Based Health Practices: A Multidisciplinary Perspective. CRC Press. [2020-04-22]. (原始内容存档于2020-08-04) (英语). 
  19. ^ 19.0 19.1 19.2 Lazar, Shira. Algorithms and the Filter Bubble Ruining Your Online Experience?. Huffington Post. June 1, 2011 [August 15, 2011]. (原始内容存档于April 13, 2016). a filter bubble is the figurative sphere surrounding you as you search the Internet.  引用错误:带有name属性“twsO15”的<ref>标签用不同内容定义了多次
  20. ^ Pariser, Eli. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin. 2011-05-12 [2020-10-11]. ISBN 9781101515129. (原始内容存档于2021-01-19). 
  21. ^ How Filter Bubbles Distort Reality: Everything You Need to Know. 2017-07-31 [2019-06-23]. (原始内容存档于2019-07-03). 
  22. ^ Nikolov, Dimitar; Oliveira, Diego F.M.; Flammini, Alessandro; Menczer, Filippo. Measuring online social bubbles. PeerJ Computer Science. 2 December 2015, 1: e38. Bibcode:2015arXiv150207162N. arXiv:1502.07162 . doi:10.7717/peerj-cs.38 . 
  23. ^ Pariser, Eli. Beware online "filter bubbles". March 2011 [2018-05-30]. (原始内容存档于2018-05-28). 
  24. ^ Pariser, Eli. Beware online 'filter bubbles'. TED.com. March 2011 [2017-09-24]. (原始内容存档于2017-09-22). 
  25. ^ First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser. USA Today. 2011 [April 20, 2011]. (原始内容存档于2011-05-03). Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information. 
  26. ^ 26.0 26.1 Bosker, Bianca. Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns. Huffington Post. March 7, 2011 [April 20, 2011]. (原始内容存档于March 13, 2011). When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots. 
  27. ^ Invisible sieve: Hidden, specially for you. The Economist. 30 June 2011 [June 27, 2011]. (原始内容存档于3 July 2011). Mr Pariser's book provides a survey of the internet's evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user. 
  28. ^ 28.0 28.1 Hern. How social media filter bubbles and algorithms influence the election. The Guardian. 2017-05-22 [2018-05-30]. (原始内容存档于2018-05-31). 
  29. ^ Van Alstyne, Marshall; Brynjolfsson, Erik. Electronic Communities: Global Village or Cyberbalkans? (PDF). March 1997 [Copyright 1996] [2017-09-24]. (原始内容存档 (PDF)于2016-04-05). 
  30. ^ Van Alstyne, Marshall; Brynjolfsson, Erik. Could the Internet Balkanize Science?. Science. November 1996, 274 (5292): 1479–1480. Bibcode:1996Sci...274.1479V. S2CID 62546078. doi:10.1126/science.274.5292.1479. 
  31. ^ Alex Pham; Jon Healey. Systems hope to tell you what you'd like: 'Preference engines' guide users through the flood of content. Chicago Tribune. September 24, 2005 [December 4, 2015]. (原始内容存档于December 8, 2015). ...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools. 
  32. ^ 32.0 32.1 Menkedick, Sarah. Why are American kids treated as a different species from adults?. Aeon. 14 May 2020 [2020-05-15]. (原始内容存档于2020-05-15) (英语). 
  33. ^ Obama, Barack. President Obama's Farewell Address (演讲). Washington, D.C. 10 January 2017 [24 January 2017]. (原始内容存档于24 January 2017). 
  34. ^ Hosanagar, Kartik. Blame the Echo Chamber on Facebook. But Blame Yourself, Too. Wired. 2016-11-25 [2017-09-24]. (原始内容存档于2017-09-25). 
  35. ^ DiFonzo, Nicholas. The Echo-Chamber Effect. The New York Times. 2011-04-21 [2017-09-24]. (原始内容存档于2017-06-13). 
  36. ^ sdf. John Gorenfeld, Moon the Messiah, and the Media Echo Chamber. Daily Kos. 2004-06-23 [2017-09-24]. (原始内容存档于2016-05-02). 
  37. ^ Jamieson, Kathleen Hall; Cappella, Joseph N. Echo Chamber: Rush Limbaugh and the Conservative Media Establishment . Oxford University Press. 2008-07-22 [2017-09-24]. ISBN 978-0-19-536682-2. 
  38. ^ 38.0 38.1 What are Filter Bubbles and Digital Echo Chambers? | Heinrich-Böll-Stiftung | Tel Aviv - Israel. Heinrich-Böll-Stiftung. [2023-03-08] (英语).  引用错误:带有name属性“il.boell.org”的<ref>标签用不同内容定义了多次
  39. ^ Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele. The echo chamber effect on social media. Proceedings of the National Academy of Sciences. 2021-03-02, 118 (9): e2023301118. Bibcode:2021PNAS..11823301C. ISSN 0027-8424. PMC 7936330 . PMID 33622786. doi:10.1073/pnas.2023301118  (英语). 
  40. ^ Elanor Colleoni; Alessandro Rozza; Adam Arvidsson. Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data. Journal of Communication. April 2014, 64 (2): 317–332. doi:10.1111/jcom.12084. hdl:10281/66011 . 
  41. ^ Ekström, Axel G.; Niehorster, Diederick C.; Olsson, Erik J. Self-imposed filter bubbles: Selective attention and exposure in online search. Computers in Human Behavior Reports. 2022-08-01, 7: 100226. ISSN 2451-9588. S2CID 251434172. doi:10.1016/j.chbr.2022.100226  (英语). 
  42. ^ Reviglio, Urbano; Agosti, Claudio. Thinking Outside the Black-Box: The Case for "Algorithmic Sovereignty" in Social Media. Social Media + Society. April 2020, 6 (2): 205630512091561. ISSN 2056-3051. S2CID 219019544. doi:10.1177/2056305120915613. hdl:2434/840214  (英语). 
  43. ^ Twitter's plan to cut off free data access evokes 'fair amount of panic' among scientists. www.science.org. [2023-03-08] (英语). 
  44. ^ Grankvist, Per. The Big Bubble: How Technology Makes It Harder to Understand the World. United Stories Publishing. 2018-02-08: 179. ISBN 978-91-639-5990-5. 
  45. ^ Eli Pariser. The Filter Bubble: What the Internet Is Hiding from You . New York: Penguin Press. May 2011: 17. ISBN 978-1-59420-300-8. 
  46. ^ Stephen Baron; John Field; Tom Schuller. Social capital: A review and critique.. Social Capital: Critical perspectives. Oxford University Press. November 30, 2000. ISBN 9780199243679. 
  47. ^ Are we stuck in filter bubbles? Here are five potential paths out. Nieman Lab. [2017-03-03]. (原始内容存档于2017-03-04). 
  48. ^ Glushko, Chris. Pop the Personalization Filter Bubbles and Preserve Online Diversity. Marketing Land. 2017-02-08 [22 May 2017]. (原始内容存档于2017-03-15). 
  49. ^ Ritholtz, Barry. Try Breaking Your Media Filter Bubble. Bloomberg. 2 February 2017 [22 May 2017]. (原始内容存档于2017-08-21). 
  50. ^ A news app aims to burst filter bubbles by nudging readers toward a more "balanced" media diet. Nieman Lab. [2017-05-24]. (原始内容存档于2017-05-15). 
  51. ^ 引用错误:没有为名为:0的参考文献提供内容
  52. ^ Mădălina Ciobanu. NZZ is developing an app that gives readers personalised news without creating a filter bubble: The app uses machine learning to give readers a stream of 25 stories they might be interested in based on their preferences, but 'always including an element of surprise'. Journalism.co.uk. 3 March 2017 [March 3, 2017]. (原始内容存档于3 March 2017). ... if, based on their consumption history, someone has not expressed an interest in sports, their stream will include news about big, important stories related to sports,... 
  53. ^ Catalina Albeanu. Bursting the filter bubble after the US election: Is the media doomed to fail? At an event in Brussels this week, media and politicians discussed echo chambers on social media and the fight against fake news. Journalism.co.uk. 17 November 2016 [March 3, 2017]. (原始内容存档于10 March 2017). ... EU referendum in the UK on a panel at the "Politicians in a communication storm" event... On top of the filter bubble, partisan Facebook pages also served up a diet heavy in fake news.... 
  54. ^ European Commission. [2017-03-03]. (原始内容存档于2017-03-04). 
  55. ^ Resnick, Paul; Garrett, R. Kelly; Kriplean, Travis; Munson, Sean A.; Stroud, Natalie Jomini. Bursting your (Filter) bubble. Proceedings of the 2013 conference on Computer supported cooperative work companion - CSCW '13. 2013: 95. ISBN 978-1-4503-1332-2. S2CID 20865375. doi:10.1145/2441955.2441981. 
  56. ^ 56.0 56.1 Vanian, Jonathan. Facebook Tests Related Articles Feature to Fight Filter Bubbles. Fortune.com. 2017-04-25 [2017-09-24]. (原始内容存档于2017-09-25). 
  57. ^ Sydell, Laura. Facebook Tweaks its 'Trending Topics' Algorithm to Better Reflect Real News. KQED Public Media. NPR. 25 January 2017 [5 April 2018]. (原始内容存档于26 February 2018). 
  58. ^ Hao, Karen. Google is finally admitting it has a filter-bubble problem. Quartz. [2018-05-30]. (原始内容存档于2018-05-04). 
  59. ^ Facebook, Mozilla and Craigslist Craig fund fake news firefighter. [2019-01-14]. (原始内容存档于2018-11-23). 
  60. ^ The Mozilla Information Trust Initiative: Building a movement to fight misinformation online. The Mozilla Blog. [2019-01-14]. (原始内容存档于2019-01-14). 
  61. ^ 61.0 61.1 61.2 Bozdag, Engin; Timmerman, Job. Values in the filter bubble Ethics of Personalization Algorithms in Cloud Computing. ResearchGate. [6 March 2017]. (原始内容存档于14 December 2020). 
  62. ^ Al-Rodhan, Nayef. The Many Ethical Implications of Emerging Technologies. Scientific American. [6 March 2017]. (原始内容存档于8 April 2017). 
  63. ^ Haim, Mario; Graefe, Andreas; Brosius, Hans-Bernd. Burst of the Filter Bubble?. Digital Journalism. 16 March 2018, 6 (3): 330–343. S2CID 168906316. doi:10.1080/21670811.2017.1338145 . 
  64. ^ 過濾氣泡提出了重要議題——你只需自行過濾. Rainforest Action Network. [6 March 2017]. (原始内容存档于8 April 2017). 
  65. ^ 65.0 65.1 Sterling, Greg. 馬克·祖克伯的宣言:Facebook 如何連結世界、打擊假新聞並突破過濾氣泡. Marketing Land. 2017-02-20 [6 March 2017]. (原始内容存档于2017-03-08). 
  66. ^ 66.0 66.1 Morozov, Evgeny. 你的事實. 纽约时报. 2011-06-10 [6 March 2017]. (原始内容存档于2017-03-04). 
  67. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula. 信任與健康資訊來源:網路的影響及其對醫療提供者的啟示:來自第一次健康資訊國家趨勢調查的發現. Archives of Internal Medicine. 12 December 2005, 165 (22): 2618–24. PMID 16344419. doi:10.1001/archinte.165.22.2618. 
  68. ^ El-Bermawy, Mostafa. 過濾氣泡正摧毀民主. Wired. 2016-11-18 [6 March 2017]. (原始内容存档于2017-03-09). 
  69. ^ 如何突破保護我們免受對立觀點的“過濾氣泡”. MIT Technology Review. [6 March 2017]. (原始内容存档于19 January 2021). 
  70. ^ Borgesius, Frederik; Trilling, Damian; Möller, Judith; Bodó, Balázs; de Vreese, Claes; Helberger, Natali. 我們應該擔心過濾氣泡嗎?. Internet Policy Review. 2016-03-31 [6 March 2017]. (原始内容存档于2017-03-20). 
  71. ^ 71.0 71.1 引用错误:没有为名为:4的参考文献提供内容
  72. ^ Pariser, Eli. 過濾氣泡:新個人化網絡如何改變我們閱讀與思考的方式. New York: Penguin Press. 2011. ISBN 978-1-59420-300-8. 
  73. ^ 讚美隨機性. The Economist. 9 March 2017 [14 January 2019]. (原始内容存档于15 January 2019). 
  74. ^ Reviglio, Urbano. 隨機性作為資訊領域的新興設計原則:挑戰與機會. Ethics and Information Technology. June 2019, 21 (2): 151–166. S2CID 57426650. doi:10.1007/s10676-018-9496-y. 
  75. ^ Harambam, Jaron; Helberger, Natali; van Hoboken, Joris. 讓算法新聞推薦系統實現民主化:如何在技術飽和的媒體生態系統中具體體現公民發聲. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 28 November 2018, 376 (2133): 20180088. Bibcode:2018RSPTA.37680088H. PMC 6191663 . PMID 30323002. doi:10.1098/rsta.2018.0088. 
  76. ^ Herrman, John. 走進Facebook的(完全瘋狂、無意間龐大、極端偏向的)政治媒體機器. The New York Times. August 24, 2016 [October 24, 2017]. (原始内容存档于October 19, 2017). 
  77. ^ Del Vicario, Michela; Bessi, Alessandro; Zollo, Fabiana; Petroni, Fabio; Scala, Antonio; Caldarelli, Guido; Stanley, H. Eugene; Quattrociocchi, Walter. 線上錯誤信息的傳播. Proceedings of the National Academy of Sciences. 19 January 2016, 113 (3): 554–559. Bibcode:2016PNAS..113..554D. PMC 4725489 . PMID 26729863. doi:10.1073/pnas.1517441113 . 
  78. ^ Granville, Kevin. Facebook與劍橋分析公司:隨著事件擴大,您需要知道的事情. The New York Times. 19 March 2018 [19 October 2018]. (原始内容存档于19 October 2018). 
  79. ^ Meredith, Sam. Facebook-劍橋分析公司:資料劫持醜聞的時間線. CNBC. 10 April 2018 [19 October 2018]. (原始内容存档于19 October 2018). 
  80. ^ 80.0 80.1 Gross, Michael. The dangers of a post-truth world. Current Biology. January 2017, 27 (1): R1–R4. Bibcode:2017CBio...27...R1G. doi:10.1016/j.cub.2016.12.034 . 
  81. ^ How Filter Bubbles Distort Reality: Everything You Need to Know. Farnam Street. 2017-07-31 [2019-05-21]. (原始内容存档于2019-05-20). 
  82. ^ Dish, The Daily. The Filter Bubble. The Atlantic. 2010-10-10 [2019-05-21]. (原始内容存档于2017-08-22). 
  83. ^ 83.0 83.1 Filter Bubbles & Confirmation Bias - Fake News (And how to fight it) - LibGuides at Miami Dade College Learning Resources. [2020-10-22]. (原始内容存档于2020-10-23). 

相关条目

编辑