ASO114

深度 | 大数据推荐会使人变蠢?

猫先森 • 5天前发布

摘要

数字从来不会自己说话。数据必须经过分析才能产生意义。数据必须要清理、加权、整理。 很多时候,大数据被输入到算法中,产生可指导行动的测量数据。个性化给人们带来的最大担忧是,它让用户撤回到舒服的飞地,其结果是用户的视野变窄,偏见增强。

请输入标题     abcdefg


任何改变都会产生赢家和输家。不管你喜欢与否,网络都有能力收集个人信息。这产生了一对矛盾:一方面是这些数据衍生的利益——由机构和用户享有;另一方面是人们对保护隐私的期望。这对矛盾不会很快消失,在更多情况下,它们是属于政治范畴的问题,而不是研究方法的问题。


个性化给人们带来的最大担忧是,它让用户撤回到舒服的飞地,其结果是用户的视野变窄,偏见增强。信息时代带给我们的另一个风险是:我们分享如此多的信息,以至于我们的独立性被降低了。相反,我们寻找和我们一样思考的人们,吹嘘我们有多少“好友”和“粉丝”。

数字从来不会自己说话。数据必须经过分析才能产生意义。数据必须要清理、加权、整理。 很多时候,大数据被输入到算法中,产生可指导行动的测量数据。然而,预测人们会做什么、要什么或对什么满意,比物理世界的预测更难。


我们的行动通常反映了习惯与偏好的组合,但是我们的兴趣各不相同,对媒体的了解也并不完美。所以,要在我们想要的时候,准确地得到我们想要的东西,并非一件容易的事情。我们每个人的选择加在一起,创造了一种对媒体有价值的东西——公众注意力。因此,媒体尽其所能地创造并维持公众注意力,包括设计赤裸裸的强力曝露活动,也包括悄悄地对我们曲意逢迎。用户和媒体一直处于互动之中。双方都对自己的选择进行评估,寻找有利条件,并根据看起来可能的条件调整自己。但是,这些评估是如何进行的?目前,双方日益依赖媒介测量来处理自己的事务。


一个世纪以来,测量已经成为媒体产业的重要组成部分。然而,在选择丰富的数字媒体时代,普通用户也变得依赖媒介测量。即使保守地说,收集和报告数据的活动也会带来深远的影响。 


请输入标题     abcdefg


媒介测量的兴起

媒介测量始于 20 世纪早期,当时是作为广告商评估媒体价值的一种方式。报纸杂志只需确定印刷了多少份就能知道受众的规模。然而,广播遇到一个新的问题:听众并没有留下足迹。广播听众分散在广阔的天地,隐匿在私密空间,就像承载广播信号的电波一样无影无踪。想要成为成功的广告媒介,广播需要一个方法来确认谁在收听。到了 20 世纪 30 年代,相关行业在一种专门做受众测量的新公司那里找到了解决方法。这些“收听率”机构,正如后来人们所熟悉的那样,使用新开发的取样工具和统计推断来估算听众规模。有了收听率信息,广播行业从此兴旺发达。电视后来出现时,也采纳了广播的测量手段。


到了 20 世纪 80 年代,大多数西方国家(它们起初并不像美国那样依赖广告商支持)也拥有了固定的受众测量。不管是哪种情况,测量的基本处方是一样的。视听率机构首先抽取一个代表性的样本,然后通过问卷、日志或仪表来测量人们的选择,最后推测更大受众群体的规模与构成。


社会学家有一个说法叫做“市场信息机制”,视听率机构便是它的实例。这些机制成为“身处竞争领域的生产者了解自己、消费者、竞争对手和供应商行为的首要信息来源”。很多机构,例如媒体,都需要稳定的数据才能运转。如果没有数据,他们就是盲人。然而,他们所依赖的信息永远都不是完全中立的。视听率是建构的,而且建构的方式影响了它所要测量的东西本身。


例如,唱片行业曾经通过《公告牌》(Billboard)杂志的排行榜来确定一首歌的流行程度。20 世纪 80 年代,唱片行业开始使用更准确的“音乐统计”系统。这个系统基于扫描条形码所收集的销售数据。然而,测量方法的改变也使唱片行业产生了分化,某些音乐类型(例如乡村音乐)因此变得更加重要。测量改变行业,相似的案例也发生在电视和图书出版业。


视听率机构继续演化。它们根据新媒体做出调整,并开始使用新的数据源(例如推特和 Facebook ) 。 随着人员和广告在不同媒体间迅速流动,人们还要对“跨平台”受众进行评估。时至今日,在全世界范围内,媒体测量引导了广告行业大约 5000 亿美元的资金配置。因为媒介测量是判断成败的通用标准,所以它们也往往成为媒体制作者的灾星或救星。


然而,到了 20 世纪 90 年代,一种新的信息机制开始出现。万维网不断发展,它为人们提供的选择多到让人眼花缭乱。在这个背景下,媒体用户需要获取信息,才能最大限度地利用这些媒体资源。搜索引擎、门户网站、社交分享平台都开始为用户提供工具。用户利用这些工具了解自己所做的选择。普通用户也可以使用这些“用户信息机制”了。


市场信息机制为机构提供监测,用户信息机制为用户提供上网工具,二者看似很不相同,但是实际上,它们在很多方面都是相似的。一般来说,二者都对媒体用户的行为或自我表达进行记录,进而整合数据。用户行为在时间和空间上通常是分散的,信息机制将这些行为记录下来,并使之可视化。接下来,数据被简化,然后排行榜、推荐和统计概要被制作出来,最后用户据此采取行动。此外,这些测量数据是通过整合普通民众言行得到的,所以它们似乎更值得信任。


现在,很多机构将公司数据(如谷歌公司)当作市场信息。这进一步模糊了市场信息机制和用户信息机制之间的界限。所以,谷歌——也包括 Facebook 和推特——有着不同的服务对象。它们所收集的数据服务于不同的目的。正如媒体批评家、活动家伊莱·帕里泽所解释的:“Facebook 和谷歌所收集的大量数据有两个用途:对于用户来说,这些数据为找到与个人相关的新闻和搜索结果提供了线索;对于广告商来说,这些数据是能否找到潜在买家的关键。拥有最多的数据并能充分利用,这样的公司才能赚到广告费。”既然数据能够有力地影响媒体环境,我们有必要了解一下媒介测量是如何进行的。


像谷歌和 Facebook 这样的企业,最初成立时是为建立更好的搜索引擎或更具活力的社交网络。和其他“Web 2.0”平台一样,它们为用户提供了各种各样的服务,并希望从中赚钱。很多平台与传统大众媒体类似,例如搜索引擎、社交网络和热门博客。换句话说,它们为人们提供服务——通常是免费的——然后将因提供服务而获得的用户注意力卖给广告商。其他平台,例如亚马逊、奈飞和iTunes,则引导人们从巨大的媒体库中购买某个特定的媒体产品。不管是哪种情况,它们都靠数据生存。

蒂姆·奥莱利,Web 2.0 这个词的创造者,曾经提到:“迄今为止,每一项重要的互联网应用,都有一个专门的数据库作支撑。”谷歌“爬梳”全网,以追踪网页是如何互联的。Facebook 收集海量的信息,包括用户自我声明的特征、喜好、朋友圈及其互动程度。移动设备越来越多地收集与人们地理位置有关的信息,并拍摄能用于图片识别的照片。


这些数据首先为吸引用户的服务提供了动力。人们使用某个平台越多,他们所提供的数据也就越多。被收集的数据越多,数据库越具有力量和价值。如奥莱利和他的合著者约翰·巴特利所解释的:“如果某个公司控制了某些应用运转所需的独有数据源,那么它们便可以从数据使用中收取垄断性租金。尤其是,如果数据库源于用户的贡献,那么随着数据库规模和价值的增长超过其他新进入者,市场领导者的回报将会日益增加。” 


然而,使用这些数据来引导或操纵用户,本身就具有很多经济和政治意义。我们曾经提到,谷歌不仅测量知名度,还创造知名度。谷歌所拥有的这种力量并没有逃过那些渴望爬上谷歌排名榜首的机构和个人的眼睛。实际上,有一种家庭作坊式的企业专门做“搜索引擎优化”。它们利用谷歌的排名方法为客户谋利。谷歌对这种情况进行了监测。它不断改进算法以提高搜索质量,有时也会惩罚作弊者。2011 年,杰西潘尼(JCPenney)被发现制作了几千个虚假链接,人为提高了它的排名。作为惩罚,谷歌隐藏了杰西潘尼的搜索结果。与电视的收视率相似,搜索排名影响到收益,所以这个惩罚颇有效力。


然而,与传统视听率服务不同,Web 2.0 服务往往悄无声息地收集信息,没有人主动同意被调查。在一本具有前瞻性并大体持乐观态度的书——《新数字时代》(The New Digital Age)中,两位谷歌高管如此描述这个问题:“今天,很多在线平台都将数据传回公司和第三方,这些数据涉及用户的活动,而用户却未被明确告知。人们所分享的东西,远远超过他们所能意识到的。对于政府和公司来说,这个蓬勃发展的数据库就是一个馈赠。有了数据库,它们可以更好地回应公民和消费者的关切,可以精确定位特定的人口群体。而且,随着预测分析行业的问世,它们还可以利用数据库预测未来。” 


不管你喜欢与否,网络都有能力收集个人信息。这产生了一对矛盾:一方面是这些数据衍生的利益——由机构和用户享有;另一方面是人们对保护隐私的期望。这对矛盾不会很快消失,在更多情况下,它们属于政治范畴的问题,而不是研究方法的问题。在美国,由于人们的努力,浏览器中强制加入了“无痕浏览”的醒目提示。在欧洲,人们对“老大哥”监视自己的恐惧更加明显。因此,欧洲人对“被遗忘权”进行了严肃的讨论。所以,在信息如何收集和报告方面,测量行业受到政治条件的限制。


实际上,对数据的分析和解释,有时候也被称为“数据整理”。数据整理很复杂,本书并不是讨论它的地方。然而,有两个笼统的方法如此常见、如此重要,所以值得我进行解释。第一个方法:整合数据以提供摘要。所有形式的媒体都在使用这个方法。第二个方法:发明算法以提供推荐。这正是很多Web 2.0 服务的生意所在。


了解海量数据的最简单方法是数人头。有多少人访问了网站、浏览了网页或下载了视频?在观看某个电视节目的人群中,有多少是女性、多大年纪?在所有这些情况中,你描述的是受众的规模,通常也包括受众的构成。将数据相加,归入不同的类别,并用数字呈现统计结果。这是最基本的流行度测量方法。当这些数字用人口百分比(例如 10% 的家庭观看了某个节目)表示时,我们称之为 “收视率”。而且,正如我们所看到的,视听率具有很高的价值。


当然,数数也并不是那么简单。视听率机构试图准确描述人口整体。但是,没有一个测量机构能够收集到所有相关人口的信息。它们都会进行统计学调整。视听率机构通常对代表不足或过分代表的人口类别进行加权,从而使之“比例均衡”。这并不是一个完美的解决方案。但是它达到的效果是,在最终估算中,不同类型人群的权重是成比例的。更重要的是,统计学调整的过程对视听率用户是透明的。它通常由机构外的第三方鉴定。


新一点的数字媒体也充斥着数人头的做法。推特上的话题“趋势”对用户是即时可见的,而且经常被新闻媒体报道。同样的社交聊天也被“社交监听”公司捕获,然后转换为数据,用来评定参与度。在 YouTube 上,我们很容易看到某段视频被观看了多少次。iTunes 上显示了歌曲的流行度。老一点媒体的网络版,例如《纽约时报》,通常让读者知道哪些文章阅读最多、哪些电邮最多、哪些评论最多。越来越无处不在的“喜欢”按钮,为更多的数人头活动提供了原材料。


显然,这些新的测量方法颇具吸引力。或许,与少数几位专家的评断相比,它们提供的价值评估方法更加民主。或许,在一个选择无限的世界里,它们对选项的遴选更合时宜、更加全面。


此外,与传统视听率不同,它直接对公众开放。正如奥莱利和巴特利所提到的:“这仅仅是个开始。有了类似推特和 Facebook 的‘状态更新’服务,网络就有了一种新的数据源——实时显示我们集体思考的内容。”这些测量数据显然成为一种塑造公众注意力的力量。

然而,这种测量往往不如传统视听率透明。问题通常是,我们不知道聚合数据代表了谁、代表了什么。康奈尔大学的塔尔顿·吉莱斯皮指出:“不经意地浏览一下推特的主页,你会觉得推特趋势是一个并不复杂的词语列表,看起来更像是一种简单的运算。但是,粗略看一下推特对其运行方式的解释——在它的政策和帮助页面上、在它的公司博客上、在所发的推特中、在它对媒体询问的回应中,甚至在讨论审查制度的普通帖子中——(就会知道)推特说得很清楚,推特趋势考虑了各式各样的加权系数。” 


因此,使用社交媒体评估公众注意力的态势,具有一定欺骗性。不是所有的人都使用社交媒体,也不是所有的社交媒体用户都同等活跃。一般来说,只有一小部分人主导了社交分享平台,他们似乎从获取关注中得到满足。例如,我们都知道, Facebook 上的少量“超级用户”比普通用户更容易发表评论或者使用“喜欢”按钮。如果某个东西成为推特上的趋势,这是否意味着广大公众对它感兴趣?这是因为少量超级用户关注了它,还是数据的加权方式影响了结果?原则上,这是可以回答的问题。实际上,这很难回答。在一定程度上,收集和报告数据的公司(很多公司都希望出售广告)都藏而不露。它们也许会,也可能不会将它们的方法公之于众。


海量的数据需要简化为指导行动的推荐。算法为此提供了另外一种方法。随着服务器生产的数据不断增加、高速计算机不断增多,算法的应用已是司空见惯。实际上,有一本书曾经声称,算法已经“统治了我们的世界”。 简单地说,算法就是一个计算机程序。它通过一系列指令或决策点运算数据,得到某种理想的结果。算法的目的通常是预测。例如,算法可以预测哪些网站最有可能给予我们想要的信息或者推荐我们喜欢的书籍和电影。


有很多方法可以建立算法。但是有两个用于推荐的方法最为常见,值得我们在此描述:搜索和协同过滤。然而,任何相关的讨论,都应该从一句警告开始——“我们不知道的事情还很多”。大多数算法都是独家私有的。尽管我们大概知道谷歌或亚马逊如何进行推荐,但是具体的算法却是秘密。此外,流行的算法并非一成不变。它们一直在不断改进。例如,谷歌每年对其搜索算法的改进超过 500 次。


搜索引擎根据询问提供推荐。只要输入一个搜索词,你就会得到推荐。这个推荐一般是超链接的函数。很多网站都通过提供链接指向其他站点。只要有足够大的计算机,就有可能“爬梳”整个网络,从而知道众多网页是如何互联的。例如,谷歌每天将 200 万个网页编入索引。虽然链接表示的是路径的存在,而不是实际的流量,但是它们经常被用来表示流通数量、联系强度,甚至直接就表示重要性。


谷歌的算法被称作“佩奇排名”(PageRank)。它利用网页的链接情况,对网页的重要性进行打分。这个算法所基于的命题是,指向某个网页的其他网页的重要性表示该网页的重要性。某位计算机科学家解释说:“实际上有三个不同的因素,决定了某个网页的佩奇排名:它收到的链接数量,相互链接网页的链接倾向性,也就是说,转到其他网页的链接数量,和相互链接网页的佩奇排名。” 


这个方法可能会创造一个富者愈富的闭环,所以人们设法调整算法,引入新鲜的血液。今天,现代的搜索引擎使用复杂的算法和数以百计的不同排名标准,生成搜索结果。数据源包括:搜索词频所产生的反馈环、用户点击搜索结果的次数和我们的搜索历史和浏览记录。例如,如果大多数用户对某个搜索结果页面第五项的点击量超过了第一项,谷歌算法会将此视为第五个结果优于第一个,并最终据此调整搜索结果。


Facebook 也增加了“图谱搜索”。这个算法不是依靠链接,而是依靠“喜欢”按钮功能来找到人、地点或事物。从链接到喜欢,很有可能会产生截然不同的搜索结果。但是,正如营销专家克拉拉·史所指出的,使用“喜欢”可能会“创造一个良性的循环:广受欢迎的网页出现在图谱搜索中,用户更容易接触到图谱搜索中出现的网页,这些网页更容易出现在将来的搜索结果中,以此类推”。所以,不管怎样,海量信息被提取到一个排序列表,最重要的或者最受欢迎的东西被置于顶部。


另一个生成推荐的方法是协同过滤。众所周知,亚马逊和奈飞使用的就是这个方法。一言以蔽之,这些机制通过追踪每个用户的购买、租赁、下载、评价等行为,从而为他们建立档案。然后,算法将他们与具有相似档案的人们进行比较。目标是向你推荐“像你一样的人”可能喜欢的东西。例如,如果大多数与你档案相似的人购买了《格雷的 50 道阴影》(Fifty Shades of Grey)这本书,而你没有购买,那么你很可能收到一个对该书的推荐。协同过滤被用于推荐电影、音乐、新闻、电视节目,甚至任何东西。最新一代的推荐机制考虑了各种各样的背景信息,例如你在哪里或你的日历上有什么,从而预测出你接下来可能想要什么——即使你并没有要求它这样做。


除了帮助人们找到东西,这些自动推荐也常常试图向你出售另外一本书或传送定位性非常强的信息。大多数用户可能看穿了这些动机,但是推荐机制似乎仍然受到欢迎。推荐机构能否在对的时间推荐对的东西,根本上取决于它们收集数据的规模和范围。如果这些数据能与其他描述用户的信息(购买、偏好、社会关系、活动等)相结合,就能进一步加强定位能力,提高吸引力。


测量中的偏见

所有的媒介测量都具有偏见。这并不是说,它们为了达到某个不道德的目的而故意歪曲——虽然也存在这个可能。意思是说,它们永远无法提供一个完全客观的现实图像。在收集和整理数据的过程中,偏见是固有的。能被观测到的东西是无限的。记录这些东西的方法各不相同。而且,正如我们所见,有很多不同的方法可以将所有数据凝缩为可用的测量标准。在这个过程中,有些东西未被探索到,有些东西则牺牲在“剪辑室”。


主导这个过程的是人类。他们决定什么是有用的、可行的或可以营销的。这样的判断已经烙入到所有的测量中,并从此产生偏见。重要的是识别最常见的偏见形式,并了解它们是如何影响市场运行的。有三种偏见值得一提:行为偏见、个性化偏见和流行度偏见。


行为偏见

绝大多数数字媒体的测量手段是通过记录人们的行为建构的。从广播的最初岁月开始就是这样,直至今日未曾改变。第一个视听率测量机构决定通过记录听众的收听行为来测量广播接触。这并不是理解媒介使用的唯一方式——它也可以被定义为听众关注或参与,但是接触迅速成为业界共识。历史学家马克·巴尔内夫斯及其同事解释道:“出于买卖广告时段或买卖节目的目的,一种能显示收听某个节目和收听时间的测量标准具有某种简洁性,这对高竞争性环境中的议价十分重要。” 数字电视的现代测量技术与此并无二致。个人收视记录仪和机顶盒记录下人们所选择的内容或频道,并从这些选择中推断接触。


Web 2.0 机构对行为数据的依赖并没有减少。虽然有些机构从用户评论中获得见解,但是大多数被采集的信息都是作为行为数据被加以解释的。服务器追踪人们买了什么、访问了什么网站、索取了什么信息、下载了什么材料、链接到了什么网页、分享了什么东西。实际上,每一天的每一秒钟都有海量的行为数据被制造出来。它的优点是价格低廉、数量丰富,从而成为一种具有诱惑力的资源。但是,即便测量得精确,行为也很难被解释。


人们面临的最大诱惑是将选择当作偏好的替身。其实,经济学中有一个正式的假设,即,选择是“显示性偏好”的度量。在推荐机制中,这种思路十分常见。甚至这些机制的批评者似乎也忽略了二者的区别。“新一代的互联网过滤机制盯着你看起来喜欢的东西——你实际的所作所为,或者与你类似的人们所喜欢的东西,并试图做出推断。”但是,我们有理由怀疑,选择是不是先有偏好的直接反映。媒介使用并不总是我们个人偏好的良好体现。我们所属社交网络的特质、我们用来寻找内容的工具和日常生活的结构都影响了媒介使用。


因此,通过行为进行推断时必须要谨慎。观看一段视频意味着你喜欢它吗?亚马逊上的每次购买都应该被理解为向“像你一样的人”做出的无声推荐吗?链接到某个网页或分享某个链接代表的是赞许还是谴责?转发某条推特信息是对其创新性的判断,还是身份表达和“社交纽带”?点击“喜欢”按钮意味着你真正喜欢它,还是仅仅为了获取免费的东西?行为的意义并不总是直白明了。然而,当我们将它们简化为“人头数量”或推荐时,往往认为行为的意义就是这样简明。


个性化偏见

可选择的东西如此之多,可用于选择的时间如此之少。媒介测量的一项重要功能是为人们的选择提供向导。个性化推荐在一定程度上能够预见我们认为有用或有趣的东西。它意味着我们无须在搜索上浪费时间,无须考虑每个选项。获取提供这些推荐的技能,一直是在网络上取得成功的处方。然而,商业平台并非唯一具有个性化偏见的平台。接下来我将论证,测量手段让我们以个性化的方式接触数字媒体,这在一定程度上是由我们社交网络的本质属性造成的。


营利网站具有追求个性化的欲望,这并不难理解。这个被帕里泽称为“为相关性而进行的竞赛”,驱动着大多数硅谷企业。因为它们意识到创造忠诚客户的最好方法是,“提供真正对应每个人独特兴趣、欲望和需求的内容”。 正如我们所看到的,这也正是协同过滤的存在理由。谷歌从 2009 年开始提供个性化搜索结果。Facebook 的图谱搜索提供了另一种个性化方法。根据《纽约时报》的说法,“在用户的 Facebook 好友中哪一个与用户最亲密,在搜索结果中用户最想看到谁的答案,这些都是由算法审定的”。


社交网络和亲密小组也在无意中造成了个性化偏见。正如第二章所指出的,几乎所有的社交网络都是同质化的。社交网络的成员倾向于拥有相似的背景、兴趣和性情。在这些网络之中,照顾到相关群体兴趣、规范和偏见的媒介更容易得到广泛传播。社交新闻网站,如红迪网(Reddit)或顶客(Digg),通过推导、综合和排名向人们推荐值得关注的东西,从而鼓励了这种选择性。


其实,社交网络呈现给我们的推荐,可能比我们想象的还要自动化。Facebook 通过一种名为“刀锋排名”(EdgeRank)的算法,为每个用户提供个性化的动态新闻。刀锋排名是 Facebook 的专利,但是与图谱搜索类似,它也是优先呈现来自与我们关系密切的人们的最新消息。换句话说,在所有的 Facebook 好友中,我们更可能听到像我们一样的人们的消息。在一定程度上,这种定制内容造成了社交媒体上普遍存在的个性化偏见。


个性化给人们带来的最大担忧是,它让用户撤回到舒服的飞地,其结果是用户的视野变窄,偏见增强。例如,个性化可能会鼓励保守主义者收看“红媒”,自由主义者收看“蓝媒”。帕里泽将这些飞地称作“过滤气泡”。他认为用户往往并没意识到过滤气泡的存在。


然而,我们很难确定这些来自朋友的推荐所产生的社会效应。区分社交传染效应与同质性效应,对我们来说是一项挑战。人们可能会看到同样的东西,做同样的事情,这不是因为推荐,而是因为他们彼此相同。然而,也有证据证明,朋友的督促能够促使人们去投票,从而影响难分伯仲的选举结果。而且,似乎来自熟人的推荐压倒了选择性接触的倾向。穆茨和杨猜测,自动化的“非人类”推荐,例如协同过滤——或许不如“人类”推荐更具潜在影响力。然而在当今世界,随着 Facebook 和推特使用算法滤出个人信息和推荐,人类推荐和非人类推荐之间的界限也变得日益模糊。


流行度偏见

几乎所有上述方法都产生一个推荐排序表。搜索引擎根据内向链接的数量和重要性进行网页筛选。社交网络和内容提供者将用户指向阅读最多的故事、观看最多的视频或者大多数90“像你一样的人们”所购买的、租赁的或喜爱的东西。用户信息机制经常使用的方法,都特别倚重流行度。《华尔街日报》的“数字先生”卡尔·比亚利克有一句妙语:“互联网促进了流行度竞赛的爆发。” [“Numbers Guy”是由卡尔·比亚利克创办并供稿的《华尔街日报》专栏,这个专栏是关于新闻所使用(特别是误用)的数字和统计的。]

尽管在历史上,大众文化的批判者曾经质疑被当作质量指标的流行度,但是推荐机制基本上能够免于此类质疑。相反,用户和社会评论家都赞赏这些机制,认为它们体现了“群众的智慧”——意思是说众多普通决策者能够创造优于专家的集体判断。这个流行概念给那些自私机构和告诉人们什么最好的自认权威提供了诱人的修正。然而,即使接受这个假设,用户信息机制也往往不能满足做出优秀决定所需的前提条件。


根据詹姆斯·索罗维基(他是帮助这个概念流行开来的作者)的说法,当大量不同个体独立做出决定或预测时,智慧得以实现。将这些自主决定加在一起,通常可以产生一个明显优于专家意见的结果。不幸的是,大多数用户信息机制违反了这些规则,这一点连索罗维基自己也承认。


首先,推荐通常以相对较小的同质群体为基础。如我们所见,社交网络或亲密小组的成员是同质的。在大多数群组中,成员的数量是有限的。人类学家罗宾·邓巴认为,人类最多能够维持150多个有意义的人际关系,因此社交网络的规模是有限的。有些人找到证据证明社交媒体使用中存在天花板,另外一些社交网络分析者却认为,“邓巴数”太低了。不管怎样,社交网络,作为推荐实体,通常并不具备做出聪明判断所需的规模和多样性。协同过滤也不能纠正这个问题。最好的推荐机制横跨多个数据库。它们必须这样做,因为相对来说,只有少数人在进行推荐时最终具备价值。也就是说,过滤算法搜索并优先考虑与你“最亲密的人”或离你“最近的人”。这些人通常只占数据库的极小一部分。


其次,在上面提到的用户信息机制中,没有一个促进了最佳推荐所需的那种独立决策。搜索引擎为用户提供有关其他人所作所为的信息,有效引导接下来的决策,整合并报告某个网站的访问者选择了什么或者某个社交网络的成员推荐了什么,为追随者提供了强烈的社会期望信号。人类有随大流的倾向,见到他人在做什么,能够引发狂乱冲动行为。


例如,哥伦比亚大学的社会学家进行了一项基于互联网的大规模实验。在实验中,人们被允许从一些不知名乐队中选择一个,并下载它的音乐。在实验条件下,人们能够看到有关别人所下载内容的信息越多,他们越倾向于追随领导者。歌曲的质量相对来说并不重要。在不同的实验条件下,用户信息产生的结果都是“赢者通吃”。然而,你还是无法事先预知谁会成为赢者。


如果自主决策产生最佳结果,传染和从众似乎是“智慧自群众中来”(这个观点的持有者)最不喜欢的。正如预测专家纳特·西尔弗所警告的:“这是信息时代的另一个风险:我们分享如此多的信息,以至于我们的独立性被降低了。相反,我们寻找和我们一样思考的人们,

但是,这些以流行度为基础的排名比比皆是,所以,我们应该谨慎对待测量中的流行度偏见。这样的测量标准能够告诉我们什么在吸引注意力——同时也提升流行度,但是它们并非找到真正价值所在的无误向导。


透过大数据看世界

很多评论家和顾问早就指出,大数据的出现将促使我们革新一切,从制造到市场营销、到医药、到天气预测、到股票交易、到科学自身的每项实践。我曾间接提到服务器所产生的数据对媒介测量的影响,但是我们还是应该认真考虑,大数据是否从根本上改变了我们看待注意力市场的方式,是否在此过程中改变了市场的运行方式。


大数据这个词模糊得让人喜欢。对有些人来说,它是一切电子计算表中大到无法处理的数据;对另一些人来说,它只不过是一个需要超级计算机进行运算的数据集。它通常包括两个截然不同却又经常合在一起的话题:数据与分析。为了掌握大数据的贡献和局限,我们应该对二者分别对待。


大数据的拥护者们经常表示,越大一定越好。我曾指出,大多数媒介测量都有一个行为偏见,行为偏见让它们的解释存在问题。但是在克里斯·安德森(他曾长期担任《连线》杂志编辑)看来,日益增加的数据以某种方式消除了这个问题。“谁知道为什么人们为其所为、做其所做?重点是他们做了,而且我们能够追踪,并以前所未有的保真度测量他们的活动。有了足够的数据,数字自己就会说话。”然而,大多数知道数据包括什么、不包括什么的人们却得出截然不同的结论。微软研究院的研究员们将真实世界中大数据的不足进行了分类,从代表性问题到显而易见的错误。他们得出的结论是:“大数据为我们提供了海量数据,但这并不意味着方法问题不再重要。例如,对样本的理解,现在比以往任何时候都更重要。” 


数字从来不会自己说话。数据必须经过分析才能产生意义。数据必须要清理、加权、整理。 很多时候,大数据被输入到算法中,产生可指导行动的测量数据。正如克里斯·斯坦纳所指出的:“在华尔街和其他地方,所有因算法而实现的革命,只有一个核心的、执着的目标:预测——更精确地说,预测其他人会做什么。” 


然而,预测人们会做什么,要什么或对什么满意,比物理世界的预测更难。想一想用大数据预测天气。预测并不能改变天气。预测一英寸的雨水并不能让此成真。假如真的下雨,你就可以对预测的精确度进行测量。你只需到雨水测量器前看一看就知道你预测的对不对。人类世界并不总是按照同样的规则运行。


对社交活动的预测会影响他们所预测的东西。如果谷歌预测某个网站会有价值并因为这个预测促进了网站流量,似乎就能够进一步证明这个推荐的正确性。如果《纽约时报》网站将某篇文章吹捧为阅读量最多的文章,就会引诱人们去阅读它。如果我们接受这个间接推荐,它对其他人的诱惑力就会增强。如果亚马逊预测我们将会喜欢某本书,因为“像我们一样的人们”购买了该书,我们可能就会将该书加入到购物车,从而使销售增长。倘若不是这样,这个增长是不存在的。测量并没有与它们所要测量的现实相互分离,测量重塑了现实。


职业媒体人手中的测量可能也是这样的。例如,媒体都想在新人出名之前发现他们。《广告时代》如此描述这个挑战:“很多年以来,品牌一直在和 YouTube 明星合作——贾斯汀,谢伊·卡尔,米歇尔·潘等等,但是,如果你能够在明星成为大腕之前就发现他们,又会怎样呢?”为了做到这一点,代理机构要在 YouTube 上追踪 5 万个频道、2500 万个视频,从而预测谁处在成名的临界点,表现优秀的那些可以签下合约。以这种方式发现的人才可能无须干预便获得成功。但是,使用测量发现赢者的同时也能创造赢者。与天气不一样,社会预测能够改变结果。


在很多大数据支持者的眼中,预测物理世界与预测人类世界的区别似乎不再存在。在人类社会,由大数据驱动的算法有可能创造“自我应验的预言”。伟大的社会学家罗伯特·K·默顿解释道:“某个情况(预言或预测)的公共定义成为这个情况的组成部分,因此影响到事态的后续发展。这是人类事务特有的。自然界中并不存在。”自我应验的预言产生两个问题,一个是分析者的问题,另一个是我们其他人的问题。


算法的预测质量应该根据预测的准确性判断。但是,任何评估都取决于我们能否很好地测量我们所预测的东西。在大数据的世界里,比起其他事情,有些事情更容易知道。我们也许能判断出某种模式在多大程度上决定了电视节目的收视率,或者操控推销辞令如何影响了购买行为。但是,当谷歌预测我们会觉得某个网站有价值,或者奈飞预测我们会喜欢某部电影时,我们怎能知道这些预测真正找到了具有价值或令人喜爱的东西呢?我们可能发现这些推荐有价值,但是我们无法确定它们是否为最佳选择。将人们对某个建议的接受当作质量高的证据,或许只会让自我应验的预言继续存在。在人类世界中判断预测的质量,并不像看一眼雨水测量器那样简单。


自我应验预言的更大后果是,它们能够影响文化消费本身的性质。公共测量可能会与其所测量的世界“发生反应”,从而改变社会现实。 两种偏见:个性化偏见和流行度偏见,可能都有这个能力(改变社会现实)。


个性化推荐将我们引向那些关心我们兴趣和偏见的媒体。通常,推荐者需要从我们过去的行为进行推断,从而猜测我们是谁、喜欢什么。伊莱·帕里泽将此称为“你循环”,并对其机制作出如下解释:“你点击一个链接,说明你喜欢其中某个东西,这意味着你接下来很有可能会看到与那个话题相关的文章,然后它进一步为你启动了那个话题。你陷入了‘你循环’,如果你的身份被误表达,就会产生一些奇怪的模式,就像扩音器中出现的回响。”有一种可能是,某些东西被启动,而其他东西未被启动,我们可能会培养起一种对所推荐东西的品位。正如我们所看到的,很多社会评论家担心个性化可能会使社会极化,但是如果这些机制迎合并创造偏好的话,其效果可能会更加显著。

然而,流行度偏见可能会缓解这种效果。它不是将我们撕裂,而是倾向于使公众注意力集中。流行度并非找到最高价值或最高质量的安全法则。然而,似乎显而易见的是,推荐流行的东西会驱动流量,并进一步提高流行度。将海量数据转化成简单的数人头活动,包括将此公布于众,会夸大最终的计数结果。


在这些倾向中,没有一个由于大数据的大而得到缓解。与所有媒介测量手段一样,新的测量手段也是人类创造的。正因为如此,它们也不能免于偏见和误用。但是,它们现在无处不在。这不是原来就有的,因此它们成为人们必须考虑的日益重要的力量。它们能够为机构和个人提供超级有用的工具。然而,它们并不是注意力市场上的中立者。媒介测量以强有力的方式进入注意力市场。这种进入方式并没有得到足够重视,往往也很难被普通用户识别出来。显然,人类世界会与数据所鼓励我们看到的十分相似。

延伸阅读

《注意力市场》

作    者:[美] 詹姆斯·韦伯斯特

译    者:郭石磊

出版社:中国人民出版社

出版年:2017年1月

复旦大学宁波研究院


促高层次人才创新创业

推动高科技成果产业化


长按识别二维码关注我们

微信公众号ID :Fudan_Ningbo

30
标签:
itunes排行榜
创业者们,如果你或你的朋友想被优派网报道,请狠戳这里    寻求报道
猫先森驻站作者
作者简介
0
文章总数
0万
总阅读量
ASO114市场数据分析平台
>