-
首页
-
- 首页
- 观点
承泽观察 | 席天扬:平台令我们变得更狭隘了吗?
发布日期:2022-05-19 04:32 来源:
导语:网络平台为用户营造了个性化的信息环境,但也迎合了“物以类聚、人以群分”的社会性本能,产生了信息茧房效应。未来发展应该保持多元和开放的格局,在尊重差异和鼓励竞争的氛围下,促进相互理解和联结的世界。
近日,一则媒体报道提到:中国人民大学的一个研究团队发布了《中国大学生婚育观报告》,结论显示“App(手机软件)的使用习惯会影响大学生的婚育观,其中微博的使用与大学生的婚育意愿存在负相关,虎扑的使用与大学生的生育意愿存在正相关,使用豆瓣与女性的生育意愿存在负相关,使用小红书与女性的婚育意愿存在正相关。”历经多轮自媒体转载后,报道的标题演变为“刷微博豆瓣影响结婚生孩子!中国人民大学教授呼吁年轻人少上网”,这引来一番热议。网友的立场分歧泾渭分明,交锋中肉眼可见不同平台拥趸之间的天然鄙视链,你来我往煞是热闹。
婚姻、家庭、生育——糅杂了性别、“内卷”“躺平”等问题,是现时代全民的痛点。正因如此,网络讨论也很难发出万众一心的声音。上述媒体报道的有趣之处在于,其对中国人民大学研究报告的叙说方式暗示了:特定类型的社交网络或知识分享平台可能对于某种不合时宜的观点的形成乃至网络民意的歧化负有责任。需要强调的是,这种暗示来自于媒体报道,由于原报告在网上已不可寻,难以断定“APP使用影响婚育观”的观点出自报告还是记者的个人理解。
对于社会科学的研究者而言,“相关性不等于因果性”可能是一个金规则,启蒙阶段老师耳提面命的常识。如果要从社会科学的方法论逻辑出发来质疑上述结论,我们自然可以说:上述结论把因果关系搞反了——实际情况可能是,低生育意愿者更经常使用豆瓣,高生育意愿者更经常使用小红书;而这两类人对于豆瓣和小红书的偏好又与其包括教育、收入、职业、地域等因素相关。因此,并不是APP影响了生育意愿,而是生育意愿及其背后的深层因素塑造了对APP的偏好。
这是一个简单的反驳,但它却无法消解针对网络APP是否影响公众意见、如何影响公众意见的所有疑惑。事实上,上文的替代性解释可能呈现了一种更严峻的前景:在教育、收入、职业、地域和社会关系上迥异的年轻人,理性地选择了与自身价值观和情感更加吻合的APP,并通过APP的使用和网络交互彼此认同,形成思想统一、观点一致的集群。换句话说,尽管APP并没有直接改变民意,却可能维持了群体之间的意见极化,按下了社会分层的加速器。
在2006年出版的《信息乌托邦: 众人如何生产知识》(Infotopia: How Many Minds Produce Knowledge)一书中,哈佛大学法学院教授桑斯坦(Cass Sunstein)提出了信息茧房(information cocoon)的概念。在桑斯坦看来,对于网络平台和社交媒体的依赖使得现代人像春蚕一样,作茧自缚而不自知。网络技术为营造个性化的信息环境提供了便利,久而久之,人们习惯于同质化的、与自身先验价值观和情感一致的看法,对于不同意见的容忍度越来越低,对世界的认知也越发狭隘。何以在网络时代,信息茧房问题变得更突出了呢?这背后有多种原因。
首先,网络技术提供了低成本的信息选择机制。在《信息乌托邦》中,桑斯坦提到麻省理工学院尼古拉斯·内格罗蓬特团队开发的网络应用“每日我闻”(Daily Me),允许用户根据自己的背景和兴趣选择个性化的新闻内容。这个技术在2006年是创新,如今已是新闻网站和平台APP的标配。更进一步的操作是,用户可以过滤掉与自己立场偏好不符的媒介。针对这种情况,桑斯坦曾建议效仿传统纸媒“平衡性报道”的监管要求,要求网媒在报道中提供来自不同阵营的链接。比如,对于同一热点事件,CNN网站的报道底部应该包含FoxNews的链接,FoxNews的报道也应该包含CNN的链接。从历史来看,这个倡议永远留在了乌托邦。移动互联网时代,只需要点击“不看/屏蔽该用户的内容”就可以实现信息过滤,自媒体上信息平衡更几无可能。
其次,社交网络增加了同侪压力(peer pressure)。在英国脱欧公决中,18-24岁的年龄组有27%的人投票支持脱欧,按理说这不是一个低到可以忽略不计的比例。但是因为留欧派在青少年中是多数,在社交媒体又异常活跃,于是少数派隐匿了自己的立场。投票结果揭晓后,留欧派的反应是震惊、错愕,和难以置信的痛苦失望。如果他们能够早点听到不一样的声音,可能就不会那么痛苦。在美国,Twitter(推特)用户也有同侪压力——自由派的比例更高,知识分子和高学历人群尤甚。2022年2月份俄乌冲突爆发后,推特上符合美国主流价值观的声音居多。我看到有些在国外读书的学生,发布了不太符合美国“政治正确”的评论,随后又自行删除了。
最后,大数据时代尤为重要的现象,是算法增强了平台塑造用户信息环境的能力。通俗地说,前算法时代是用户决定自己看什么,算法时代是让AI(人工智能)来猜用户想看什么,喂给用户AI判断他们可能想看的内容。一种算法的逻辑是对用户画像和聚类,比如我在手机上播放了布鲁克纳,接下来就给我推荐马勒。手机APP买了莫言的小说,就在首页推荐中发现余华的作品。另一种是通过关键词联想,比如从凯恩斯联想到哈耶克,从齐泽克联想到乔丹·彼得森。更简单粗暴的方式是根据用户的消费历史定向轰炸,比如当用户密集地在某商户购物,或者观看某自媒体视频之后,这些商户或媒体会反复出现在APP主页。总体来说,算法推荐并非没有可取之处,在很多场合中,算法节约了用户的搜寻成本,帮助用户更好地定位了自己的需求。但因为算法构成平台和APP的独家竞争力,技术上难以做到完全透明,这就使得公众很难判断算法推荐反映的是在统计学意义上的用户画像,还是平台希冀用户变成的那个画像。
对于算法应用的得失检讨是西方社会的重要关切。这股潮流里有两重用意,首先是反对把算法过多地应用于个人,任由平台或企业通过算法来控制人。根据美国皮尤研究中心(Pew Research Center)的调查,56%的美国人反对把算法用于犯罪风险评估,57%反对算法用于简历筛选,67%反对算法用于企业面试,69%反对算法用于个人征信审查。58%认为算法的使用反映了设计者的偏见。值得注意的是,在调查中接近、甚至超过半数的人认为算法在上述场景中的应用可以是有效的(effective),却难言公正(fair)。这里,大众赋予道德和正义的优先序似乎高于经济效率。
第二重担忧针对算法产生的政治和社会影响。例如,信息茧房效应可能会加剧政治极化(political polarization)。同样是皮尤中心的调查,近70%的美国民众反对把大数据算法应用于政治性活动(例如竞选)。另70%的民众认为,社交媒体通过大数据算法对某些内容标注虚假信息的行为实际上在执行信息审查,也导致误删某些正确信息。在这些讨论中,脸书(Meta)和推特等网络巨头往往成为公众讨论审视的焦点。
2015年,《科学》杂志(Science)刊登了三位就职于脸书公司的科学家撰写的论文:“在脸书上接触意识形态多样化的新闻和观点”。这是一个基于千万级用户的大数据研究,结论也清晰明快:与算法排名相比,个人对内容的自主选择对于接触多样化观点发挥了更大的作用。研究发现,在保守派的脸书好友网络中出现自由派内容的频率是35%,自由派的好友网络中出现偏保守派内容的频率是24%。而在脸书推送的新闻链接中,针对保守派和自由派推送跨党派内容的频率分别是34%和23%。换句话说,脸书只是比用户的好友网络更靠近了用户一点。相比之下,保守派和自由派用户自主点击阅读跨党派内容的频率分别是29%和20%,远低于好友网络和脸书算法的推荐频率。这些结论就算法的社会影响做了一些客观的辩护。
在一项发表于2021年美国经济评论(American Economic Review)的研究中,以色列特拉维夫大学的经济学教授罗伊·列维(Ro'ee Levy) 针对脸书用户的新闻阅读和社会观念设计了一项实验。他首先邀请用户通过脸书账户完成价值观念的调查问卷,然后在问卷末尾随机邀请一部分用户通过脸书订阅偏保守派或是自由派的媒体,并在2个月后对这些用户进行了价值观的回访调查。
令人鼓舞之处在于,自由派和保守派中均有相当比例的用户订阅了与自己立场相异的媒体,并对其保持了一定阅读量。回访调查发现,接触相反阵营的观点有助于改善用户对于对方阵营的看法,缓和社会极化。然而,列维的研究也指出,脸书存在策略性讨好用户的行为,比如说针对同时订阅了FoxNews频道的保守派用户和自由派用户,保守派用户页面上出现FoxNews的新闻频率远高于自由派用户,反之亦然。看起来,脸书的算法已经练成了一位读心高手,不仅能记住用户的订阅偏好,而且能根据用户实际阅读、点赞和社交行为所表现出来的显示偏好(revealed preference)与用户对话。
应该担忧平台让我们变得更狭隘和极化吗?还是要抵抗算法对生活的占领?对于乐观的进步主义者来说,这些可能都不是问题:如果信息茧房能过滤掉噪音,使我们更快乐,Why Not?毕竟,据说人类正在加速奔向元宇宙,诺齐克(Nozick)的“体验机”,《黑客帝国》的“矩阵”,似乎离我们更近了一些。甚至不用担心身处信息的孤岛还是陆地——算法能比我们自己更好地优化我们自己。然而,一些怀疑主义者可能还抱有另一个想象,在那个世界里人类进步的事业是多元、渐进、审慎和共情的。好消息是还有很长的路要走:在可预见的未来,人类大概仍然会对差异保持克制,对技术心存敬畏,对局限保持清醒,对信息保持开放。
作者 席天扬 北大国发院长聘副教授