分类
西北大学新闻

社交媒体算法利用我们如何向同行学习

西北大学的科学家提出了干预措施,以限制错误信息的传播并改善用户体验

对Twitter和Facebook用户的调查显示,人们对他们的提要中极端政治内容或有争议的话题的过度代表感到筋疲力尽,并且对这种不满。

在8月3日发表在《认知科学趋势》(Trends in Cognitive Sciences)杂志上的一篇评论中,西北大学的社会科学家描述了旨在提高用户参与度的社交媒体算法的目标与人类心理学功能之间的错位如何导致两极分化和错误信息增加。

“在选举和错误信息的传播方面,Twitter和Facebook必须面对声誉因素,”该文章的第一作者William Brady说。“社交平台也将受益于更好地调整其算法以改善用户体验。

布雷迪是西北大学凯洛格管理学院的社会心理学家。

“我们想进行一项系统综述,以帮助解释人类心理和算法如何以可能产生这些后果的方式相互作用,”布雷迪说。“这篇评论带来的一件事是社会学习的观点。如果我们想了解算法如何影响我们的社交互动,这个框架至关重要。

人类倾向于向他们认为在群体中具有声望或影响力的人学习,以合作和生存。

然而,随着多样化和复杂的现代社区的出现——尤其是在社交媒体中——这些易感的学习偏见变得不那么有效。例如,我们在网上联系的人不一定值得信赖,人们很容易在社交媒体上假装声望。

当学习偏见首次演变时,优先考虑道德和情感上的信息很重要,因为这些信息可能与执行群体规范和确保集体生存有关。

相比之下,算法通常会选择能够提高用户参与度的信息来增加广告收入。这意味着算法放大了人类偏向于学习的信息,使研究人员所谓的声望,群体内,道德和情感(PRIME)信息过度饱和社交媒体,无论内容的准确性或群体意见的代表性如何。因此,极端的政治内容或有争议的话题更容易被放大,如果用户没有接触到外界的意见,他们可能会发现自己对不同群体的多数意见有错误的理解。

“这并不是说该算法旨在破坏合作,”布雷迪说。“只是它的目标不同。在实践中,当你把这些功能放在一起时,你最终会产生一些潜在的负面影响。

为了解决这个问题,作者建议社交媒体用户更加了解算法的工作原理以及为什么某些内容会出现在他们的提要上。社交媒体公司通常不会透露他们的算法如何选择内容的全部细节,但他们建议公司可以从提供解释器来解释为什么用户会看到一个特定的帖子。例如,是因为用户的朋友正在与内容互动,还是因为内容普遍受欢迎?

此外,研究人员建议社交媒体公司采取措施改变他们的算法,以便更有效地培养社区。算法不仅可以偏爱PRIME信息,还可以限制它们放大的PRIME信息量,并优先向用户展示多样化的内容。这些变化可以继续扩大引人入胜的信息,同时防止更两极分化或政治极端的内容在提要中被过度代表。

研究小组还在开发干预措施,教人们如何成为社交媒体的更有意识的消费者。

“作为研究人员,我们理解公司在做出这些改变时面临的紧张关系及其底线。这就是为什么我们认为这些变化理论上可以保持参与度,同时也不允许目前PRIME信息的过度代表,“布雷迪说。“通过做一些事情,用户体验实际上可能会得到改善。

记者:查看新闻稿
对于媒体联系人

新闻旨在传播有益信息,英文版原文来自https://news.northwestern.edu/stories/2023/08/social-media-algorithms-exploit-how-humans-learn-from-their-peers/