分类
宾夕法尼亚大学新闻

YouTube的算法并没有使人们激进化

安纳伯格传播学院计算社会科学实验室的一项新研究发现,YouTube推荐系统对用户政治观点的影响比人们普遍认为的要小。

A person pressing play on a YouTube video on a smartphone.
图片:Danykur for Adobe Stock

大约四分之一的美国人在YouTube上获取新闻。YouTube 拥有数十亿用户和数小时的内容,是世界上最大的在线媒体平台之一。

近年来,媒体上有一种流行的说法,即来自高度党派化、阴谋论驱动的 YouTube 频道的视频激化了美国年轻人,而 YouTube 的推荐算法将用户引向了一条内容越来越激进的道路。

然而,安纳伯格传播学院计算社会科学实验室(CSSLab)的一项新研究发现,用户自己的政治兴趣和偏好在他们选择观看的内容中起着主要作用。事实上,如果推荐功能对用户的媒体饮食有任何影响,那就是适度的。

“平均而言,完全依赖推荐器会导致更少的党派消费,”CSSLab的副研究科学家Homa Hosseinmardi说。

YouTube 机器人

为了确定YouTube的推荐算法对用户观看内容的真正影响,研究人员创建了机器人,这些机器人要么遵循推荐引擎,要么完全忽略它们。为此,研究人员从 2021 年 10 月至 2022 年 12 月收集的 87,988 名现实生活中的用户中创建了在 YouTube 观看历史记录上训练的机器人。

Hosseinmardi 和合著者 Amir Ghasemian、Miguel Rivera-Lanas、Manoel Horta Ribeiro、Robert West 和 Penn Integrates Knowledge 教授在工程与应用科学学院、安纳伯格传播学院和沃顿商学院任职 Duncan J. Watts 旨在理清用户偏好和推荐算法之间的复杂关系,这种关系随着每个视频的观看而发展。

这些机器人被分配了个性化的 YouTube 帐户,以便可以跟踪他们的观看历史,并使用与每个视频相关的元数据来估计他们观看内容的党派倾向。

用户行为与算法影响

在两个实验中,每个机器人都有自己的YouTube帐户,经历了一个“学习阶段”——它们观看相同序列的视频,以确保它们都对YouTube的算法表现出相同的偏好。

Homa Hosseinmardi and Duncan Watts.
计算社会科学实验室副研究科学家Homa Hosseinmardi和史蒂文斯大学教授兼计算社会科学实验室主任Duncan Watts。

(图片:由安纳伯格传播学院提供)

接下来,将机器人分组。一些机器人继续跟踪它所训练的现实生活中用户的观看历史;其他人则被指定为实验性的“反事实机器人”——遵循特定规则的机器人,旨在将用户行为与算法影响区分开来。

在实验一中,在学习阶段之后,控制机器人继续观看用户历史记录中的视频,而反事实机器人偏离用户的现实生活行为,只从推荐视频列表中选择视频,而不考虑用户偏好。

一些反事实机器人总是从侧边栏推荐中选择第一个(“下一个”)视频;其他人则随机选择侧边栏推荐中列出的前 30 个视频之一;其他人则从首页推荐的前 15 个视频中随机抽取一个视频。

研究人员发现,平均而言,反事实机器人比相应的真实用户消耗更少的党派内容——对于党派内容的重度消费者来说,这一结果更强。

“这种差距对应于用户对此类内容的内在偏好,而不是算法推荐的内容,”Hosseinmardi说。“该研究对消费极左翼内容的机器人,或者当机器人订阅政治党派光谱极端一侧的频道时,显示出类似的调节作用。”

推荐算法的“忘记时间”

在实验二中,研究人员旨在估计YouTube推荐者的“忘记时间”。

“推荐算法一直受到批评,因为它在以前感兴趣的用户对内容失去兴趣很久之后,继续向他们推荐有问题的内容,”Hosseinmardi说。

在这个实验中,研究人员计算了推荐者的遗忘时间,对于一个有长期(120个视频)极右翼视频消费历史的用户来说,他们改变了他们的饮食,为接下来的60个视频调整了新闻。

虽然控制机器人在整个实验中继续观察极右翼饮食,但反事实机器人模拟用户从一组偏好(观看极右翼视频)“切换”到另一组偏好(观看温和视频)。随着反事实机器人改变他们的媒体偏好,研究人员跟踪了侧边栏和主页中推荐视频的平均党派倾向。

“平均而言,侧边栏上的推荐视频在大约 30 个视频后转向中等内容,”Hosseinmardi 说,“而主页推荐往往调整得不那么快,显示主页推荐更符合一个人的喜好,侧边栏推荐更符合当前正在观看的视频的性质。

后续步骤

“YouTube的推荐算法被指控将其用户引向阴谋论。虽然这些指控有一定的道理,但我们不能忽视用户对他们的行为有很大的代理权,并且可能已经查看了相同的内容,或者更糟的是,即使没有任何建议,“侯赛因马尔迪说。

展望未来,研究人员希望其他人可以采用他们的方法来研究用户偏好和算法相互作用的人工智能介导平台,以便更好地了解算法内容推荐引擎在我们日常生活中的作用。

这个故事的作者是海莉·赖斯曼(Hailey Reissman)和德尔菲娜·加德纳(Delphine Gardiner)。它最初出现在安纳伯格传播学院。

新闻旨在传播有益信息,英文版原文来自https://penntoday.upenn.edu/news/asc-duncan-watts-youtube-algorithm-isnt-radicalizing-people