即使人工智能 (AI) 已经嵌入到我们日常生活的每一个结构中——从语言翻译到虚拟个人助理——它仍然是一个有争议的问题。随着其影响范围的扩大,弗吉尼亚理工大学的研究人员正在寻求了解社会的哪些部分可能更容易接受人工智能,哪些部分可能更反对它。
在最近发表的研究“对人工智能的党派媒体情绪”中,弗吉尼亚理工大学潘普林商学院的作者安吉拉·伊(Angela Yi)、什雷恩斯·葛印卡(Shreyans Goenka)和马里奥·潘德拉雷(Mario Pandelaere)通过分析党派媒体情绪,研究了对人工智能的不同反应。他们的研究成果发表在《社会心理学与人格科学》杂志上。
研究人员发现,与保守派媒体相比,来自自由派媒体的文章对人工智能的负面情绪更强烈。换句话说,倾向于自由派的媒体往往比保守派的媒体更反对人工智能。
根据调查结果,这种反对可以归因于,与保守派媒体相比,倾向于自由派的媒体更关心人工智能放大社会中的社会偏见,例如种族、性别和收入差距。研究人员还研究了乔治·弗洛伊德(George Floyd)去世后媒体对人工智能的看法如何变化。
“由于弗洛伊德的死引发了一场关于社会偏见的全国性对话,他的死加剧了媒体对社会偏见的担忧,”市场营销系的博士生易说。“这反过来又导致媒体在讲故事时对人工智能变得更加消极。
对政策制定者及其他方面的影响
根据Goenka和Yi的说法,他们的发现可能对未来围绕人工智能的政治讨论产生重要影响。媒体情绪可以作为公众情绪的指标,进而影响政策制定者的立场,观察到的党派媒体差异随后可能导致公众对人工智能的看法差异。
“媒体情绪是公众舆论的强大驱动力,政策制定者经常指望媒体来预测公众对争议问题的情绪,”易纲说。“也许我们研究的下一步是看看围绕人工智能的社交媒体对话如何随着我们在论文中看到的党派差异而变化。
数据是如何收集的
为了研究党派媒体对人工智能的看法,研究人员汇编了来自多家媒体的关于人工智能的文章集。每个使用的媒体的党派情绪是通过使用AllSides的媒体偏见评级图表上的评级来确定的,AllSides是一家衡量在线书面新闻媒体内容感知到的政治偏见的公司。来源包括《纽约时报》和《华盛顿邮报》等自由派媒体,以及《华尔街日报》和《纽约邮报》等更保守的媒体。
从那里,研究人员根据某些标准从选定的媒体下载文章,包括使用特定关键术语,如“算法”或“人工智能”,以及从2019年5月到2021年5月的日期范围。
他们使用包含 7,500 多篇文章的数据集,使用自动文本分析工具对每个故事进行了情感基调分析。通过这个工具,他们能够捕捉到每篇文章的情绪基调,这是通过文本中积极情绪词的百分比和消极情绪词的百分比之间的差异来计算的。然后将这种差异标准化为 0 到 100 的等级,以产生情绪基调测量。
市场营销学助理教授Goenka强调,这项研究是描述性的,而不是规范性的,对于讨论人工智能的正确方式,没有采取任何立场。
“我们没有说是自由派媒体表现得最好,还是保守派媒体表现得最好,”他说。“我们只是表明,这些差异存在于媒体情绪中,这些差异对于量化、观察和理解很重要。
新闻旨在传播有益信息,英文版原文来自 https://news.vt.edu/articles/2023/11/pamplin-ai-media-bias.html