分类
弗吉尼亚理工大学新闻

人工智能和假新闻网站的传播:专家解释如何应对它们

随着美国全国大选的临近,对错误信息的担忧比以往任何时候都更加尖锐,人工智能 (AI) 的进步使得区分真实新闻网站和虚假新闻网站更具挑战性。人工智能程序,尤其是大型语言模型(LLM),它们训练使用大量数据集编写流畅的阅读文本,已经自动化了假新闻生成的许多方面。新的即时视频生成器Sora可以制作高度详细的好莱坞质量剪辑,这进一步引发了人们对虚假镜头容易传播的担忧。

弗吉尼亚理工大学的专家探讨了人工智能推动的假新闻网站传播的三个不同方面,以及打击这些网站的努力。

瓦利德·萨阿德(Walid Saad)谈技术如何帮助生成和识别假新闻

“自互联网诞生以来,创建托管假新闻或虚假信息的网站的能力就已经存在,而且它们早于人工智能革命,”弗吉尼亚理工大学的工程和机器学习专家瓦利德·萨阿德说,“随着人工智能的出现,筛选大量信息并创建’可信’的故事和文章变得更加容易。具体来说,LLM使不良行为者更容易生成看似准确的信息。这种人工智能辅助的信息呈现方式的改进使此类虚假网站更加危险。

“只要人们从中获取食物,这些网站就会继续运行。如果错误信息在社交网络上被广泛分享,虚假网站背后的个人将有动力继续传播错误信息。

“应对这一挑战需要人类用户和技术之间的协作。虽然LLM助长了假新闻的泛滥,但它也提供了检测和清除错误信息的潜在工具。人工输入(无论是来自读者、管理员还是其他用户)都是必不可少的。用户和新闻机构有责任不放大或分享虚假信息,此外,报告潜在错误信息的用户将有助于完善基于人工智能的检测工具,加快识别过程。

“至关重要的是,虽然这些措施旨在帮助用户辨别真实和虚假新闻,但它们必须符合第一修正案的原则,并避免审查言论自由,”萨阿德说。

凯西·迈尔斯(Cayce Myers)谈法律措施可以做什么和不能做什么

弗吉尼亚理工大学(Virginia Tech)传播政策专家凯西·迈尔斯(Cayce Myers)说:“在政治运动中规范虚假信息会带来许多实际和法律问题,尽管存在这些挑战,但全球都认识到需要采取一些措施。鉴于美国、英国、印度和欧盟都将在 2024 年举行重要选举,这可能会在社交媒体上发布大量虚假信息,这一点至关重要。

“人工智能的轻松获取意味着虚假信息,特别是深度伪造,更容易创建和传播,而法律将很难捕捉到。对深度伪造内容的法律责任存在一定的后勤问题,因为许多创建内容的个人可能永远不会被识别或抓获。其中一些内容创作者居住在发布其内容的国家/地区之外,这使得他们更难承担责任。

“像Sora这样的技术发展表明了为什么这么多人担心人工智能与虚假信息之间的联系。虽然 Sora 尚未向公众发布,但它表明用户在创建高质量的 AI 生成内容方面将越来越少。生成式 AI 视频和图像非常好,无法与真实事件的实际照片区分开来。 即使是水印和披露也可能是不够的,因为它们可以被更改和删除。因此,政治家、竞选活动和选民正在进入一个新的政治现实,在这个现实中,虚假信息将更加高质量和多产。

“在美国,根据《通信规范法》第230条,托管政治虚假信息(包括深度伪造)的社交媒体网站在法律上免于承担责任。打击选举虚假信息很大程度上取决于平台自我强加的使用条款,这引起了批评和不公平偏见的指控。

“有人呼吁让人工智能平台对虚假信息承担法律责任,这种做法可能会导致制造虚假信息的内部护栏。 然而,人工智能平台仍在发展和扩散,因此防止人工智能制造虚假信息的全面证明结构尚未到位,而且很可能不可能创建,“迈尔斯说。

茱莉亚·费拉尔(Julia Feerrar)谈如何防范虚假信息

弗吉尼亚理工大学图书馆员兼数字素养教育家朱莉娅·费拉尔(Julia Feerrar)说:“人工智能生成的和其他虚假或误导性的在线内容 可能看起来 非常像高质量的内容,”随着人工智能的不断发展和改进,我们需要一些策略来检测虚假文章、视频和图像,而不仅仅是依赖于它们的外观。

“要识别错误信息,无论是否由人工智能生成,你能做的最有力的事情之一就是看看它来自哪里。是来自信誉良好的专业新闻机构,还是来自您不认识的网站或帐户?如果您甚至有点不确定,请打开一个新的浏览器选项卡并快速搜索网站名称。目标是找到一个不是来自原始来源本身的描述——例如,许多组织都会有一篇维基百科文章来描述它们。

“专家们将这个过程称为横向阅读:超越内容本身进行搜索,以更多地了解您正在查看的内容。另一种横向阅读的方法是查看其他受信任的新闻媒体是否正在报道您看到的相同标题,“Feerrar说。

Feerrar 关于评估新闻文章的更多提示:

  • 假新闻内容通常旨在吸引我们的情绪——当网上的某些内容引发强烈的情绪反应时,暂停一下是很重要的。
  • 通过在 Google 搜索中添加事实核查功能来验证标题和图片内容。
  • 非常通用的网站标题可能是人工智能生成新闻的危险信号。
  • 一些生成的文章包含错误文本,这些文本说“无法满足此请求”,因为创建文章违反了 AI 工具的使用政策。一些几乎没有人工监督的网站可能会错过删除这些消息。
  • 目前人工智能生成图像的危险信号包括超真实、整体奇怪的外观,以及看起来不真实的手和脚。

关于萨阿德
瓦利德·萨阿德(Walid Saad)是弗吉尼亚理工大学布拉德利电气与计算机工程系的教授。他因对包括 5G 和 6G、人工智能、博弈论、机器学习和网络安全在内的无线通信研究的贡献而享誉国际。Saad 是弗吉尼亚理工大学创新园区的下一个 G Wireless 负责人。在此处阅读更多内容。

关于迈尔斯
凯西·迈尔斯(Cayce Myers)是弗吉尼亚理工大学传播学院的公共关系教授和研究生主任。他的工作重点是媒体史、政治传播和影响公共关系实践的法律。著有《公共关系史:理论实践》和《政治中的职业与金钱:2020年总统大选中的竞选筹款》。在此处阅读更多内容。

关于Feerrar 
朱莉娅·费拉尔(Julia Feerrar)是一名图书管理员和数字素养教育家。她是弗吉尼亚理工大学大学图书馆的副教授,也是数字素养计划的负责人。她的兴趣包括数字福祉、打击错误/虚假信息和数字公民。在此处阅读更多内容。

安排面试 
要安排对这些专家的采访,请致电 [email protected] 或 540-400-1700 联系媒体关系办公室的 Mike Allen。

 

新闻旨在传播有益信息,英文版原文来自https://news.vt.edu/articles/2024/02/AI-generated-fake-news-experts.html