分类
哈佛大学新闻

用体温来加速愈合用体温来加速愈合

在一个人工智能充斥着人工智能的时代,哈佛大学约翰·a·保尔森工程与应用科学学院(SEAS)和IBM Research的研究人员提出了这样一个问题:我们如何才能帮助人们检测人工智能生成的文本?

这个问题促使艺术与科学研究生院(Graduate School of Arts and Sciences)的博士研究生塞巴斯蒂安·格尔曼(Sebastian Gehrmann)和IBM的研究人员亨德里克·斯特罗贝尔特(Hendrik Strobelt)开发了一种统计方法,以及一种开放存取的交互工具,来区分由代码生成的语言和人类语言。

自然语言生成器通过对数千万在线文本进行训练,通过预测最常出现的单词来模仿人类语言。例如,单词“have”、“am”和“was”很可能在单词“I”之后出现。

利用这个想法,Gehrmann和Strobelt开发了一种方法,该方法不是标记文本中的错误,而是识别过于可预测的文本。

格曼说:“我们的想法是,随着模型变得越来越好,它们从绝对比人类差到和人类一样好或比人类更好,这是可以检测到的,而用传统方法可能很难检测到。”

“以前,你可以通过所有的错误判断文本是机器生成的,”Strobelt说。现在,不再是错误,而是使用极有可能(而且有些枯燥)的单词来调用机器生成的文本。有了这个工具,人类和人工智能可以一起工作来检测假文本。”

格曼和斯特罗贝尔特将在计算语言学协会(Association for Computational Linguistics)周日至周四的会议上展示他们的研究成果。这项研究由海洋大学计算机科学副教授亚历山大拉什(Alexander Rush)与人合著。

Gehrmann和Strobelt的方法,被称为GLTR,是基于一个从4500万篇网站文本中训练出来的模型——OpenAI模型的公共版本GPT-2。因为它使用GPT-2来检测生成的文本,所以GLTR对GPT-2工作得最好,但对其他模型也很好。

它是这样工作的:

用户在该工具中输入一段文本,该工具用绿色、黄色、红色或紫色突出显示每个单词,每种颜色都表示单词在接下来的上下文中的可预测性。绿色表示这个词很容易预测;黄色,适度谓项;红色不是很好预测;而紫色意味着模型根本不会预测到这个词。

因此,由GPT-2生成的一段文本将如下所示:

相比之下,这是一篇真正的《纽约时报》文章:

以下节选自詹姆斯·乔伊斯(James Joyce)的《芬尼根守夜》(Finnegans Wake),可以说是人类有史以来最不可预测的作品:

这种方法并不是为了取代人类识别假文本,而是为了支持人类的直觉和理解。研究人员在sea计算机科学班的一组本科生中测试了这个模型。没有这个模型,学生们可以识别出大约50%的人工智能生成的文本。通过颜色叠加,他们识别了72%。

格曼和斯特罗贝尔特表示,只要稍加培训和经验,这个比例可能会更高。

“我们的目标是创造人类和人工智能协作系统,”格曼说。“这项研究的目的是给人类提供更多的信息,让他们能够对真假做出明智的决定。”

相关的

A new study argues that social networks have unwittingly become complicit in amplifying fake news, and that a multidisciplinary effort is needed to better understand how the Internet spreads content and how it is consumed.

“假新闻”的诡计

研究人员想要用科学来对抗那些让真相看起来是假的技术,反之亦然

David Parkes.

人工的科学

研究人员提出了一个新的研究领域,来探索智能机器作为独立个体的行为方式

新闻旨在传播有益信息,英文原版地址:https://news.harvard.edu/gazette/story/2019/07/researchers-develop-a-method-to-identify-computer-generated-text/