分类
麻省理工学院新闻

Building machines that better understand human goals

心理学家菲利克斯·沃内肯(Felix Warneken)和迈克尔·托马塞洛(Michael Tomasello)进行了一项关于人类社会智力的经典实验。一个18个月大的幼儿看着一个男人拿着一摞书走向一个没打开的柜子。这个人走到柜子边,笨拙地把书往柜子门上砸了几下,然后发出一种莫名其妙的声音。

接下来发生了一件了不起的事:孩子主动提出帮忙。小孩推断出男人的目的后,走到柜子前,打开门,让男人把书放进去。但是,蹒跚学步的孩子,在如此有限的生活经验下,是如何做出这种推断的呢?

最近,计算机科学家将这个问题重新转向计算机:机器如何做到同样的事情?

可以说,构建这种理解的关键要素是让我们最具人性的东西:我们的错误。正如蹒跚学步的孩子可以仅仅从人的失败中推断出他的目标一样,推断我们目标的机器也需要对我们的错误行为和计划做出解释。

为了在机器中捕捉这种社会智能,麻省理工学院计算机科学与人工智能实验室(CSAIL)和大脑与认知科学系的研究人员创造了一种算法,能够推断目标和计划,即使这些计划可能失败。

这种类型的研究最终可能被用于改善一系列辅助技术,协作或照顾机器人,以及Siri和Alexa等数字助理。

麻省理工学院电子工程与计算机科学系(EECS)博士生谭志轩(Tan Zhi-Xuan)说:“这种对错误进行解释的能力,对于制造符合我们利益的强有力的推断和行动的机器来说,可能是至关重要的。”谭志轩是一篇有关该研究的新论文的主要作者。否则,人工智能系统可能会错误地推断,由于我们未能实现更高层次的目标,这些目标根本就不是我们想要的。我们已经看到,当算法利用我们对社交媒体的反射性和非计划性使用时,会发生什么,导致我们走向依赖和两极分化。理想情况下,未来的算法将识别我们的错误、坏习惯和不合理性,帮助我们避免而不是强化这些错误。”

为了创建他们的模型,该团队使用了麻省理工学院(MIT)最近开发的新人工智能编程平台Gen,将符号人工智能规划与贝叶斯推断相结合。贝叶斯推断提供了一种将不确定信念与新数据相结合的最佳方法,并被广泛用于金融风险评估、诊断测试和选举预测。

该团队的模型运行速度比现有的贝叶斯反向强化学习(BIRL)方法快20到150倍。贝叶斯反向强化学习通过观察一个agent的行为来学习其目标、价值或奖励,并试图提前计算出完整的策略或计划。新的模型在预测目标时准确率为75%。

加州大学伯克利分校史密斯-扎德工程学教授斯图尔特•拉塞尔表示:“人工智能正在放弃‘标准模型’,即给机器一个固定的、已知的目标。”相反,机器知道它不知道我们想要什么,这意味着如何从人类行为中推断目标和偏好的研究成为了人工智能的一个中心话题。本文严肃地对待这一目标;特别是,这是模拟人类根据目标和偏好产生行为的实际过程,从而逆转这一过程的一步。”

它是如何工作的

虽然已经有相当多的工作在推断代理的目标和愿望,这些工作的大部分假设代理的最佳行为来实现他们的目标。

然而,团队受到了一种普遍的次优人类计划方式的启发:不是提前计划所有事情,而是只形成部分计划,执行它们,然后再从那里重新计划。虽然没有“提前”充分考虑会导致错误,但它也会减轻认知负担。

例如,想象一下,你正在看着你的朋友准备食物,你想帮助他们弄清楚他们在煮什么。你猜你的朋友接下来可能会采取的步骤:可能是预热烤箱,然后做苹果派的面团。然后,你只“保留”与朋友实际行动一致的部分计划,然后重复这个过程,提前计划几步。

一旦你看到你的朋友在做面团,你就可以把可能性限制在烘烤的食物上,猜测他们接下来可能会切苹果,或者弄一些山核桃来做派。最终,你会取消所有计划,你的朋友不可能做的菜,只保留可能的计划(例如,派的食谱)。一旦你确定了是哪道菜,你就可以主动提供帮助。

该团队的推理算法被称为“顺序反计划搜索(SIPS)”,它遵循这一序列来推断一个agent的目标,因为它在每一步只做出部分计划,并在早期砍掉不太可能的计划。由于模型每次只提前计划几步,它也考虑了代理——你的朋友——可能也在做同样的事情。这包括由于计划有限而出现错误的可能性,比如在打开冰箱之前没有意识到你可能需要腾出两只手。通过提前发现这些潜在的故障,该团队希望该模型可以被机器更好地用于提供帮助。

“我们早期的见解之一是,如果你想推断某人的目标,你不需要比他们想得更远。我们意识到这不仅可以加快目标推理,但也从行为目的来推断目标太目光短浅的成功,美国主要从扩大算法探索转向解决更根本的当前人工智能系统的局限性,“Vikash Mansinghka说,麻省理工学院的首席研究科学家和Tan智宣co-advisors之一,随着约书亚特南鲍姆,麻省理工学院大脑与认知科学系教授。“这是我们更大的登月计划的一部分——逆向工程18个月大的人类常识。”

这项工作建立在特南鲍姆团队早期认知模型的概念基础上,展示了儿童甚至10个月大的婴儿对他人目标的简单推断如何可以作为贝叶斯逆规划的一种形式量化建模。

到目前为止,研究人员只在固定目标集上的相对较小的计划问题上探索推理,通过未来的工作,他们计划探索人类目标和计划的更丰富的层次。通过编码或学习这些层次结构,机器可能能够推断出更广泛的目标,以及它们所服务的更深层的目的。

宣说:“虽然这项工作只是迈出了很小的第一步,但我希望这项研究将为建造真正理解人类目标、计划和价值的机器奠定必要的哲学和概念基础。”这种将人类建模为不完美理性者的基本方法感觉很有前景。现在它可以让我们推断出什么时候计划出错了,也许它最终也可以让我们推断出人们持有错误的信念、假设和指导原则。”

zhixuan, Mansinghka和Tenenbaum与EECS的研究生Jordyn Mann和博士生Tom Silver共同撰写了这篇论文。上周,他们在神经信息处理系统会议(NeurIPS 2020)上展示了他们的工作。



Paper: "Online Bayesian Goal Inference for Boundedly-Rational Planning Agents"

相关链接

  • Vikash Mansinghka
  • 特南鲍姆约书亚
  • 谭智宣
  • 概率计算项目
  • 计算认知科学小组
  • 计算机科学与人工智能实验室(CSAIL)
  • 大脑与认知科学系
  • 学校的科学
  • 工程学院
  • 麻省理工施瓦茨曼计算机学院

新闻旨在传播有益信息,英文原版地址:https://news.mit.edu/2020/building-machines-better-understand-human-goals-1214