分类
塔夫茨大学新闻

构建机器人和人工智能的护栏

Matthias Scheutz sits near a white human-looking robot in a lab. It’s important to build in safeguards for robots that reflect social norms, says a human-robot interaction expert

想想机器人,它会让人想起在地板上旋转的小真空吸尘器或工厂环境中的巨大机器的图像。然而,机器人似乎越来越多地进入更多以人为中心的环境——医院、办公室,甚至杂货店。这带来了新的挑战。

马蒂亚斯·舍茨(Matthias Scheutz )比大多数人都更了解这一点。卡罗尔家族应用技术教授,几十年来一直致力于人机交互。他说,现在,公司正在积极探索如何使用人工智能大型语言模型,例如机器人中的ChatGPT。人工智能可以生成动作序列来指导机器人执行任务,试图摆脱人类为机器人创建指令。

对于那些试图在机器人技术中使用更多人工智能的人来说,一个关键问题是如何确保机器的行为与人类价值观一致。在机器人领域,这被称为价值对齐问题,Scheutz说。

但他认为,这并不是正确的方法。“这应该被称为’规范对齐’,因为机器真的没有任何价值,”他指出。“规范与其说是个人评估,不如说是一种社会调节机制。

在他的办公室里,他指着自己的雨伞说,如果他在开会时打开雨伞并把它举过头顶,他不会违反任何人的价值观,但很明显,他会在社会规范之外运作。

这些是“在某种程度上的社会原则——它们没有被写下来。如果机器没有它们,而机器嵌入到我们的社会中,那将是一个问题,“他说。

乔伊斯·卡明斯中心(Joyce Cummings Center)的人机交互实验室(Human-Robot Interaction Lab)中,他和他的学生正在与机器人合作开发与人类交互的算法,同时考虑人们在日常环境中对机器人的反应,预测机器人在不同的社交互动中将如何运作。

机器人,你觉得什么正常?

问题是如何训练运行机器人的人工智能,以便它理解合理的人类规范。当然,有太多的变量无法代表所有的规范,所以Scheutz说,最好从一套内置原则开始。“也许从法律和更大的原则开始——不要杀人,不要偷窃,要有礼貌,”他说。“然后你让他们适应文化和环境,你就会接受当地的规范。

Scheutz的团队是最早研究机器人规范的团队之一。“我在 2000 年代中期进入机器人伦理领域,当时人工智能伦理还没有出现,并于 2014 年开始为机器人实施规范推理,”他说。

A man kneels down on the left in front of a robot shaped roughly like a human being, as another man stands on the right looking on.

高级机器人程序员兼实验室经理埃文·克劳斯(Evan Krause)和马蒂亚斯·舒茨(Matthias Scheutz)在人机交互实验室进行了实验。
照片:阿隆索·尼科尔斯

他最近获得了一项系统和方法的专利,用于确保智能系统的安全、符合规范和道德的行为。使用该系统将涉及生成机器人操作系统的克隆并运行某些行为的模拟测试。如果机器人在测试中通过了规范标准,它将被允许继续在现实世界的环境中运行。但是,如果它未能通过标准测试,系统可能会覆盖机器人的预期操作,甚至将其关闭。

学习我们认为理所当然的规范并不像听起来那么简单。做一些基本的事情,比如让机器人去杂货店购物。它知道杂货店的一般情况,但不是每家商店的具体情况。它如何找到食物?如果有人站在它需要的物品前怎么办?如果一个产品有多个品牌,它如何选择购买的品牌?

再举一个例子。假设你让医院机器人在供应柜里拿东西,而那扇门是锁着的。“现在你必须找到钥匙,”Scheutz说。“然后计划变得更加复杂——机器人可以自动重新计划吗?”

危险从何而来

不过,也许人工智能会有一些想法,因为它已经接受过关于上锁的门以及人们如何打开门的材料进行训练。“现在有一个很大的推动力,利用这些大型语言模型中编码的知识,使机器人更具适应性,更容易指导,”他说。

问题在于,人工智能几乎不是万无一失的。Scheutz 讲述了他如何向 ChatGPT 询问自己的情况——人工智能对他的工作做了很好的总结,包括他写的一本关于人机交互的书。麻烦的是,那本书并不存在,尽管舒茨可能写了它。

“因为架构本质上是建立在创造模式之上的,考虑到过去,你永远无法确定它创造的东西是否真的准确和真实,”他说。“这就是危险所在。”

在人机交互实验室中,一名研究生演示了其中一个测试机器人,因为它响应语音命令,将一瓶药丸从一个地方移动到另一个位置,就像在医院环境中一样。这是一个费力的过程,一个阶段一个阶段,但会完成。在另一项测试中,机器人在完成任务时面临障碍,它必须进行调整以实现其目标。

还有故障安全指令,因为控制机器人的人有不同级别的访问权限来发出命令。“例如,如果你是可信的,你可以告诉机器人新的事实,它就会相信你,”Scheutz说。“如果你不被信任,你就不能这样做。”

他说,通过拥有这种无法规避的非常明确的内置访问控制,“机器人本身已经有了一个概念,例如,谁有权向它发出指令。

这是一个开始,但对于人工智能来说,拥有故障安全机制更为重要,因为目前尚不清楚人工智能究竟是如何学习的。“你向它抛出更多的数据,然后让它学习,看看它学到了什么,”Scheutz说。“我们是否了解结构输入如何、为什么以及它是什么,使它能够回答它没有经过专门训练的问题?我们不知道。

A man kneels down on the left in front of a robot shaped roughly like a human being, as another man stands on the right looking on.

新闻旨在传播有益信息,英文版原文来自https://now.tufts.edu/2024/04/09/building-guardrails-robots-and-ai