分类
康奈尔大学新闻

Defining blameworthiness to help make AI moral

假设有100人住在湖边。如果今年至少有10条鱼过度捕捞,整个鱼类种群将会灭绝。每个人都假设至少有10条鱼会过度捕捞,而且在未来几年里不会有任何剩余的鱼。

既然鱼反正都要走了,他们都决定还是多吃点吧。所有的鱼都死了。所有的人都应该受到指责吗?

根据约瑟夫·c·福特(Joseph C. Ford)工程学教授约瑟夫·哈尔彭(Joseph Halpern)和计算机科学博士生梅尔·弗里登伯格(Meir Friedenberg)的最新研究,这取决于它们是否能够相互协调,改变结果和成本。在哈尔彭因果关系基础研究的基础上,他们建立了一个数学模型,在0到1的范围内计算应受谴责的程度。

这项研究——处于计算机科学、哲学和认知心理学的交叉领域——有可能被用来指导人工智能主体的行为,比如无人驾驶汽车,帮助它们以一种“道德”的方式行事。

“我们真正想做的事情之一是提供一个框架,允许我们这些法律和哲学观念适用于自治系统,“Friedenberg说,第一作者的“谴责责备多智能体设置在,”,这是2019年2月AAAI人工智能大会。“我们认为,如果我们要有效地将自治系统融入社会,这将是非常重要的。”

在之前的研究中,Halpern和他的同事将个人的罪责大致定义为他们认为自己的行为能够在多大程度上改变事件的结果。例如,如果你投了一个你认为会以一票之差输掉的候选人的票,你的罪恶感将是一,最大的;但如果你认为这位候选人会以数千票之差落败,那么你的罪恶感就会低得多。

在最近的一篇论文中,弗里登伯格和哈尔彭首先给出了一个群体应受谴责的定义——本质上,这是一个衡量群体本可以协调到何种程度,从而带来不同结果的指标。然后,他们创建了一个模型,将群体的罪责分摊给个体成员。

哈尔彭说:“如果你看看这群渔民,作为一个群体,他们是有责任的。很明显,如果他们不是所有人都捕鱼,明年就会有很多鱼。”“渔民应负多大责任,取决于他们能在多大程度上进行协调,以带来不同的结果。”

研究人员通过测量小组成员共同努力改变结果的能力,考虑到这样做的成本,捕捉到了这一点。成本是应受责备的一个关键因素:一个人在躲避狮子时撞翻了一个昂贵的花瓶,他的应受责备程度要低于一个人只是不注意。如果你的选票在选举中摇摆不定,如果有人威胁要杀了你,除非你以某种方式投票,你就不那么应该受到指责。

Halpern说,在未来的工作中,他希望通过众包的方式来测试这个模型,让人们在各种情况下都将责任归咎于谁,并将他们的观点与数值结果进行比较。

Halpern表示,当涉及到自动驾驶汽车时,开发人员或决策者在创建算法时可以考虑自己对成本的定义。例如,如果一个政府决定不接受任何程度的风险,那么一辆车就不能超过另一辆车,因为这会增加发生事故的几率。

尽管很难确定机器学习算法是如何做出决策的,但有可能开发出更透明的算法,以便更容易地评估是否应该受到指责。

Halpern说:“我们的框架的优势在于,它为你提供了一种正式的方式来思考这些问题,并对它们进行建模,它迫使你明确自己的假设以及如何定义成本。”“我们的定义试图量化,因为不管喜欢与否,你都必须做出权衡,而这个定义迫使你思考这个问题。它是一个工具,帮助人们在不告诉他们应该如何权衡的情况下思考权衡。”

这项研究的部分资金来自美国国家科学基金会(National Science Foundation)、美国陆军研究办公室(Army research Office)和开放慈善基金会(Open Philanthropy Foundation)的拨款。

康奈尔纪事报
312学院,邮编:
Ithaca, NY 14850
607-255-4206
[email protected]

新闻旨在传播有益信息,英文原版地址:http://news.cornell.edu/stories/2019/03/defining-blameworthiness-help-make-ai-moral