分类
东北大学新闻

军事人工智能:新书预测了一个“杀手机器人”的世界——以及监管它们的必要性

在我们这个以数字为媒介的世界里,战争的暴行是难以忽视的。欧洲(乌克兰-俄罗斯)、中东(以色列-哈马斯)和其他地方的大火以我们的信息流处理速度传递死亡和破坏的图像。

随着人工智能的进步,战争武器越来越有能力在没有人类监督的情况下杀人,这引发了令人不安的问题,即今天和明天的战争将如何进行,以及自主武器系统在涉及部署时可能违反国际法的行为时如何削弱问责制。 政治学和国际事务教授丹尼斯·加西亚(Denise Garcia)将这些严峻的现实浓缩成一本名为《人工智能军事竞赛:人工智能时代的共同善治》(The AI Military Race: Common Good Governance in the Age of Artificial Intelligence)的新书。该书探讨了“创建全球治理框架”的挑战,该框架在国际法和规范恶化的背景下预测了一个人工智能武器系统猖獗的世界——事实上,这个世界越来越描述我们现在生活的世界。

Head shot of Denise Garcia.
丹尼斯·加西亚(Denise Garcia),萨德勒研究学院国际安全与谈判副教授。东北大学

2017 年至 2022 年担任国际自主武器监管小组成员的加西亚在接受《东北全球新闻》采访时指出,人工智能军事应用已经部署在欧洲和中东的持续冲突中——最著名的例子之一是以色列的铁穹。

她说,事实上,致命的自主武器系统可能很快被部署在战场上,这迫切需要以政策、条约和特定技术禁令的形式采取集体行动。

加西亚说:“世界必须团结起来,创造新的全球公共产品,我认为这需要包括一个管理人工智能的框架,但也需要就人工智能在军队中的使用达成共识的规则。

加西亚说,人工智能技术的加速发展还不仅仅影响到战场上的行为,还波及到国家安全。2021年,美国人工智能国家安全委员会敦促美国继续快速发展人工智能,以维护国家安全,并保持与俄罗斯和中国的竞争力。

但加西亚认为,加速军事化的人工智能本身并不是正确的方法,并且有可能给已经高度不稳定的国际体系增加更多的波动性。她认为,美国委员会的报告“复活”了冷战时期的思维和战略,导致在此期间积累了70,000多枚核武器。

相反,她说,美国应该继续推动削减核武库,同时制定标准,让人类牢牢控制军事和战场决策——她在书中详细阐述了这个案例。

“简单地说,不应该相信人工智能来做出关于战争的决策,”加西亚说。

许多学者都同意这一点。大约4,500名人工智能和机器人研究人员集体表示,人工智能不应该在杀戮人类方面做出决定——加西亚指出,这一立场符合欧洲议会的指导方针和欧盟的法规。然而,美国官员已经推动了严格测试和设计的监管范式,以便人类可以使用人工智能技术“做出杀人决定”。

“这在纸面上看起来不错,但在现实中很难实现,因为算法不太可能吸收战争中发生的巨大复杂性,”加西亚说。

加西亚说,人工智能武器系统不仅有可能颠覆国际法规定的问责规范,而且还使起诉战争罪变得更加困难,因为将“战斗员地位”归因于军事人工智能技术存在问题。

“国际法——以及一般的法律——已经演变为以人为本,”她说。“当你将机器人或软件插入等式中时,谁将负责?”

她继续说:“责任归咎的困难将加速战争的非人化。当人类沦为数据时,人类的尊严就会消失。

现有的人工智能和准人工智能军事应用已经在国防界掀起了波澜。据一个消息来源称,一个这样的应用程序允许一个人控制多个无人系统,例如一群能够通过空中或海底攻击的无人机。在乌克兰战争中,游荡弹药——使用传感器识别目标的无人驾驶飞机,或“杀手无人机”——引发了关于人类特工对目标决策究竟有多大控制权的争论。

坦纳·斯泰宁(Tanner Stening)是东北全球新闻记者。给他发电子邮件 [email protected]。在 X/Twitter @tstening90上关注他。

新闻旨在传播有益信息,英文版原文来自https://news.northeastern.edu/2023/12/01/military-ai/