世界各国正投入数十亿美元开发自主武器系统,这些武器具备预测和决策能力,这得益于人工智能。
美国东北大学(Northeastern University)研究自主武器系统的博士研究生贾斯廷•哈纳(Justin Haner)说,自主武器的支持者认为,自主武器可以让士兵远离战场,不受伤害。但他认为这种观点是短视的。哈纳说,一个拥有越来越多机器人武装力量的国家可能会把这些机器派到它不会派遣人类士兵的冲突中去。
哈纳与丹尼斯·加西亚(Denise Garcia)合作,后者是政治学和国际事务副教授,也是国际机器人武器控制委员会的成员。哈纳和加西亚最近发表了一篇论文,研究了世界各国自主武器发展的趋势。
他们发现,在发展自主武器方面,有五个世界领先国家——美国、中国、俄罗斯、韩国和欧盟——他们都在这场军备竞赛中投入了数十亿美元。
自动武器是一种能够探测周围环境、识别潜在敌方目标,并根据复杂算法独立选择攻击目标的设备,”游说军备控制政策的无党派组织军备控制协会(Arms Control Association)表示。
哈纳表示:“没有人在开发终端机式的机器人,但(人工智能)正逐渐被添加到现有的系统中,例如,无人机可以自己飞行,也可以自己瞄准目标。”
在美国,2012年国防部的一项政策允许半自主系统“与目标交战”,这些目标是由人工操作者预先选定的。
2018年,俄罗斯一家国有新闻机构宣布,俄罗斯军队已经在叙利亚部署了一台遥控坦克。
尽管如此,哈纳和加西亚发现,在自主武器的研发方面,几乎没有监督或监管,更不用说公开讨论了。
哈纳说:“这些事情现在正在发生,我们开始就如何应对这些问题展开对话真的很重要。”
人们想跟上人工智能时代的步伐。雇主、教育工作者和政府正在让他们失望。
read more
哈纳担心这种技术可能带来的其他负面后果。
他说,例如,减少对人类的伤害可能会降低那些正在考虑加入外国冲突的国家的风险。
“每个新外交冲突纠缠意外升级和可能导致的风险(国家)发现自己被迫致命的大规模战争,完全是可以避免的,如果我们没有致命的机器人系统被发展成冲突情况下我们不会派出士兵,”韩寒说。
哈纳说,自动武器的扩散也可能使“恐怖分子更有能力选择他们的目标”。他补充道:“如果他们使用的是人工智能增强的无人机,而不是在现场,他们被发现实施攻击的可能性也要小得多。”
人工智能也容易产生与创造它的人相同的偏见。哈纳举例说,如果面部识别软件主要使用白人面孔进行训练,那么在扫描有色人种面孔时,识别软件出现假阳性的可能性就会更高。
“这可能会导致针对少数群体的过度瞄准,”他表示。
哈纳和加西亚认为,世界各国——尤其是领导自主武器竞赛的五个大国——“现在应该尝试制定全球规范,推动禁止使用自主武器系统,”他们的论文中写道。
哈纳说:“我们必须迅速行动。
媒体咨询,请联系Marirose Sartoretto: [email protected]或617-373-5718。
新闻旨在传播有益信息,英文原版地址:https://news.northeastern.edu/2019/11/15/autonomous-weapons-systems-the-utilize-artificial-intelligence-are-changing-the-nature-of-warfare-but-theres-a-problem/