据香港亚洲时报网站22日报道,俄乌冲突正在加速推进全球“杀手机器人”的发展。

报道称,一项美国国防部指示的更新证实,美国军方正在加强对自主武器的开发和使用。这项更新令于2023年1月25日发布,是10年来该部门首次关注人工智能(AI)自主武器。

此前,北约于2022年10月13日发布了一项相关的实施计划,旨在保持该联盟在“杀手机器人”方面的“技术优势”。


(相关资料图)

这两项宣布都反映了世界各地的军队从俄乌冲突中吸取的重要教训:武器化的人工智能是战争的未来。

战争的压力

随着乌克兰伤亡人数的增加,使用完全自主武器——可以自行选择、追捕和攻击目标,而无需任何人工监督的机器人——获得决定性战场优势的压力也越来越大。

本月,一家主要的俄罗斯制造商宣布计划开发其“标记”战斗机器人的新战斗版本,这是一种无人驾驶的地面车辆,为的是增强俄军在乌克兰的现有力量。

制造半自动的“弹簧刀”无人机的美国国防承包商的首席执行官瓦希德·纳瓦比表示,将这些武器转变为完全自主武器的技术已经触手可及。

乌克兰数字转型部长米哈伊洛·费多罗夫称,完全自主武器是战争“合乎逻辑且不可避免的下一步”。并且他表示,士兵可能会在未来6个月内在战场上看到它们。

完全自主武器系统的支持者认为,这项技术将使士兵远离战场,从而使他们免受伤害。它们还将以超人的速度做出军事决策,从而从根本上提高防御能力。

目前,半自主武器,例如跟踪目标并在目标上自爆的巡飞弹,还需要“人的参与”,它们可以推荐操作,但需要它们的操作员来进行启动。

相比之下,完全自主的无人机,比如现在部署在乌克兰的所谓的“无人机猎人”,可以全天候跟踪来袭的无人机并使其失效,它不需要操作员干预,且速度比人为控制的武器系统快。

请求暂停

十多年来,像“阻止杀手机器人运动组织”这样的批评者一直在倡导禁止自主武器系统的研发。

他们指出,未来自主武器系统是专门针对人类而设计,而不仅仅是针对车辆、基础设施和其他武器。他们说,生死攸关的战时决定权必须掌握在人的手中。将它们交给算法相当于数字去人性化的终极形式。

“阻止杀手机器人运动组织”与“人权观察”组织都认为,自主武器系统缺乏区分平民和合法军事目标所需的人类判断力。而且,自主武器系统降低了可感知的风险也意味着降低了战争的门槛,并削弱了人类对战场形势的有意义的控制。

这些组织认为,包括美国、俄罗斯和欧盟在内的在自主武器系统上投资最多的军队,正在将世界带入一场代价高昂且影响局势稳定的新军备竞赛。

不可能的平衡?

同时部署自主武器系统并遵守国际人道主义法的承诺,是对五角大楼的新挑战。美国将如何平衡这些承诺及这种平衡是否可能实现,还有待观察。

国际人道主义法的监护者红十字国际委员会坚持认为,指挥官和操作员的法律义务“不能转移到机器、算法或武器系统上”。

现在,人类有责任通过确保武力的使用与军事目标相称,来保护平民和限制战斗损害。但如果在战场上部署人工智能武器,当发生不必要的平民死亡时,谁应该为此负责?这个非常重要的问题还没有明确的答案。

关键词: 武器系统 人工智能 人道主义