高科技战争中的伦理与道德挑战
1. 高科技战争中自主武器系统的现状
随着越来越多的军事机器人被编程用于战斗,在大多数情况下是用于杀戮,自主武器系统(AWS)的致命使用已成为战争中的一个新兴现实。这为解决一些长期困扰传统正义战争理论的难题提供了契机,比如无差别暴力和杀戮问题,尤其是对无辜平民造成的伤害。例如,如果机器人能够更精确地锁定战斗人员,那么就有可能避免战争迷雾带来的后果,如无差别地杀害非战斗人员或无人机战争造成的附带损害。
不过,这也意味着要接受并推动武器系统的自主功能。根据Sparrow的定义,自主武器是“能够在无人监督的情况下识别可能的目标并选择攻击目标,并且其复杂程度使得即使其完美运行,仍存在不确定性,不清楚它会攻击哪些物体和/或人员以及原因”。
然而,自主武器在没有人类监督的情况下能否安全运行仍无保证。即使是完全自主的自动驾驶汽车也无法完全复制人类解读前方障碍物的能力。这反映了所谓的“责任分割”问题,在自动驾驶中,人类驾驶员和传感器的反应不同。对于致命自主武器系统(LAWS),同样的问题引发了对解决非战斗人员无差别杀戮问题的政治关注。Singer指出,机器人在解读情境方面存在很大困难,至少在它们的智能与人类相匹配之前,将机器视为具有人类自卫权是不合理的。此外,还存在机器人利用其发展的智能来攻击人类的可能性,这一担忧在许多科幻电影中都有体现。
尽管存在这些担忧,一些国家仍致力于开发自主武器。美国、英国和中国已经开始研发新的致命自主武器系统或先进的机器人武器系统。2015年,美国推出了X - 47B新型豆荚状飞机,可在空中自主加油;英国则在研发配备自动激光传感器的Tauris飞机。美国投入近720亿美元用于此类技术,认为这种先进技术对平民风险较小,且
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



