一、自主武器悄然来临
自主武器指的是机器拥有一套预设程序,能够选择并攻击特定目标,这种行为基于人工智能技术,无需人类控制。欧盟外交与安全政策负责人费代丽卡·莫盖里尼(Federica Mogherini)在议会的辩论中表示:“我知道这可能看起来像是关于遥远的未来或关于科幻小说,但显然不是。”周三通过的决议是为了预防自主武器的发展和使用,该决议要求欧盟在11月份联合国的国际谈判之前建立共同立场。
美国的非政府组织“人权观察”称,包括美国、中国、以色列、韩国、俄罗斯和英国在内的国家正在向自主武器系统迈进,其中包括自主武器的先驱——无人机等。俄罗斯新闻社塔斯通讯社(TASS)在2017年报道提到,俄罗斯武器制造商卡拉什尼科夫(Kalashnikov)已经开发出一种能够“识别目标并做出决定”的自主武器。
二、国际社会强烈反对
2017年8月,在墨尔本举行的国际人工智能联合大会上,各大科技企业的技术领导人签署了公开信,敦促联合国紧急磋商致命自动武器的危机,并在国际范围内禁止其使用。2018年,来自上百家企业的2000多名人工智能及机器人领域的科学家,在斯德哥尔摩国际人工智能联合会议上联名签署宣言,誓言绝不将自身技能用于开发自主杀人机器。
根据欧盟议会绿党“欧洲自由联盟”的声明,在联合国层面,有26个政府要求禁止自主武器。和平组织PAX在决议投票后发表声明称:“这项决议为防止(自主武器)发展和使用采取进一步措施提供了重要动力。”
三、正反双方各执一词
欧盟中,有些人担心该决议可能限制日常使用型人工智能的科学进步。此外,议员们还强调,如果欧盟禁止使用此类武器,但是其他国家并没有禁止,那么欧盟将面临安全风险。反对自主武器的人们则担心自动化武器会因网络攻击或者编程错误变得危险。欧盟的辩论中,大多数成员认同此观点,认为使用此类武器会造成人权和人道主义问题。
国际社会中针对自主武器的观点同样充满分歧。支持者认为,在未来,致命性自主武器系统如果应用于战争,在军事方面会起到许多正面作用。例如,降低人与人之间近距离战争的代价、节省军人开销、提升作战速度和准确性、战斗更为稳定等等。复旦大学教授徐英瑾在《技术与正义:未来战争中的人工智能》中指出,人工智能技术运用于军事,会使得人类作战意图得到更精确的贯彻,可使得正义战争快速结束。
反对者则认为,在伦理层面上,自主武器意味着将剥夺自然人生命的权利交给非自然人,有违人类生命权以及人格尊严。武器系统违反国际人道法中的“区分原则”,即机器人武器很难做到和人类一样区分平民与战斗员,对《日内瓦公约》造成挑战。在法律层面,国际社会将面临如何追究责任的问题,如何界定被追究的主体成为难点。此外,国际社会目前尚未就致命性自主武器系统问题达成统一认识,甚至定义都不统一。
本文由赛博研究院出品,转载请注明:本文来源于赛博研究院官网。
更多精彩内容请关注“赛博研究院”公众号。