在战场上投入机器人作战可以保护士兵们的生命安全,然而“人权观察”组织和哈佛大学法学院国际人权研究所在一份研究报告中指出,基于人工智能技术的“杀手机器人”带来的威胁要比帮助更大。
业内人士认为,利用人工智能技术,不久之后机器人即可独立选择目标并开火,成为完全自动化的武器。这样的设想即将从科幻小说成为现实。杀手机器人能覆盖地面、空中和海上,从而颠覆我们对于武装冲突和执法的认识。然而,这样的颠覆应当引起警惕。
支持者认为,杀手机器人是必要的,因为现代化的战争瞬息万变,而机器人的应用将有助于保护士兵和军官的安全。然而,如果将选择攻击目标的流程完全交给机器人,那么世界将变得非常危险。换句话说,在没有人工控制的情况下,机器将掌握生杀大权。因此,一旦机器发生错误,那么普通人就可能遭到机器的攻击,而没有任何人将为此负责。
完全自动化的武器系统将带来道德、法律和责任危机,而控制这种危机的最佳方式就是通过国际法律禁令,禁止使用无人控制的武器。至少20个国家已在联合国会议上对此表示支持,即攻击目标的选择应当由人类来完成。
由人类来控制武器具有道德上的重要意义。人类具有感情,因此在做出伤害他人的决定时将承受感情压力,从而更加审慎。然而机器人则缺乏真实的感情。实际上,机器人并不能理解人类生命的价值,因此让机器人去做出这些决定是对人类尊严的破坏。
与此同时,让人类来操控武器是符合国际法的做法。例如,战争法禁止在超出军事意义范畴外过度的杀伤和破坏。关于这样的国际法,人类可以根据过往经验和道德考量,基于不同情况来做出判断。这是自动化的武器所不具备的,自动化武器不可能通过编程来考虑所有不同状况。因此,这样的武器不可能成为“理性的指挥官”。
在今年4月的联合国会议上,94个国家建议对“致命的自动化武器系统”展开正式讨论。这一讨论将考虑,这些系统是否应当根据《特定常规武器公约》受到限制。目前受这一公约限制的包括燃烧武器和致盲激光。
签署这一公约的国家将于今年12月再次举行会议,设定未来的工作日程。专家认为,关于致命的自动化武器系统的正式流程应当从2017年启动。