国际组织对致命性人工智能武器的定义
该领域若干权威国际组织主要包括联合国裁军研究所、国际机器人武器控制委员会(ICRAC)等把致命性人工智能武器概念列为重要议题。例如,联合国裁军研究所在《关于自主技术的武器:担忧、特点和定义》,[14]认为致命性人工智能武器定义可以综合运用技术中心方法(technology-centric approach)[15]、人类中心方法(human-centred approach)[16]和功能方法(functions approach)[17]三种方法定义致命性人工智能武器,并赞同致命性人工智能武器具有自主性、不可测性和不可知性特征。ICRAC认为在暴力功能方面可以自动执行的武器系统都是致命性人工智能武器。[18]红十字国际委员会在联合国讨论中提出了自己的自主武器工作定义。[19]红十字国际委员会建议在瞄准和攻击等关键功能上具有自主性的任何系统都应视为自主武器。欧洲联盟在2017年2月16日的《关于机器人的民法规则》决议中,提出了关于自主武器系统的通用定义,认为其通过传感器和/或通过与环境交换数据以及对这些数据进行交易和分析来获得自主权,使其行为和行动适应环境,缺乏生物学意义上的生命。欧盟认为自主武器具备独立训练和决策的能力,机器人和其他自治系统目前不被视为个人或法人实体。[20](https://www.daowen.com)
不同国家的国防部文件赋予致命性人工智能武器不同的定义,由此产生的定义也暗示了国家对未来战争形态的不同看法。发达国家人工智能技术在世界上占有优势地位,从而使得武器更加自主化,利用致命性人工智能武器的场合更加平常化。发达国家倾向采取比发展中国家更为严格的标准定义致命性人工智能武器,将很多自主功能的武器系统排除。鉴于此,发达国家倾向于鼓励研发致命性人工智能武器。目前致命性人工智能武器的定义仍存在分歧和偏向。