对区分原则造成的挑战

(一)对区分原则造成的挑战

1977年《第一附加议定书》第48条规定了区分原则。[25]国际法院在“使用和威胁使用核武器的合法性的咨询意见”中把区分原则和限制作战手段和方法原则认定为国际人道法的基本原则,并将区分原则视为国际人道法的一个首要原则。国际法院认为,“区分原则是国际人道法的第一原则,并规定战斗人员和非战斗人员的区别”。[26]据此,区分原则构成了国际人道法的基本支柱。区分原则不仅是国际人道法的基本原则,也是习惯国际法,[27]对各国具有普遍拘束力。鉴于此,《第一附加议定书》的缔约国在武装冲突和战争中应遵守区分原则。

区分原则一方面要求交战各方在任何时候应始终区分平民和战斗员。平民和战斗员的区分标准体现在1977年《日内瓦第一议定书》第51条第3款中。该款以否定句的方式定义平民,涵盖所有既不属于冲突一方武装部队也没有参与民众抵抗的人员。无论国际性或非国际性武装冲突,直接参加敌对行动的人属于战斗员,不享有免受直接攻击的保护权利。其余人员均属平民,享有免受直接攻击之保护。另一方面区分民用物体和军事目标,以确保民用物体免受敌对行为的影响。《第一附加议定书》第52条规定民用物体不应成为攻击对象,攻击应仅限于军事目标,并提出了构成军事目标的两个要素。区分原则要求人类在战争和武装冲突中进行高度复杂和高度情景的分析,致命性人工智能武器是否具有人的思维的独特分析能力,是否具有区分平民和敌方战斗员、军用目标和民用目标的能力尚存争议。[28]

首先,致命性人工智能武器难以区分平民和直接参加敌对行为的平民。致命性人工智能武器将身穿制服的战斗人员与平民区分开来相对容易,一般而言,致命性人工智能武器可以凭借制服、徽章和装备等固定特殊标志识别战斗员。然而,近年来作战行为持续转入平民居民中心,越来越多的传统军事职能被外包,从而使大量私人承包商、平民情报员参与到武装冲突中,[29]平民同军事行动的关系更加密切。平民在直接参加敌对行动期间,就丧失了免受直接攻击的保护,可以像战斗员一样被直接攻击。因此,将平民与直接参与敌对行动的平民区分可能很困难。为了确定在特定情况下的平民是否满足上述每项条件,就需要对复杂的形势进行综合判断。《国际人道法中直接参加敌对行动定义的释性指南》(以下简称《解释性指南》)规定,平民在直接参加敌对行动“期间”才丧失免受直接攻击之保护。直接参加敌对行动的概念由两个基本要素组成:“敌对行动”和“直接参加”。为了确定平民在距离实际战斗很远的时候就丧失保护,必须尽可能慎重地确定构成直接参加敌对行动之具体行为的起止时间。直接参加敌对行动不仅包括直接实施敌对行动,还包括为实施此类行为而做的准备工作以及前往和离开实施地点的过程。此外,视参与的性质和程度而定,个人参加敌对行动可分为“直接”参加和“间接”参加。直接参加是指作为武装冲突各方之间敌对行动的一部分而进行的敌对行为,而间接参加则是指对一般性的战事有所贡献,但并没有直接伤害敌人,因此也不致丧失免受直接攻击的保护。比如平民装备、运输和安防武器属于直接参与敌对行为。但对于平民购买、走私、生产和藏匿武器以及招募、训练人员是否构成直接或间接参加敌对行为,以及在现实武装冲突中对于判断一个平民是否属于参加敌对行动的人,要考虑的因素远远超过《解释性指南》里规定的因素,我们不能认为只要完全把区分原则的书面规定编程在致命性人工智能武器里,就认为致命性人工智能武器可以准确地作出每一个事关生死的决定并得到人类的认可,因为该平民可能不会表现出任何平民身份的外在迹象,并且实际上可能试图隐藏其身份。在这些情况下,人的判断至关重要,自主武器无法准确区分平民何时参加敌对行动。(https://www.daowen.com)

其次,致命性人工智能武器难以区分战斗员和投降或失去战斗能力的人员。区分原则要求不得攻击投降或失去战斗能力的人员。一般而言,战斗员投降或失去战斗能力的行为发生在战争正在进行时。[30]他们应当得到安全生活,并受到人道主义待遇。致命性人工智能武器具有自主学习能力,其感官处理能力较自动系统也更为先进,但将战斗员与投降或失去战斗能力的人员进行区分仅致命性人工智能武器的感官处理能力还远远不够。区分战斗员与投降或失去战斗能力的人员取决于人类的独特识别能力,如指挥官根据具体情境下战斗员的声调、面部表情和肢体语言来判断。但自主武器系操作员提前编码和部署,无法预见武装冲突的具体情景。[31]人类以致命性人工智能武器不可预知的行为来分析武装冲突中的军事形势,因此致命性人工智能武器判断战斗员在武装冲突中是否投降或丧失了战斗能力存在困难。

最后,致命性人工智能武器难以区分军事目标和民用物体。为了使攻击的物体属于合法的军事目标,《第一附加议定书》第52条提出了军事目标的两个构成要素。军事目标需同时满足两个要素:一是构成军事目标的客观要素[32],即攻击目标对军事行动有实际贡献,具体可以通过物体的性质[33]、所处的位置[34]、目的[35]和用途来判定。二是指构成军事目标的主观要素,[36]即军事目标应具有明确的军事利益,时间上也具有严格要求。明确的军事利益与军事必要性原则密切相关,军事必要性原则是攻击军事目标的前提条件。明确的军事利益意味着一种具体的、明显的军事利益,而不是一种假设和推测的军事利益。它排除了基于不确定或潜在的军事利益而进行的攻击。民用物体满足上述两个要素即可成为军事目标。致命性人工智能武器评估这两个要素会存在挑战,因为在动态的作战环境中,致命性人工智能武器对明确的军事利益无法进行切合实际的评估。考虑军事目标是否具有明确的军事利益不能孤立地考虑单个军事目标,应从武装冲突的整体情景考虑。一旦军用目标对敌方的军事行动不再有实际贡献或者攻击它们不再具有明确的军事利益,该目标将获得民用物体地位,不得对此进行攻击。判断是否需要构成军事目标不能仅仅根据物体的客观位置,还含有人类的主观要素。一般来说具有明显标识的军用目标通常容易识别,操作员可以将其编程到致命性人工智能武器中。但当一个物体具有多种用途时,致命性人工智能武器判断物体何时具有军事用途,何时转换为民用物体可能存在失误,进而造成民用物体的损失。因此致命性人工智能武器在准确界定军用目标和民用物体时仍存在巨大挑战。