对比例原则造成的挑战
一般来说,武装冲突行为不可避免地会造成平民受伤害、民用物体受损害。在这种情况下,出于平衡军事必要与人道保护两者的考虑以及限制对平民、民用物体的伤害程度,比例原则得以适用。前南斯拉夫国际刑事法庭在“加利奇案”(Galic case)中认为冲突方考虑比例原则时,应以尽可能不伤害平民和民用物体为原则。[37]针对战斗员或军事目标的攻击必须符合比例原则。只有在进行评估并得出平民损失预计不会超过预期军事利益的结论后,才可攻击军事目标。比例原则载于《第一附加议定书》第51条第5款第2项以及第57条第2款第2项,该原则在国际性和非国际性武装冲突中被接受为习惯国际法。[38]
首先,比例原则包含很多要素,如如何界定整体攻击中具体和直接的军事利益、附带损害。致命性人工智能武器无法正确评估具体和直接的军事利益。军事利益是比例原则的核心要素,该原则较为笼统,缺乏精确性。同一次攻击因交战方的军事战略、作战计划、指挥官的意图、政治因素等可能提供不同的军事利益,[39]如在某种情况下天气都可能对预期的军事利益产生影响。编程人员极不可能对交战方的军事战略、指挥官的意图以及政治因素进行预编程以处理其无数种情况。ICRAC负责人Sharkey称:“在军事交战中可能同时发生的大量类似情景,将会导致混乱的机器行为,并带来致命的后果。”[40]伊恩·亨德森和凯特·里斯也认为,自主机器人对外部环境的不完全理解是由于软件的局限性,将不可避免地导致“错误行为”。[41]据这类专家称,机器人在分析如此多的情况时遇到的问题将干扰其进行比例测试的能力。此外,致命性人工智能武器容易受到黑客攻击和计算机故障的影响,导致出现编码错误,以部署此种武器的军事指挥官没有预料的方式运行。当编码错误出现在致命性人工智能武器上,对平民的损害将是致命性的。在复杂多变的情况下解释不是计算机的自动决策,因此致命性人工智能武器可能由于无法进行比例分析,从而导致无法遵守国际人道法的比例原则。(https://www.daowen.com)
其次,致命性人工智能武器无法预见攻击行为所导致的附带损害。《第一附加议定书》具体列举了三种类型的附带损害,即平民生命的丧失、平民受伤害和民用物体受损害,因此附带损害的对象涵盖了人员和物体。《第一附加议定书》第51条提出对平民的伤害,但第51条第(5)款第(b)项的措辞并未明确将有关伤害限制为身体伤害。对平民造成的精神伤害是否纳入附带损害的范畴一直备受质疑。然而近年来,人们日益剖析到武装冲突行为带来了严重的精神损害。国际机构和学术界认为严重的精神损害对个人重大和长期的影响包含在比例原则之外。致命性人工智能武器可以通过平民身体的外在表现判断其受伤害程度,但精神损害程度很难转化为算法,导致致命性人工智能武器无法预估精神损害。精神损害对于致命性人工智能武器是完全无法预测的,这需要指挥官的主观评估。它需要评估平民伤害的程度,评估获得的军事利益的价值,还需要考虑是否有其他替代途径获得这种军事利益,从而减少平民伤害。[42]彼得·阿萨罗(Peter Asaro)将比例原则描述为:“抽象的,不容易量化的,并且比例原则对人的主观估算要求非常高。”[43]
最后,致命性人工智能武器不具备合理的军事指挥官资格。自主武器无法计算预期的军事利益和附带损害,评估军事行动所带来的附带损害是否过分超过预期的军事利益是以“合理的军事指挥官”为判断标准,并且国际人道法的责任承担机制也是以指挥官责任为基础的。[44]但通常认为,致命性人工智能武器虽然拥有类似人类的智能,但是并未发展出人类理性,[45]不可取得类似自然人的法律主体地位。[46]著名的人权学者克里斯托夫·海因斯(Christof Heyns)认为:“将生死决定交给机器是道德上的乃至法律上的对人权的侵犯,致命性人工智能武器缺乏人类独有的良心、情感、认知和精神状态,我们不应该将对人类生死攸关的大事(生命)完全交给致命性人工智能武器,使用致命性人工智能武器可能构成对生命权的威胁,它还可能造成严重的国际分裂,削弱国际法的作用和规则。”[47]因此,致命性人工智能武器只能是法律关系客体而非主体,致命性人工智能武器不具备合理的指挥官资格,在适用比例原则的过程中也将遭受巨大挑战。