致命性人工智能武器对国际人道法两大原则造成的挑战

二、致命性人工智能武器对国际人道法两大原则造成的挑战

美国认为致命性人工智能武器的应用可以减少平民伤亡,救助武装冲突中的伤员,能够更好地保护冲突中的平民。然而,美国趁机将大量致命性人工智能武器应用于伊拉克的反恐行动中,造成了大量平民伤亡。我国认为致命性人工智能武器是否具有辨别目标的能力,尚未可知。更为重要的是这类武器系统难以作出对等的、相称的决策。因此区分原则、比例原则在致命性人工智能武器领域的适用存在挑战和不确定性。(https://www.daowen.com)

区分原则和比例原则规制武装冲突各方从事敌对行动的方式,这些原则旨在保护平民免受敌对行动的影响。区分原则和比例原则已经被编纂进《第一附加议定书》,适用于国际性和非国际性武装冲突的习惯国际人道法中也包含这些原则。武装冲突的当事方均应根据区分原则和比例原则开发、部署和使用武器,致命性人工智能武器也要遵守两大原则。为了遵守区分原则和比例原则,指挥官需要具备先进的观察和识别能力,更需要基于动态军事情势作出判断的能力。固然致命性人工智能武器已经具备人类的观察和识别能力,但致命性人工智能武器无法在复杂的动态军事情势中作正确的判断。因此在当前的技术水平下,部署致命性人工智能武器将对国际人道法的两大原则造成挑战。冲突方使用致命性人工智能武器的行为违反了国际人道法。