引 言

引 言

人工智能已经在交通、医疗等多领域得到运用。[2]人工智能不但在经济领域成为各国竞相追逐的高地,而且用来提高军事领域武器系统的自主性。人工智能技术不仅应用于强化武器系统的机动性、瞄准、情报等各种性能,目前自主发动攻击的武器系统也已经出现。2021年7月2日,土耳其研制的自主ULAQ武装快艇首次演习成功,并自主搜索和集中目标。实质上致命性人工智能武器的问题一直在国际社会引起广泛讨论和诸多争议。致命性人工智能武器不同于自动武器系统,[3]致命性人工智能武器的核心性能是能够主动感知外部环境的变换并作出反应,而自动武器系统仅能按照预定程序完成制定任务。人工智能使战争形态由传统的作战方式向自主武器或网络战方向发展,更少依赖人为控制。[4]根据红十字国际委员会(ICRC)的报告,部署致命性人工智能武器将引起战争格局的根本性变化。[5]目前各国开发和部署具有自主学习和攻击能力的武器系统已成为现实。迄今为止,学界聚焦于致命性人工智能武器的追责机制,对致命性人工智能武器本身的合法性阐述较少。长期以来,关于致命性人工智能武器的定义一直是各国和国际社会讨论的焦点。关于国际人道法的区分原则和比例原则能否适用于致命性人工智能武器争议问题也源于缺乏对致命性人工智能武器的统一定义。以更好地规制致命性人工智能武器在武装冲突中的运用,本文尝试从国际人道法区分原则和比例原则探析致命性人工智能武器的合法性。(https://www.daowen.com)