3.2 责任
从交通运输到医疗保健再到执法,几乎所有涉及人工智能技术的行业均存在着一种潜在问题,即人工智能出错时谁将负有责任?[39]例如,使用机器人做手术造成的伤害和死亡所面临的法律诉讼难题如何解决?[40]香港地产大亨Samathur Li Kin-kan聘请一家公司使用人工智能管理其账户造成数百万美元损失由谁承担责任?[41]
人工智能面临的核心伦理问题之一就是明晰责任承担主体。在侵权法(一种因损害而要求赔偿的民事诉讼)中,诸如“知识”“意图”“可预见性”“合理谨慎义务”和“疏忽”等术语对于确定责任主体至关重要,但在一些涉及自主技术的案例中却变得非常难以解决。人工智能系统通常具有自主学习能力,大多数问题的产生没有人为的过错,也没有对损害后果的可预见性,因此传统的侵权法将认定人工智能创造者不承担责任。当发生事故甚至致人死伤时,责任最终将在法庭上得到界定,法律判决要么遵循现行规则,要么做出改变。如果人工智能继续在不负责任的情况下扩散将使人类处于类似“终结者”的危险境地。[42]
更加棘手的问题是这些技术并非真正自治,仍有人为因素参与其中。例如,有人编程、有人建造、有人卖掉、有人更新或更新失败、有人使用不正确等。如果由于此类技术对人身或财产造成伤害而提起诉讼,法院(或陪审团)将必须决定哪些人类主体承担责任。如果确实存在一个真正自主的人工智能技术,这将产生一个更深层次的新问题,即是否应将其视为一个“人”?[43]
此外,自动驾驶汽车正在彻底改变车辆“驾驶”和“所有权”的概念,将“司机”变成“乘客”。尽管专家认为这项新技术比普通人类驾驶员更安全,但自动驾驶汽车仍有可能发生撞车事故。据报道,特斯拉的Model S已经造成两起死亡事故,特斯拉面临对其自动驾驶方案的共同诉讼,原告认为他们买到的是缺乏安全性能标准的自动驾驶汽车。然而,除特斯拉之外,优步(Uber)、谷歌和通用汽车(General Motors)的自动驾驶车辆也发生了撞车事故,这些进一步证实制造商声称自动驾驶比人类驾驶更安全的说法不具可信性。[44]当无人驾驶汽车意识到无论怎样撞车都是不可避免的时候程序如何设计?是把司机暴露在最大危险之下以保护附近其他人?还是保护司机但很可能夺去其他汽车乘客或行人的生命?明晰车辆决策者、车辆所有者与责任承担者之间的关系是法律界需要解决的紧迫问题。
自动驾驶汽车的生产速度超过了相关法律的制定速度。例如,2016年9月,美国联邦政府首次制定了联邦自动驾驶车辆政策。随后出现了各种各样的州立法,如亚利桑那州的立法只要求车辆经过测试符合标准进行登记即可,而纽约州的立法则要求汽车在警察的护送下需沿着批准的路线行驶。截至2018年11月,美国共有29个州通过了自动驾驶汽车立法。为了解决这些法规不一致的问题,美国参众两院商务委员会(U.S.House and Senate Commerce Committee)通过了一项联邦立法,赋予美国国家公路交通安全管理局(National Highway Traffic Safety Administration,简称NHTSA)对自动驾驶汽车的监管权。[45]