赋予强人工智能刑事责任主体地位之可能性
强人工智能具有深度学习能力,标志着人类技术的一个全新进步维度。与此同时,对强人工智能行为的法律评价也将触发新的难题。[12]当人工智能随着技术的发展而摆脱可控路径,从而成为脱离人类管控的强人工智能时,人类社会的经济面貌、政治体制和法律构造等将面临翻天覆地的变化。人工智能技术发展的最优路径,必然是人类在充分享受技术发展创新成果的同时,能够最大限度地控制与预防技术可能带来的风险。[13]如何控制与预防人工智能技术风险,是刑法对涉人工智能犯罪进行研究所需解决的首要问题。刑法对弱人工智能技术风险的控制与预防,主要涉及对不同应用场域中弱人工智能技术的风险预测与规制,笔者无意在本文中就此问题进行探讨。而刑法对强人工智能技术风险的控制与预防,主要涉及对强人工智能是否可能具有刑事责任主体地位的研判。尽管近年来学界对此问题的争论如火如荼,但仍未达成共识。持“肯定说”观点的学者与持“否定说”观点的学者针锋相对,各执己见。假如具备自主意识意志的强人工智能的行为造成刑法意义上的危害结果,就会产生相应的刑事责任归属问题:谁是行为人?谁承担刑法上的罪责?是强人工智能背后的人——使技术发挥其作用的研发者与使用者——承担刑事责任?还是强人工智能本身承担刑事责任?抑或没有合适主体能够为此承担刑事责任,从而将上述危害后果作为技术不可预测性所带来的人类应当共同分担的后果。[14]笔者在本部分意在从技术发展与进步的角度说明强人工智能具备刑事责任主体资格的可能性,即强人工智能为自身在自主意识意志支配下实施的危害行为承担刑事责任的可能性。下文概要介绍强人工智能具备被赋予刑事责任主体地位的可能理由及其原因,旨在探讨前述问题。
根据刑法通说,作为人制定的法律,刑法处罚符合构成要件的行为。如果行为人所实施的行为符合刑法条文所规定的构成要件并引起构成要件描述的危害结果,则该危害结果应归责于该行为人。[15]当然,将危害结果归责于行为人的前提是,行为人能够认识自身行为的不法性,且其可以被期待以适当方式避免,却仍因故意或过失而满足了构成要件,也即行为人的行为符合了构成要件中不法行为之非难可能性,则行为人应对自身行为所引发的刑法上的罪责承担刑事责任。然而我们已经看到,强人工智能通过算法、大数据、神经网络系统和深度学习等方式在某一特定领域已经具备了超越人类大脑的水平,且至少可以在引申意义上自主行动。那么强人工智能是否可以受到与人类相同的刑事处罚?
人类刑法史上曾经有过关于对非人类生命体进行刑法惩戒的设想与经验。考察人类刑法史可知,刑罚与罪责并非人类专属。在启蒙时代之前的刑法历史中,刑法曾经并不完全以人类为中心而构建。例如,在欧洲刑法史上曾有关于对动物进行刑事诉讼的记载。相传在1474年的巴塞尔曾发生过一起审判公鸡的案件,一只公鸡因被指控下了一个孵出蛇精的蛋而被判处死刑。这起案件在现今看来固然是荒谬的,随着社会进步,人们的思想观念也在逐渐更新,所谓的“动物刑法”早已被废弃。在近现代社会的刑法当中,在法律上,动物被作为“物”对待,而不再与人类具有相同的法律地位。与之相同,不具有自主生命体的机器也被法律作为“物”对待,因为它们是以被定义好的方式发挥其功能,而和人类的法律地位相区别。马克·吐温早在1906年就写道:“(机器)所做的不会超出或者少于它的制造者允许和迫使它做的。机器毫无人的特质,它不能选择。”但是,科幻作品对人工智能技术的发展作出了预测,表明原本在人类的完全掌控之下的机器或许有一天会演变为具有独立自主意识意志的强人工智能。例如,早在1950年,阿西莫夫就在《我,机器人》这部小说中提出了规范机器人和人类之间关系的“机器人三定律”。[16]这部作品中的机器人就是具有自我发展意识、具有自我感觉、具有独立自主意识意志的强人工智能。晚近科技的发展表明,科幻小说、电影中对于强人工智能的幻想正一步步成为现实。(https://www.daowen.com)
应当看到,与客观实在相比,人类观念的范围是不全面的,而人类知识的范围更是小于观念的范围。认为强人工智能不可能具有刑事责任主体地位的学者具有这样的预设观念:刑法当中的行为与刑事责任的概念是针对人类设定的,[17]因而无法适用于人工智能。即便强人工智能因具有深度学习能力和辨认控制能力而能够自主实施行为,也因其不属于刑法所调整的对象,而无法被划归为刑法中的行为。因此,讨论强人工智能的刑事责任归属并无实际意义,换言之,赋予强人工智能刑事责任主体地位不具有可行性。众所周知,人类的意识形成来源于大脑,是脑细胞中的神经相互交叉传递达到一定程度的结果。也正是如此,导致很多学者认为意识是人类所独有的,大脑是意识产生的唯一基础。不可忽略的是,得出这一结论的前提是传统理论并未预见人工智能如今的飞速发展。[18]但不能忽视的是,强人工智能是以生命科学为基础,通过模拟人类大脑的神经系统,利用神经网络来进行拟人化行为的。意识产生的真正原因在于神经细胞的排列组合方式,因此当强人工智能的人工神经网络足够庞大时,这种模仿生物的行为方式便会产生意识,便能够一直“成长”为独立于人的主体。
可以说,随着人工智能技术的演进,出现能够模拟人类思考的自主意识将成为可能。[19]也即,随着人工智能技术的进一步发展,主观意识并非人类特有,强人工智能能够成为比肩人类的新物种,甚至比人类大脑更加智能。据预测,到2030年左右将会出现强人工智能,这时的强人工智能完全比肩正常的成年人。在论证法律主体地位的时候,不得不提到康德的道德哲学和黑格尔的法哲学。康德和黑格尔的理论都能得出这样的结论:理论上的人是理性的实体,并非任何客观实在都能成为此等人,只有具备自由意志的实体才有可能通过理性的逐步发展成为这种伦理上的人。[20]因此根据这一原理,可以得出以下结论:一是动物因为不具备相应的理性而不能成为法律上的人,只能是物;二是生物学意义上的人也并非全部都是法律上的人,只有在其具备自由意志的前提和基础之上才可能是法律上的人。同理可得,强人工智能之所以可能具备刑事责任主体地位,也在于其具备自由意志和实践理性。追根溯源,否定强人工智能可以具备刑事责任主体地位的原因不外乎是“因为人工智能不是人,所以人工智能实施的活动不能等同于人类活动,而只有人类才具有理性,只有人类活动才是在理性支配下所实施的具有刑法意义的行为。”此种观点和结论是将强人工智能承担刑事责任的可能性予以先验地完全排除,陷入了一种自说自话、形而上学的怪圈。可以说,这完全是人类中心主义的立场,存在循环论证之纰缪。