两种道德法则模型中人工智能的归责问题
《纽约时报》曾报道,科技公司Nest(后被谷歌兼并)曾于2015年推出过一款住宅温控人工智能系统,这套系统会先用一个星期的时间观察住宅内的人,注意他们的行为作息和温度偏好;它同时具有动作侦测感应器,可以知道家里是否有人。当家里没人时,它会进入节能模式;当家里有人时,它会调节温度来适应屋主的偏好。那么,假设屋主喜欢在夏天将温度设置在22度左右,而非通常建议的26度,假设屋主喜欢24小时维持温控,无论家里有没有人,那么当人工智能系统被告知要如此行事时,它应当尊重使用者的偏好,还是尊重更高级的、有利于节能环保的德性呢?[25]其中的核心问题是人工智能究竟应该遵循哪一种性质的价值观。当我们向人工智能发布指令的时候,人工智能应当遵照什么标准来运行呢?按照我的指令行事,按照所表达的意图行事,按照所显露的偏好行事,按照基于理性和信息的偏好行事,按照我的客观利益最大化为目标行事,还是按照个体或社会的价值观行事?
这当中就显示出边沁式功利主义和康德式普遍道德法则这两种价值观原则的冲突之处。有学者指出,无论是这两种中的哪一种,人工智能本身都不具备作为道德主体的条件。例如,康德式道义论既要求有道德规范限定行为的轨迹,还需要有施展道德行动的动力。例如本能,本能在无意识的情况下驱动行为,它由情感驱使,需要经过社会化的训练形成,这些机器无法做到。如果用社群理论来解释道德动机,那么机器更不可能过关,因为一个作为道德主体的人必须在被社会其他成员认可为道德主体时,才能以这样的身份展开行动。如果人工智能只是依靠模仿来实践道德行为,那么它是不具备主体性的,不是靠“情感模组”对情绪采用量化的表达就能解决的。[26]
也有人认为,需要对人工智能是否具有道德性有一个明确的界定。对此,历史上并非没有构想,这一尚存于概念中的测试被称为“道德图灵测试”(moral Turing Test)。道德图灵测试本质上接近图灵测试的原理,需要自动化系统学会模仿人类的道德标准来进行决策。[27]这一概念之所以迟迟未能付诸实践,是因为专家们对于应该运用哪些伦理来对人工智能进行道德判断无法达成共识。有学者指出,要规避这个选择难题,不妨将图灵测试中的人机对话限于道德话题。如果人无法分辨对方是人还是机器,那么机器便可视为一个“人工道德主体”(artificial moral agent);或者不采用语言,而是用行动来判断,看看机器的行动和人的行动能否被区分。如果无法区分,那么机器便算通过道德图灵测试。[28]
塔夫茨大学计算机科学与人际互动实验室的阿诺德和舒茨(Thomas Arnold & Matthias Scheutz)指出,如果只是用这样的测试来决定人工智能是否道德,无非是诱导它给出具有欺骗性的答案来蒙混过关,这样反倒是有害的。因为首先,你无法判断模仿在这当中起到了多大作用。例如,当被问及复杂的乘除法运算时,机器可能完全具备瞬间应答的能力,但是它可以模仿人的行为,用多一些的时间思考,或者告诉测试者它算不出来,这样就增加了其被视为人而非机器的概率,关于道德问题亦是如此。其次,有时候人工智能给出了道德的回答,但我们却无从知晓其道德推断的过程,况且即便能够做出德性的推论,也未必会带来德性的行为。人工智能如何认知环境,人工智能又具备哪些可以选择的行动,这些都应该是透明公开的。最后,如今越来越多的生产生活领域会有人工智能的身影,即便是弱人工智能也会带来道德冲击,如果所谓的道德图灵测试这一概念站不住脚,那么用它来作为全行业衡量人工智能道德与否的标准,就会很成问题。阿诺德和舒茨故而主张,应该采用系统查证的方法,确保自动化系统的设计是受控的、可追溯的,在系统设计之初和过程中,就将道德观念注入其中,而不是让它们应试一般地在已经知道肯定会得到允准和点头的答案中选择,实则无法查证它们决策的流程。系统查证是要查明机器为什么没有采取特定的反应,这种选择是建立在什么样的逻辑链上的,它又是如何对决策的情境进行评估的,这样就远比得到一个具有道德推论感的答案要可靠得多,也对设计提出了要求。[29]
系统查证并不解决自动系统的道德主体性问题,也不能提供令所有人满意的高尚解决方案。比如一辆无人驾驶汽车应当选择撞死路边的一个孩童,还是让坐在车里的车主牺牲生命,这抉择显然是进退维谷,但是它至少能够帮助我们更好地、更充分地探索伦理和道德准则,带领人工智能向更稳健的方向前进。目前美国学界有人主张,人工智能若要与价值观结合,结合的方式可以有至少两种:其一,是符合普世人权价值观的人工智能。世界各地虽然文化不同,价值取向多元,但是还是有一些关乎人生存之根本的理念是共享的,例如对温饱和安全的追求,对肉体免于痛苦和劳役的追求,人工智能应当基于这些普遍原则来构造;其二,是依据社会选择理论(social choice theory),将单个的价值观点以特定方式集合起来,形成一种特定的、自下而上的共识。人的偏好未必反映人的真实所愿,对个人利益最大化的追逐又会与公平分配的道德原则相抵触,所以将道德计算融入人工智能的设计当中,或可缓解这些矛盾。抑或设计投票环节,交由人工智能来平衡并统合多样化的利益诉求,形成一种基于算法的道德新共识。[30]
在现实生活中,公众其实已经逐渐形成了对于人工智能道德能动性的常识式判断。如果人工智能在现实生活场景中犯了错,人们究竟是会怪人工智能的算法,还是怪使用算法的人呢?密苏里科技大学心理科学系的单克和德桑提(Daniel B.Shank & Alyssa DeSanti)就此问题展开了一项调研,他们在线向321名被试者发放了问卷,调查他们如何评价7件真实发生的人工智能的道德失误,亦即归咎于谁,人还是机器。这7个事件分别是:①算法根据种族偏见误判罪犯的再犯概率;②用搜索引擎搜索“大猩猩”后显示出黑人女性图片;③护照照片识别算法将亚裔照片误认为是闭着眼的;④在线选美程序选出的都是浅肤色的女性;⑤在儿童的应用软件中推送色情暴力广告;⑥推特聊天机器人使用种族蔑称和支持法西斯的言论;⑦年轻女孩尚未告知家人怀孕就被商家寄来的优惠券泄露。被试者如果认为此事件有违道德原则,那么他们会进而被问及各个行为主体(组织者、使用者、人工智能算法或其开发者等)该承担多少责任(从1到5),再继而被问“人工智能是否有自己的意识”,“多大程度上具有动机”等(从1到5)。调查发现,如果被试者认为人工智能算法牵涉其中,那么认为该事件有违道德原则的比例会有所增加,会从30%增加到37%;而如果人工智能卷涉其中的话,那么其使用者也会被更多归咎,这证明当被调查者自己能够理解人工智能的运作规律时,他/她会认为事件中的使用者也是可以理解人工智能的,知错犯错故而罪加一等。同时调查表明,无论事件是否有违道德原则,绝大多数被试者不认为人工智能有自己的想法。[31]基于上述同一组真实事件,该研究团队展开了另一项调研。他们将事件中的决策结构分为4种:①完全由人工智能;②完全由人;③由人监管的人工智能;④人工智能向人提供建议。通过对453名被试者的调查,该团队发现4种决策结构的不同并不能显著改变上文中提到的归责选择。[32]