把伦理融入人工智能设计之初
一些初步的研究已经发现,当人们意识到人工智能在事件中发挥了某种作用时,该事件中的道德困境会遭到更多人的检视。之所以会如此,并不是因为人们认为人工智能具有自己的想法了所以十分危险,而更像是人工智能将道德法则对象化,使之更容易被探讨。一来它并不直接牵涉具体的人,减少了道德讨论中的一重伦理阻碍;二来它以算法的方式呈现道德,使之变得可追溯、可查证、可修正,增加了人们改善其道德实践的动力,毕竟改善机器的行为要比改善人性要可操作得多。正如杜严勇所说,哲学语言的模糊性与计算机程序的准确性之间存在天然的矛盾。[33]上述例子所展现出的,是人们意图用计算机语言的精度来倒逼价值判断精度的典型范例。
美国的大学和研究机构,已经开始注意到价值观融合在人工智能设计阶段的重要作用,在课程设计上也反映出了对这种迫切需求的回应。在人工智能研究重镇波士顿,哈佛大学教授格罗斯(Barbara Grosz)制定了一项“内嵌计算机道德”(Embedded EthiCS)计划,旨在让计算机科学专业的学生有更多机会在课程中接触到伦理问题,实现在每一个人机协动的系统中都能够置入伦理模组。在这样的课堂里,学生们会探讨:如果一个被通缉的人进入到无人车中,那么无人车是否有义务将门窗反锁直接驶往警局?如果司机要求无人车以80迈的时速超速行驶,无人车是否应该听从?万一出了事故,究竟是该由下达命令的人承担责任,还是由无人车制造商承担责任?现实生活中超速现象比比皆是,为什么到了无人车这里,超速就显得非常具有争议性呢?……在这些跨学科的追问中,并不存在唯一的标准答案,课程的目的旨在向未来的人工智能开发者们灌输伦理设计的必要性。[34]
伦理多样性的教育或许更有必要。2014年一项研究指出,在对哲学没有预先知识的情况下,美国学生大多数是功利主义哲学的信徒,因为功利主义对愉悦和产出最大化的追求和美国的价值观天然一致。[35]但这种价值观模糊了道德的定义,不讲情境,只讲更高效的控制,这些都会引发人工智能设计中的问题。美国国家科学基金资助的一项跨院校、跨学科的研究项目就指出,合理的人工智能伦理课程设计,应当向学生传授三种伦理观——康德的道义论、米尔的功利主义和亚里士多德的德性伦理学。以广告推送系统为例,功利主义追求最有效、最精准、最高转化,道义论追求双方义务权利的对等,亦即强调用户对平台使用自己数据的许可权,德性伦理学则强调用户不轻易上当点击,但又会适度点击广告以维持平台的生存权。此三者并不互斥,也没有高下之分,而是为学生提供完整伦理学视野的角度。教育者应当有义务让从事人工智能相关行业的学生接触到多元的伦理学观点,在课堂上积极引用科幻电影和小说作为讨论的场景,将其打造成受学生欢迎的课程,从而令系统设计之初,德性便是在场的。[36]