4.2 事前监管?事后监管?
监管问题既出现在人工智能研发(事前)阶段,也出现在人工智能扩散(事后)阶段。
人工智能研发过程与信息技术设备、组件和人员的组合方式密切相关,从这个意义上说,人工智能研发带来的事前监管问题与其他软件开发系统并没有本质上的不同。然而,人工智能项目利用许多分散的、已有的硬件和软件组件在线组装,其中一些组件拥有专有技术,使用大多数人都能轻易获得的设备,并使用位于不同地区的开发人员小团队编写的人工智能程序,表现出离散性、扩散性和不透明性的特点。显然,人工智能研发既不需要在所使用的基础设施上花费巨额投资,经营所需组织结构也可以比较分散,对于常常与大型工业制造商和能源生产商打交道的监管机构来说,面对这些名不见经传的小公司,想事先了解清楚所有这些组成部分结合在一起所产生的效果将可能非常困难,对于此类体系可能带来的问题以及如何解决这些问题,很可能要到事后才能得到充分认识。因此,监管风险可能比预期高出很多,须谨慎对待。[60]
关于事后监管主要存在两大问题,即可预见性问题和控制问题。
传统法律责任标准认为,如果某产品对某人造成某种伤害,而这种伤害是可事先预见的,那么该产品设计制造者需要为此承担责任。对于大多数工业产品来说该法律标准已经足够,制造商需要对所有可合理预见的伤害负责。然而,人工智能通常被设计成自主的并以创造性方式工作的系统,也就是说,最初的设计师和工程师并不总是能合理地预见未来会有什么后果产生。因此,人工智能所做的事情可能无法合理预见,如果人工智能程序执行过程中造成了一些伤害,人们可能无法获得法律赔偿。显见,人工智能对传统法律责任标准之可预见性的先决条件提出了挑战。
当人工智能的行为方式不再能够被其人类制造者所控制时将出现所谓的控制问题。原因可能很多,最极端的原因可能是人工智能比人类更聪明而不受人类控制,不那么极端的原因可能是编程和设计中存在缺陷,当人工智能和程序员设计初衷存在矛盾时,将出现非常严重的失去控制问题。而控制问题又可分为两种,一种是局部控制问题,另一种是全局控制问题。当某特定人工智能系统不再由该系统法律责任人控制时将出现局部控制问题;当人工智能不再被任何人类所能控制时将出现全局控制问题。这两种控制问题都将带来监管困境,但后者显然将比前者更令人担忧。[61]