8.1 政府

8.1 政府

(1)提高对人工智能产生影响的意识

政府必须足够了解人工智能产生的潜在影响,以便制定有利于发展人工智能的法律法规和政策措施。[118]人工智能发展速度已经快于人类对人工智能带来影响的认识速度,快于在伦理道德框架内诠释人工智能的速度,也快于制定政策和法律来管理开发和部署人工智能的速度。机器学习(如谷歌公司的AlohaGo)、认知计算(如IBM公司的Waston)、机器人技术(如波士顿动力公司的MiniSpot和Atlas)、语音理解(苹果的Siri和亚马逊的Echo)等都证明了人工智能的发展速度。社会和政府首先需要提高对人工智能产生影响的认识,进而需要更加积极主动地围绕人工智能使用难题进行讨论和辩论,从而加快在监管和立法方面的追赶步伐。《阿西洛马人工智能原则》的签署人之一伊隆·马斯克(Elon Musk)认为“正确的流程应该是先设立一个初级目标,即建立监管机构,深入了解人工智能活动的状况,做到足够理解,一旦确定危险所在,即刻制定法规,以保障公共安全。总而言之,要确保政府对此事给予一定关注。”[119]

(2)政策保障促进人工智能发展

在美国,政府正致力于制定政策和措施促进创新,将人工智能的经济和社会效益最大程度地发挥出来。这些政策及措施包括:投资基础和应用研发;为人工智能技术及其应用的早期客户提供服务;支持试点项目并在现实环境中创建试验平台;向公众提供数据集;提供鼓励性奖励;识别金牌挑战为人工智能设定雄心勃勃但切合实际的目标并不断求索;严格对人工智能应用程序进行评估以衡量其作用强度和成本效益;创造一个既有利于创新蓬勃发展又能保护公众免受伤害的政策、法律和监管环境。[120]

(3)明确治理范围

政府既要明确理解管制和监督对发展人工智能的正面作用,同时也要对其负面影响有充分认识。人工智能是一项基础性技术,应监管的不是技术本身,而是对这项技术的恶意使用。2016年,谷歌首席执行官Sundar Pichai曾说:“人工智能是人类正在努力推进的最重要的事项之一。”[121]火能带给人类灾难,但也能被利用从而造福人类,人类需要做的是趋利避害。[122]因此,监管机构必须明确治理范围,明确如何对一种尚未成为现实的威胁实施有效而非过于激进的监管。监管深度学习模型的内部运作并不是一个明智的选择,这种人工智能监管相当于试图监管数学。相反,我们应该关注人工智能的具体应用,进行功能性监管。例如,自动驾驶汽车应该像汽车一样受到监管,目的是将用户安全地送到现实世界中的目的地,减少事故数量,至于如何做到这一点则无关紧要。[123]