4.3 如何监管?

4.3 如何监管?

人工智能正在应用于汽车和飞机等多种产品中,人工智能的融入将对相关监管方法产生影响。人工智能既可能减少一些风险还可能增加另一些风险,一般来说需对两者同时评估才能了解如何监管人工智能以保障公共安全。此外,管制者在讨论监管政策时应首先考虑现有法规(或者加以微调)是否适用于解决人工智能融入问题。如果监管部门制定人工智能监管政策可能反而增加“合规”成本或不利于创新研发,政策制定者应考虑如何调整政策以保证在降低成本和消除阻碍的同时又不会对公共安全或公平竞争造成不利影响。[62]

人工智能系统的工作方式很可能比以前的任何技术都更具有不透明性的特点。这可能是因为整个系统是由受专利保护的不同组件汇编而成,也可能是因为系统本身具有创新性和自主性,因此很难进行逆向追溯。这同样将给监管机构带来严峻挑战,因为监管机构对于此类系统可能带来的问题无法获得清晰认识,因此对于如何解决这些问题也无从下手。随着各种人工智能新型技术的不管涌现,人们必须深入理解人工智能系统产生解决方案和做出决策的机制将显得尤为重要。目前一个重要研发重点是为人工智能提供可解释机制,帮助人类用户理解人工智能输出其结果的缘由。例如,美国国防高级研究计划局(Defense Advanced Research Projects Agency,简称DARPA)的可解释人工智能(Explainable AI,简称XAI)项目旨在创建新型机器学习技术,使其在保持系统高性能和适当信任级别的同时产生更多可解释解决方案。美国国家科学基金会(National Science Foundation,简称NSF)与亚马逊合作的人工智能公平项目将资助人工智能公平性研究,其目标是设计出可靠的人工智能系统,使这些系统易于得到认可并加以部署,以应对在社会公平信任方面遇到的重大挑战。[63]