人工智能的治理问题引发广泛关注
目前,已经有20多个国家和地区推出了国家级人工智能发展规划。2017年1月,全球行业领袖制定的《阿西洛马人工智能原则》,提出了技术发展“有益于人类”的守则;2019年4月,欧盟委员会发布了人工智能道德准则,提出包括透明性、公平性、安全性和人类监督在内的七大条件;2019年5月,OECD正式通过了首部人工智能政府间政策指导方针,确保人工智能的系统设计符合公正、安全、公平和值得信赖的国际标准;2019年6月,G20出台了倡导人工智能使用和研发“尊重法律原则、人权和民主价值观”的《G20人工智能原则》;中国于同月由国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,要求发展负责任的人工智能。
在我国,党中央、国务院高度重视人工智能发展及治理。习近平主席在中共中央政治局第九次集体学习时强调,“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”。习近平主席明确要求,“要加强人工智能发展的潜在风险研判和防范”,“要确保人工智能安全、可靠、可控”,“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。[12]2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》等文件。会议还指出,科技伦理是科技活动必须遵守的价值准则。组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。
传统的立法方式是,要在社会形成共识的基础上,考虑如何制定规则。但是,现今的人工智能技术一旦投入应用,随即便会出现对恰当治理的需求。所以,对任何政府而言,对人工智能技术应用的监管都是一项新挑战。对此,中国政府的政策是,一方面鼓励相关产业的发展,另一方面提供总体指导方针。
中国在人工智能治理相关的法律法规制定上,已经走在世界前列的队伍之中。按照十九届四中全会推进国家治理体系和治理能力现代化的要求,为保障我国新一代人工智能健康发展,全国人大常委会加强了这方面的研究,并且在立法过程中纳入了一些比较有社会共识和相对成熟的内容。(https://www.daowen.com)
国务院在2017年7月8日发布的《新一代人工智能发展规划》[13],既提出了技术和产业体系的发展策略,又提出了构建伦理和治理体系的思路。规划“保障措施”的第一条就提到:要制定促进人工智能发展的法律法规和伦理规范。
下一步的任务是将新一代人工智能治理的八项原则付诸实践。为了推动这些原则的落地,到2023年,政府将在全国布局建设20个新一代人工智能创新发展试验区,检验八项原则的实施和收集反馈。其他措施还包括提供开放平台,鼓励企业制定自己的标准,人工智能研发项目也需要遵守这八项原则。此外,目前中国的科学界和企业界在积极探索自律和监管手段,例如,成立人工智能治理研究院;在产品程序中加入“禁飞策略”来规范无人机的使用;在医疗和交通业界,通过数据脱敏来保护个人隐私信息;对收集数据的企业和机构提出承担保护数据的责任等要求。
人工智能技术的成长依靠的是世界各国科研人员分享思想、相互借鉴,是全球协作的产物,跨国企业构建的人工智能平台也在快速扩展。要想规范这个进程,各国需要制定互通的道德规范和行业规则。中国30多年来一直处于高速工业化的进程中,在立法和立规过程中广泛地参考了两个世纪以来世界上陆续出现的基本规则。今天,中国第一次跻身新技术进步的第一梯队,除了尽己所能地向前迈进,中国也逐渐意识到自身肩负的参与制定国际新规则的责任。因此,中国在人工智能治理方面的努力,需要与世界其他国家和地区,包括在技术研发上领先的美国,相互联通和协调。为此,中国对与各国探讨扩大共识、缩小差异,秉持开放态度。
清华大学战略与安全研究中心的人工智能治理项目小组着眼于国际共同规则,2018年7月,在世界和平论坛上提出“人工智能六点原则”,包括福祉原则、安全原则、共享原则、和平原则、法治原则、合作原则。这六项原则为人工智能国际治理的讨论和共识构建提供了一种可能。在2018年底的世界互联网大会和2019年的世界和平论坛上,国际上不少学者和企业家对此表达兴趣和重视,有机构希望进一步合作研讨。