人工智能国际治理机制的关键要素
国际治理机制不仅意味着共识和规则,也应包括构建能够确保规则落地的组织机构和行动能力,需要有相应的社会政治和文化环境。清华大学战略与安全研究中心正在与一些国家的学者专家、前政要和企业家一道,对这些问题进行探讨。从现实来看,人工智能国际治理的有效机制至少应包括如下五个关键要素。
一是动态的更新能力。人工智能技术的研发和应用进入快速发展的阶段,但是人们对未来的很多应用场景乃至安全挑战还缺乏了解和明确的认识。因而,构建治理方式时,须充分考虑到技术及其应用还处于变化的过程中,需要建立一种动态开放的、具备自我更新能力的治理机制。
例如,在确定人工智能“恶意应用”的具体界定和表述时,应该是在生产和生活实践中可观测、可区分的,在技术上可度量、可标定的。更重要的是,应当持续更新。只有具备动态更新能力的治理机制,才能在人工智能技术保持快速发展的情况下发挥作用。
这就意味着,在推进治理的同时,要承认和主动适应人工智能技术的不确定性特征,做好不断调整的准备。爱因斯坦曾说,“我们不能用制造问题时的思维来解决问题”。颠覆性创新技术与固有思维之间的冲突与激荡,必将伴随人工智能技术发展的过程。此种情景下的治理机制在面对各种思潮和意见的交织与反复时,也应该具备足够的包容之心和适应能力。如此,国际治理机制才能帮助人类携手应对人工智能层出不穷的新挑战。从这个意义上讲,建立一个能够适应技术不断发展的动态治理机制,也许比直接给出治理的法则更有意义。
二是技术的源头治理。人工智能的应用本质是技术应用,对其治理须紧紧抓住其技术本质,特别是在安全治理上,从源头抓起更容易取得效果。例如,当前大放异彩的深度学习技术,其关键要素是数据、算法和计算力。针对这些要素的治理可以从数据控流、算法审计、计算力管控等方面寻找切入点。随着人工智能技术的飞速发展,今后可能会出现迥然不同的智能技术,例如小样本学习、无监督学习、生成式对抗网络乃至脑机技术等。不同的技术机理意味着,需要不断从技术源头寻找最新、最关键的治理节点和工具,并将其纳入治理机制之中,以实现治理的可持续性。另外,技术治理还有一个重要内容,就是在技术底层赋予人工智能“善用”的基因。例如,在人工智能武器化的问题上,似可采用阿西莫夫制定“机器人三原则”的思维,从技术底层约束人工智能的行为,将武装冲突法则和国际人道主义法则中的“区分性”原则纳入代码,禁止任何对民用设施的攻击。诚然,实现这一点对国际治理来说是一个艰巨的挑战。曾在美国国防部长办公室工作、深度参与自主系统政策制定的保罗·沙瑞尔认为:“对于今天的机器而言,要达到这些标准(区分性、相称性和避免无谓痛苦)是很难的。能否实现要取决于追求的目标、周围的环境以及未来的技术预测。”
三是多角度的细节刻画。人工智能的国际治理须构建一种多元参与的治理生态,将所有利益相关方纳入其中。科学家和学者专家是推动技术发展的主力,政治家是国家决策的主体,民众的消费需求是推动技术应用的激励因素。这些群体之间的充分沟通是人工智能治理取得成功的基础。企业是技术转化应用的平台,社会组织是行业自律的推动者,政府和军队是人工智能安全治理的操作者,这些主体之间的充分协调则是人工智能治理机制有效发挥作用的关键。
在这个过程中,不同的群体应该以自身视角对人工智能的治理细则进行深入刻画。例如,2019年8月,美国前国务卿亨利·基辛格、谷歌前CEO埃里克·施密特、麻省理工学院史蒂芬·施瓦茨曼计算学院院长丹尼尔·胡滕洛赫尔三人联合撰文提出,从人工智能冲击哲学认知的角度看,可能应该禁止智能助理回答哲学类问题,在有重大影响的模式识别(Pattern Recognition)活动中,须强制要求人类的参与,由人类对人工智能进行“审计”,并在其违反人类价值观时进行纠正,等等。
如果能将来自不同群体的治理主张细则集聚在一起,将形成反映人类多元文化的智慧结晶,对人类共同应对人工智能挑战发挥引领作用。面对未知,哲学家的担忧与普罗大众的恐惧一样重要,只有尽可能细致地刻画人工智能治理的各种细节,才能增强人类对未来的把控,让迷茫和恐惧转变为好奇与希望。
四是有效的归因机制。在人工智能的国际治理中,归因和归责发挥着“托底”的作用。如果不能解决“谁负责”的问题,那么所有的治理努力最终都将毫无意义。当前人工智能治理的归因困难主要源自以下一些问题:从人机关系的角度看,是否人类担负的责任越大,对恶意使用人工智能的威慑作用就越大,有效治理的可能性也就越大?从社会关系的角度看,程序“自我进化”导致的后果该由谁负责?是“谁制造谁负责”,“谁拥有谁负责”,还是“谁使用谁负责”?
世界上没有不出故障的机器,如同世界上没有完美的人,人工智能发生故障、造成财产损失乃至人员伤亡是迟早会出现的。我们是否需要赋予机器以“人格”,让机器承担责任?如果让机器承担最后的责任,是否意味着人类在一定范围内将终审权拱手让给了机器?目前我们对这些问题还没有答案,需要在实践中探索和印证归因的恰当路径。
五是场景的合理划分。现阶段对人工智能的技术应用实施治理需要针对不同场景逐一细分处理。2019年7月,在世界和平论坛上,很多学者主张从当前的应用中选择几个具体场景入手,由点及面地实验治理,由易到难地积累经验。场景至少应该从物理场景、社会场景和数据场景三个维度加以区分。考虑到人工智能技术对数据的高度依赖性,有效的场景划分有利于关注数据的影响。
划分场景也可以帮助我们更好地理解人工智能在什么情况下能做什么,一方面可以避免对人工智能不求甚解的恐惧,另一方面也可以消除一些夸大其词的判断。美国国防部前副部长罗伯特·沃克一直是人工智能武器化的积极倡导者,但是,具体到核武器指挥控制的场景上,他也不得不承认,人工智能不应扩展到核武器,以免引发灾难性后果。
对血肉之躯的人类而言,任何一项新技术的出现和扩展都是“双刃剑”,几乎每一次重大的技术突破和创新都会给人们带来不适与阵痛。但是,人类今日科学之昌明,生活之富足,足以让我们有信心、有智慧对新技术善加利用、科学治理,妥善应对风险和挑战。本着构建人类命运共同体的思维,国际社会应该努力构建共识,一同探索良性治理,使得人工智能技术更好地完善文明,创建更加繁荣和更加安全的世界。
【注释】
(https://www.daowen.com)
[1]本文以《人工智能对国际关系的影响初析》为题首发于《国际政治科学》杂志2019年第1期,观察者网2019年4月12日以《人工智能变动国际格局,中国倡导什么规则》为题转发此文。
[2]国家科技评估中心、科睿唯安:《中国国际科研合作现状报告》,中国科学院半导体研究所图书馆,2018年1月19日。http://lab.semi.ac.cn/library/upload/files/2018/1/1916291650.pdf.
[3]2019年8月29日,傅莹应邀在上海出席2019世界人工智能大会,发表题为“人工智能治理与国际合作”的演讲。本文系根据演讲内容整理而成。
[4]谭晶晶:《美交通部报告:波音向美联邦航空局隐瞒737 MAX飞机设计变化重要信息》,载新华网,2020年7月2日。波音737 MAX系列飞机2018年10月和2019年3月发生两起空难事故,使该飞机获美联邦航空局安全认证的程序备受质疑。波音公司首席执行官丹尼斯·米伦伯格2019年10月在美国国会参议院听证会上承认,两起空难均与“机动特性增强系统”(MCAS)自动防失速软件被错误激活有关。
[5]姜佩杉:《注意!人格权、隐私权、个人信息有了新内涵》,2019年8月24日《人民法院报》第04版。
[6]国家网信办:《儿童个人信息网络保护规定》,载中国网信网,3019年8月23日。
[7]习近平:《习近平致信祝贺2018世界人工智能大会开幕》,载中国政府网,2018年9月17日。
[8]2019年11月21日,傅莹应邀在北京出席创新经济论坛,在“理解人工智能对人类的挑战”分组会议上发表题为“中美有责任共创智能新时代”的讲话,本文系根据讲话内容整理而成,以原标题发表于2019年12月10日《参考消息》第11版。
[9]国务院:《国务院关于印发新一代人工智能发展规划的通知》,载中国政府网,2017年7月29日。
[10]Paul Scharre,Anthony Cho,Gregory C.Allen and Eric Schmidt,“Eric Schmidt Keynote Address at the Center fora New American Security Artificial Intelligence and Global Security Summit”,CNAS,November 13,2017.
[11]本文以《人工智能的治理和国际机制的关键要素》为题发表于《人民论坛》杂志2020年第4期。
[12]新华社:《习近平主持中共中央政治局第九次集体学习并讲话》,载中国政府网,2018年10月31日。
[13]国务院:《国务院关于印发新一代人工智能发展规划的通知》,载中国政府网,2017年7月29日。