关于人工智能治理面临的挑战
进入21世纪的第二个十年,人工智能技术的应用进入快速发展的阶段,随着以AlphaGo为代表的深度学习算法的成熟,人工智能技术出现大面积应用的趋势。我参观过深圳和上海的一些企业,可以明显感受到我国人工智能产业所呈现出来的蓬勃发展态势。可以期待,未来人类的生产和生活方式将发生更大的变化,生活将变得更加舒适和便利。
2019年7月,清华大学战略与安全研究中心在世界和平论坛期间举办了三场涉及人工智能技术和治理的论坛,邀请70多位国内外专家学者和企业家围绕人工智能的风险和治理进行研讨。大家比较一致的看法是,人工智能技术是一把“双刃剑”,一方面带来科技革命和产业升级的重要机会,另一方面,也带来新的安全风险,在治理上,人类将面临与以往完全不同的难题。
例如,在立法上需要有新的思维。传统的法律是要以社会基本共识为基础的,因此往往要滞后于社会实践。但是在人工智能技术上,我们恐怕没有这样奢侈的时间条件,因为这项技术的应用影响之快、之大,远不同于传统技术,治理的需求与技术的应用几乎同步出现。(https://www.daowen.com)
再比如,传统立法者关注的是人与人之间的关系。而人工智能作为“非人行为体”,未来会越来越广泛地参与人类活动,那么,在人机共存,甚至人机冲突的情况下,如何面对和处置人类与机器的矛盾呢?“机器代替人”做决策的情况已经不是想象中的事,波音737 MAX的空难就是一个重要的警示。[4]
人工智能的到来对就业模式的冲击也是前所未有的。清华大学战略与安全研究中心人工智能项目组的于洋老师牵头做的《中国青年视角下的人工智能技术(AI)风险和治理》调查项目中,超过50%的青年人的头等关切是失业风险。如同以往的技术革命,人工智能将取代大量程式化的工作岗位,同时也会创造出新型岗位和就业机会。挑战在于,如何才能让人才结构的调整跑赢技术的更新迭代和产业结构的跃升。
不能忽视的还有伦理规范方面的新问题。例如,国际上讨论比较多的人群歧视和对个人隐私的尊重与保护等问题。有外国人对我说,中国人不需要隐私保护,我认为这是偏见。我国立法高度重视对个人权利的维护,2018年8月,十三届全国人大常委会第五次会议审议的民法典人格权编草案稿,对收集、处理自然人个人信息有明确规定,要求必须“征得该自然人或者其监护人同意”等,而且把个人生物识别信息也纳入了保护的范围。[5]另一项重要进展是国家互联网信息办公室发布的《儿童个人信息网络保护规定》,自2019年10月1日起生效。[6]