健全伦理和法律框架,理顺人机关系

健全伦理和法律框架,理顺人机关系

科学技术从来都是中性的,可以造福人类,也可以危害人类。在人类发展史上,科技进步不止一次带来了伦理和法律难题。只有建立完善的人工智能伦理和法律规范,处理好机器和人类的新关系,才能更好地获得人工智能红利,让技术造福人类。

第一个方面:机器不能不讲道德。

当下科学界主流观点是机器不能不讲道德,否则,这个世界将无法想象。麻省理工学院情感计算研究组主任罗萨琳德·皮卡德教授曾说过:“机器越自由,就越需要道德准则。”[53]玛格丽特·博登也在著作中提到了“道德社区”的概念,并且表达出人类应该接受强人工智能成为道德社区成员的倾向。[54]

人工智能是一把双刃剑,既可被用来服务于个人和社会利益,也可能被滥用。因此,欧盟正在积极建立适当的伦理框架,为发展和应用人工智能创造一个良好的道德环境,实现技术创新和人权保护的平衡。

一是建立人工智能伦理监管机构。2015年1月,考虑到人工智能发展可能带来的新问题,欧洲议会法律事务委员会(JURI)专门成立负责机器人和人工智能的工作机构,研究与机器人和人工智能相关的伦理及监管问题。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》。同年10月发布《欧盟机器人民事法律规则》,就技术、伦理、监管等事宜提出专业条文知识,以便更好地抓住人工智能发展的新机遇,应对新挑战。

英国民众表达了对于人工智能机器以何种方式进入、存储和使用保密的病人数据的关切,认为需要有效措施来保证人工智能系统使用的数据被合理地限制、管理和控制,以此来保护隐私权。为了应对这些问题,英国于2016年6月发布了《人工智能:未来决策制定的机遇与影响》的报告,全面分析了机器人技术和自动化系统带来的影响。英国正和阿兰·图灵研究所合作建立旨在研究数据科学的“数据伦理委员会”,以此来加强数据使用的审查。[55]

二是制定伦理守则。欧盟及成员国积极为人工智能研发和审查人员制定伦理守则,确保在整个研发和审查环节考虑人类价值,使研发的机器人符合人类利益。

英国先人一步。2016年4月,英国标准组织(BSI)发布《机器人和机器系统的伦理设计和应用指南》,迈出了“把伦理价值观嵌入机器人和人工智能领域”的第一步。这为识别潜在伦理危害、机器人设计和应用提供伦理导向,并完善了不同类型机器人的安全要求。《指南》还指出,对于机器人行为,应该找到背后负责人,应该由人类对事情负责,而不是机器人。《指南》还提到机器人歧视等社会问题的出现,提醒研发企业要增进机器人对文化多样性和多元化的尊重。[56]

2018年4月,欧盟委员会成立了由52位来自学界、商界与民间团体代表组成的人工智能高级专家组(High-Level Expert Group on Artificial Intelligence,AI HLEG),邀请所有利益相关方,共同探讨人工智能伦理原则的起草和制定。同年12月,高级专家组发布《可信赖人工智能伦理指南草案》。

2019年4月,欧盟委员会发布《人工智能伦理指南》,回应了人工智能相关影响、公平、安全、社会包容、算法透明等诸多问题,提出尊重人类自治、防止伤害、公平和责任的基本伦理原则,并进一步关注人工智能对基本权利(比如隐私、尊严、消费者保护、禁止歧视等)的影响。欧盟强调,将以这些基本权利为基础,寻求与欧洲基本价值观相一致的方式,合理利用人工智能,推进负责任、可信赖人工智能的发展。同时,欧盟委员会公布了“人工智能愿景”,坚定支持欧盟各国人工智能“符合伦理”式的成长。欧盟希望在人工智能进一步发展和全面融入社会以前,对其可能存在的风险未雨绸缪,使欧洲成为先进、符合伦理的人工智能的领导者。

三是重视隐私和数据保护。数据成为“流通物”,各种服务就可以对其进行交易,更频繁的数据流动也就成为可能,这给数据所有权带来更多需要明确的新问题,其中就包括隐私和数据保护的问题。个人隐私与数据保护也因此成为国际社会长期以来重点关注的内容。在这方面,欧洲又迈出第一步。1973年,瑞典颁布第一部个人数据保护法《瑞典数据法》。颁布以来,全球范围内掀起了个人信息保护立法的浪潮。

1995年,欧盟通过《关于个人数据处理保护与自由流动指令(95/46/EC)》(简称1995年个人数据保护指令),这是一部欧盟区域内个人信息保护的基础性立法。欧盟各成员国依据该指令,分别出台了本国的个人信息保护法。然而日新月异的信息技术使得该指令的主要原则及制度适用变得非常不确定,导致各成员国对个人数据保护指令的理解与执行出现了较大的分歧。

2012年1月,欧盟委员会发布了《有关“1995年个人数据保护指令”的立法建议》(简称《通用数据保护条例》),对1995年个人数据保护指令进行全面修订。2015年12月,欧洲议会、理事会、委员会三方机构在立法进程的最后阶段就欧盟数据保护改革达成一致。2016年4月,欧盟三大立法机构通过《通用数据保护条例》的最终版本。

在新通过的条例中,欧盟加强了个人隐私和数据保护,其中关于用户画像等自动化决策的规定,已经对基于大数据的互联网行业实践产生了重大影响。另外在通信和互联网领域,欧盟委员会于2017年1月起,开始制定更严格的电子通信隐私监管法案《隐私与电子通信条例》,完善了保护隐私、默认保护隐私、知情同意、加密等概念标准,进一步加强对电子通信数据的保护。[57]

第二个方面:机器人应有法律地位。

一是关注自主机器人的法律地位。是否应当由人类赋予机器人权利的问题,其实质在于是否承认机器人的主体地位。早在20世纪五六十年代,人工智能刚刚起步之时,就有哲学家提出:把机器人看作机器还是人造生命,主要取决于人们的决定而不是科学发现。

1976年,阿西莫夫科幻小说《机器管家》就讲述了一个自我意识觉醒的智能机器人安德鲁想要成为人类的故事。为此,他开设机器人公司,研发新的技术,使自己在生命体征上和普通人一样,甚至最后通过手术让自己的生命只剩下一年(因为机器在可预期的将来是永生的),最终获得人类的生命。

值得注意的是,这些电影情节已经进入到现实社会。2017年10月,机器人索菲亚被沙特阿拉伯王国授予了公民身份,成为有史以来首个获得公民身份的机器人。[58]这促使我们也不得不理性思考人工智能的“人权”问题:如果考虑赋予机器人以法律拟制人格,就要求其能够独立自主表达相应的意思,具备独立的权利和行为能力,可以对自己的行为承担相应的法律责任。

针对机器人的法律地位问题,早在2016年5月,欧洲议会法律事务委员会就曾掀起一项动议,要求欧盟委员会把飞速发展的自动化机器人赋予“电子人”法律地位[59],并给予这些机器人依法享有著作权、劳动权等“特定的权利与义务”。该动议还建议,为智能自动化机器人设立一个登记册,以便为这些机器人开设涵盖法律责任(包括依法缴税、享有现金交易权、领取养老金等)的资金账户。[60]2017年1月,欧洲议会法律事务委员会通过决议,要求欧盟委员会就机器人和人工智能提出立法提案。同年2月,欧洲议会通过了这项决议。[61]

此外,法国学者也开始思考应对机器人法律地位的解决方案。达尼埃尔·布西埃在《从人工智能到虚拟人:一个法人的突现?》一文中指出,“当人类制造的机器人能够在虚拟世界和现实世界不断学习时,它们便获得了自主性,那么人类将如何通过法律对虚拟世界加以控制?如果人造机器人就在我们身边,那么应该赋予它们何种合法权利?”正基于此,他从法理的角度提出了虚拟人的假设,将之看作是一个法律上的人造物,进而建议须根据虚拟人的特征来制定不同的法律,以便处理智能机器人和一般人类之间的纠纷与冲突。[62]由此可见,不管人类能否充当这个机器人“造物主”的角色,人类已经开始思考和行动。

然而,机器人立法过程绝非一帆风顺。在主体地位方面,机器人应当被界定为自然人、法人、动物还是物体?是否需要创造新的主体类型(电子人),以便高级机器人可以享有权利、承担义务,并对其造成的损害承担责任?这些都是欧盟未来在对机器人立法时需要重点考虑的问题。[63]

二是明确人工智能在知识产权方面的“独立智力创造”标准。要回答人工智能创作成果是否应该受法律保护这个问题,很多人不禁想到了我们人类认为的没有独立意识的动物。2011年,印度尼西亚的一群猴子拿着英国摄影师David Slate的相机拍了一些照片,包括一张自拍照,这张照片被收录到了维基资源共享图库。摄影师认为猴子在拍摄的过程中自己制造拍摄场景,并把相机放到了脚架上,可以认为是有选择的拍摄过程,这张照片的版权应该归属于猴子。但是从目前各国的法律规定来看,还没有一个国家认为动物可以成为版权所有者,主要原因在于动物目前还不具备独立的智力创造能力。人工智能也是如此。

2016年,欧盟法律事务委员会建议欧盟委员会就“与软硬件标准、代码有关的知识产权”提出一个更平衡的路径,在保护创新的同时,强化计算机或者机器人作品被纳入版权法保护范畴的可能性。该委员会由此提出人工智能“独立的智力创造”的界定标准,以便明确版权归属。[64]

2019年6月,欧盟版权法改革的主要成果《单一数字市场版权指令》生效。欧盟开始关注人工智能生成内容的版权保护,以激励和保护与人工智能相关的文学艺术作品创作。

英国在这方面也做了有益探索。对于计算机在没有人类作者参与情况下生成的作品,采取拟制作者的方式,将为创作作品付出必要投入的一方视为作者。其理由是“一些计算机程序能够在人类参与较少的情形下进行内容生成已成为现实。技术的迅猛发展对版权法能否长期适用构成挑战,版权法应具备一定的灵活性”。[65]

德国在人工智能创作邻接权保护方面也做了尝试。邻接权是作品传播者和作品之外劳动成果创造者对其劳动成果享有的专有权利的总称。邻接权产生原因是一些“有价值的非物质劳动成果因独创性不足而无法收到著作法的保护,但这些创造劳动成果的活动另一方面又促进了作品的传播,同时面临容易被未经许可而复制和传播的风险,需要法律进行保护”。因此,德国积极“实施‘欧盟数据库指令’,赋予无独创性的数据库权利人以邻接权,保护数据库编制者和投资者的权益”。[66]

三是评估安全和法律责任。鉴于人工智能系统复杂性以及自主决策的特点,人们需要重新审视既有的安全规则和责任规则。在这方面,欧盟委员会《人工智能白皮书》所附《关于人工智能、物联网和机器人技术安全和责任影响的报告》给出了答案:现行的产品安全法规已经支持了一个扩展的安全概念,即根据产品的用途来保护用户免受产品各种风险的影响。同时,引入新兴数字技术风险条款,提供更多的法律确定性。[67]

某些人工智能系统在其生命周期内的自主行为可能对安全造成一些影响,这可能需要新的风险评估。欧盟产品安全立法规定了在设计阶段规避错误数据风险的具体要求,建立了在使用人工智能产品和系统的整个过程中保持数据安全的机制。此外,欧洲在车联网安全标准方面也做出了努力。欧洲电信标准化协会组织开展相关车联网安全标准研究工作,关注重点聚焦于安全隐私和安全通信。[68]

人工智能、物联网和机器人等新兴技术可能会挑战法律责任框架的某些方面,并降低其有效性。因为新兴数字技术的一些特点可能使受害者难以将损害追溯到过失人身上。这大大增加了受害者成本,也意味着生产者以外的其他人的责任索赔可能难以得到证明。欧盟委员会正在尝试简化责任规则、降低证明法律责任的复杂程度,适应人工智能应用造成损害方面的索赔。[69]

鉴于某些人工智能应用可能对公民和社会带来高风险,为确保人工智能值得信任和安全,符合欧洲价值观和规则,欧盟认为在实践中须制定可适用的法律规则,并启动高风险人工智能应用的合规性评估机制。该机制已适用于欧盟内部的大量产品,并总结出一些注意要素,如应特别考虑某些人工智能系统演变和从经验中学习的可能性,要在有关人工智能系统的整个生命周期中反复进行评估;要验证用于训练的数据,以及用于构建、测试和验证人工智能系统的相关编程和培训的方法、流程和技术等。

符合规定的所有相关经营者,无论公司地点如何,都须进行符合性评估。为减轻中小企业在高风险人工智能合规性评估的负担,它们可获得数字创新中心的支持,也可使用标准和专用的在线工具帮助合规实践。[70]此外,对受到高风险人工智能应用负面影响的当事人,可得到有效的司法补救。而对于不符合高风险的人工智能应用,欧盟一方面调整立法适用范围,一方面设立自愿标签机制。那些不受强制性规定约束的经营者,可自愿决定是否要成为强制规定的约束对象。自愿接受规定约束的人工智能应用将获颁质量标签。这一系列措施都有助于增强用户对人工智能系统的信任,并促进人工智能的全面推广。[71]