理论教育 算法规制的价值目标 - 算法社会中的法律沉思

算法规制的价值目标 - 算法社会中的法律沉思

时间:2023-08-03 理论教育 版权反馈
【摘要】:“负外部性”是一个价值相关概念,易言之,任何规制活动都必然是在一定法律价值目标的指引之下进行的。(一)价值目标的确定算法规制价值目标的确定,取决于规制者对算法的负外部性之认识及价值权衡之判断。这些都属于算法规制需要考虑的价值目标。这使得算法规制的价值目标体系与一般风险规制应当有所不同。由此,从整体上观之,算法规制的首要价值目标应当是安全,此处的“安全”本身是一种包含多种重要实质性价值目标的价

算法规制的价值目标 - 算法社会中的法律沉思

市场主体的活动会产生社会经济上的负外部性,规制的本质就是对负外部性的消除。“负外部性”是一个价值相关概念,易言之,任何规制活动都必然是在一定法律价值目标的指引之下进行的。自法理上观之,法的“目的价值”主要包括公平、正义、安全、自由、效率等,它们具有多元性,并且与人的需求和社会关系的多样性紧密相连。[5]由于算法应用的情境众多,涉及的法律价值目标也较为广泛,算法规制所面对的负外部性包含了相当丰富的内容。例如,在算法未受任何外部规制的前提下,自动驾驶汽车可能面临重大安全风险;区块链及其衍生应用可能冲击主权国家的金融安全、引发赌博或逃税等其他违反法律秩序的行为;[6]将匿名化数据重新整合进行分析可能识别出个人信息而侵犯公民隐私,[7]用户画像和杀熟方案可能影响交易公平、侵犯消费者的知情权;[8]等等。这些都引致了规制的需求。但是,对算法的规制又不能过于僵化或严厉,在消除其负外部性的同时摧毁算法本身发挥作用的基础。例如,假设对区块链强制使用同一种共识机制,将很可能使得区块链的众多类型及中小型区块链不复存在;假设强制用户画像和智能推荐的代码完全开源,则有可能对创新形成负面激励、导致企业撤离或者核心技术流失。因此,算法规制的价值目标具有复杂的内容和结构,也具有精微的尺度及边界,需要通过一定的方法进行梳理与整合,形成一个具有一定解释和证立能力的价值目标体系。

(一)价值目标的确定

算法规制价值目标的确定,取决于规制者对算法的负外部性之认识及价值权衡之判断。经济学上所谓“负外部性”,在法学的视野中体现为对各种法益的侵害。算法运用所可能产生负面影响的法益,既包括个人的人身权、财产权、政治自由和人格尊严,也包括难以通过还原主义方式分解的国家安全、社会管理秩序及公序良俗,等等。这些都属于算法规制需要考虑的价值目标。与此同时,算法的运用也会惠及一定范围内的法益。在特定的技术条件下,每一种负外部性的出现往往都会伴随着正面的应用价值,而且算法所促进的法益与所损害的法益可能在类型上即互不相同。此时算法规制的具体价值目标可以通过三种方法来确定:一是通过价值位阶或价值秩序的方法,使某一种价值占据优势位置,如未能为此种价值提供充分保障,则不允许通过损害此种价值而实现其他价值;二是通过价值转换与价值平衡的方法,使不同的价值可以相互比较,选择使整体价值最大化的制度安排;三是通过多目标规划等手段,先设置一定的优化标准(例如帕累托最优),再寻求在各方主体的价值判断体系之间能达成的最优机制设计。

这三种方法都有一定的适用条件和范围,也各有优劣,具体的抉择应由立法机关进行决断,再由行政机关与司法机关在立法决断的范围内、通过法定的程序进行解释。在立法意图不尽明确时,无论依大陆法系还是依英美法系的学理,行政机关均有一定的判断、裁量或解释法律的余地。无论行政机关采取何种理解,行政机关根据此种余地作出的价值目标设定或解释均应接受司法审查,在价值目标问题上使行政行为满足目的正当性原则的要求。

(二)价值目标体系的形成(www.daowen.com)

算法规制不仅需要确定价值目标,而且需要形成内在一致的、融贯的价值目标体系。算法的各种应用在社会经济系统中具有一定程度上的关联性,分散而独立地确定某一算法规制的价值目标,有可能形成规制目标之间的混乱与冲突,进而对信息科技与信息经济的整体生态造成不利影响。例如,人工智能中许多监督学习(supervised learning)的项目与大数据的利用有密切的关系,如果过于高估数据权利的价值,在数据采集与利用方面采取了较为严厉的限制,便很有可能波及人工智能的发展。程序模块的发展与突破高度依赖于Github一类的开源协作社区,如果由于某些程序模块的风险而否定开源协作社区的正面价值,无疑是因噎废食。因此,价值目标及实现目标的规制工具之间的协调和整合殊为必要。

由于不同应用情境下算法运用所涉及的法益丰富多样,而且算法的运用还在飞速变化发展,尝试明确界定并刻画这一价值目标体系尚不可行。不过,算法规制并不需要从零开始建构价值目标体系,它的价值目标体系可以在数十年来不断完善的风险规制基础上形成,需要加以强调和变革的仅仅是算法规制有别于一般风险规制的特征。易言之,行政法中的风险规制理论与实践已经为确认受保护的法益目标、评估风险(负外部性影响的程度以及实现的概率)、选择规制工具及平衡成本收益等储备了系列方案,算法规制的价值目标设定与制度建构完全可以借鉴这些方案进行。算法应用风险的主要特殊之处有三:一是范围宽广、形态繁多,风险的危害后果、隐蔽性、传播速度和控制难度等依应用情境和技术路线的不同而千差万别。二是评估难,大型软件工程或程序项目的测试与评估较之一般的风险评估(如毒理学分析、FEMA分析等)更难,无人驾驶等复杂程序的风险评估更需要长期积累经验和实验数据。三是影响深远,算法层面的风险往往伴随着算法运用的巨大收益,也有可能影响到一种算法的未来发展,一些过去未充分显现价值的算法在日后可能有巨大的发展潜力(例如人工智能发展史上的类神经网络方法)。不仅如此,某些算法的风险一旦出现,将可能在全世界范围内造成巨大的负面影响。例如SHA-2乃至SHA-3加密算法若被破解,全球区块链生态将受到根本性的冲击。这使得算法规制的价值目标体系与一般风险规制应当有所不同。

首先,算法风险范围宽广、形态繁多,这要求算法规制的价值目标体系能够包容众多的法益。其次,算法风险评估难,而且对算法的评估和规制影响深远,就不应轻易对某一种算法的价值或作用下结论,而是在能够清晰评价部分具体程序设计的基础上,采取更加谨慎和更富弹性的价值目标结构。再者,只有极少数算法可能引起无可挽回的巨大风险或者产生严重的伦理问题,信息社会中大多数算法所引起的风险并不会产生不可逆转的重大危害。相反,算法自身的发展却非常迅速,算法应用给社会带来的增益亦不可估量,这要求算法规制在保证控制重大风险底线的基础上,更多地给算法及其应用以自由发展之空间。

由此,从整体上观之,算法规制的首要价值目标应当是安全,此处的“安全”本身是一种包含多种重要实质性价值目标的价值形式,算法安全就是要避免算法应用在国家安全、司法公正、个人的生命权、身体权、人格尊严等重要法律价值上出现无可挽回的巨大法益损失,或者冲击人类文明的伦理底线。在保证安全价值的基础上,不同的价值目标之间应当更加侧重于自由,此种自由既包括公民的言论和表达自由,[9]也包括企业和个人依法进行科学研究和经济活动的自由。由于信息科技(尤其是人工智能)在国家战略、社会经济发展和人类自身发展问题上的特殊重要性,算法应用的相关经济活动也应获得自由价值之支持,如涉及权利或法益之冲突,可以采取诸如阿列克西之重力公式(die Ge wichts formel)[10]或规制的成本收益分析(cost-benefit analysis)[11]一类的权衡机制加以解决。其余价值目标(如效率、公平、秩序)及法益(如原创性、商业秘密、劳动权)等,应当在法律明文规定的范围内严格依法进行保护,避免法律价值在单纯的法律原则层次过度延伸和解释,进而影响到具有战略意义的信息科学技术及其应用的研究与发展。算法的发展日新月异,算法之规制影响深远,必须通观全局,以安全和自由的价值统摄算法规制的价值目标,以发展的眼光推进规制的进程,避免算法规制的制度框架建构与机制设计吹毛数睫、刻舟求剑,甚至产生寒蝉效应(chilling effects),阻碍算法创新和科技进步。[12]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈