治标之策及其局限

(一)治标之策及其局限

面对算法歧视对于女性公平就业的挑战,学界前瞻性地提出了一系列对策,部分对策已经获得了政府的初步采纳。然而,这些对策或者效果有限,或者会抑制企业对于算法的开发和应用,造成产业政策上的消极后果,因而均非治本之道,充其量可做治标之策而已。

第一,为了弥补“不打探”规则的不足,可以阻止算法获取某些便于推测女性婚育状况的数据。例如,可以将网络账户信息设置为求职者的隐私[19],或者出于保护求职者言论自由的目的[20],禁止用人单位询问或者网络平台向用人单位泄露这一信息。又如,根据《个人信息保护法》,求职者的婚育信息“一旦泄露或者非法使用,容易导致自然人的人格尊严受到侵害”,所以构成“敏感个人信息”;作为个人信息处理者的用人单位在处理这类信息时,必须“具有特定的目的和充分的必要性”,“取得个人的单独同意”,“向个人告知处理敏感个人信息的必要性以及对个人权益的影响”并且“取得相关行政许可”(第29条至第32条)。

这些措施都会降低算法推测求职者婚育状况的准确性,导致“失算”增多,迫使用人单位放弃使用算法,从而杜绝算法歧视。“失算”意味着用人单位错估求职者给其带来的生育成本,据此做出的招聘决策在经济上是不理性的:如果求职者没有生育计划,却被误判为即将生育,那么单位会将一个“负担较轻”的员工拒之门外;反之,如果求职者确有生育计划,却被误判为不会生育,那么单位会招录一个“负担较重”的员工。如果“失算”所导致的额外的生育成本超出了使用算法所带来的、决策效率方面的收益,算法就可能遭到用人单位的抛弃,歧视也就无从发生了。然而,虽然“失算”会带来额外的成本,但是由于算法的算力强于人脑,在已知数据不变的前提下,算法“失算”的概率仍然比人工推测更小。两害相权取其轻,用人单位将会继续使用算法,歧视也就会继续发生。

第二,为了弥补“不考虑”规则的不足,可以采取倒置举证责任、强制算法透明、过滤训练数据等措施。“不考虑”规则是学界构想的打击算法歧视的主战场,学者建议的措施也尤其多。其一,在反歧视诉讼或类似的争议解决程序中,可以倒置举证责任(说服责任),要求用人单位证明其算法没有实施歧视,否则就要承担败诉风险。具体来说,只要求职者能够举证录用结果存在性别上的不平等,法律就推定这种不平等源自算法歧视,除非用人单位能够证明不平等另有正当原因。这种将结果不平等归责于用人单位的制度,就是美国法上的差别影响(disparate impact)歧视和欧洲一些国家法律上的间接歧视(indirect discrimination)制度。[21]该制度相当于给用人单位设定了额外的注意义务,禁止其任意拒绝录用女性求职者,而是必须有正当的理由,这在效果上与“不考虑”(非正当理由)规则大致相当。[22]问题在于,运用深度学习技术的算法具有高度自主性,很难被人类所理解,程序员在技术上无法确定算法在作出决策时究竟考虑了什么因素。如此以来,将举证责任归于用人单位,就几乎注定了用人单位败诉的命运。为了避免败诉,用人单位可能采取两种策略:一是反向歧视,给女性预留录用名额,而这对于能力更优的男性求职者并不公平;[23]二是放弃使用算法,而这不符合推广算法、提高决策效率的产业政策。可见,举证责任倒置制度的效果有显著的局限,是否引进该制度应当慎重考量。(https://www.daowen.com)

其二,可以要求用人单位实施算法透明政策,公开其在招聘过程中所使用的算法,并由第三方对该算法是否实施歧视加以审计。算法透明曾经是颇受研究者青睐的措施,毕竟,公开是监督的第一步。然而,算法透明存在三个方面的缺陷:一是由于算法不断自主学习和迭代,很难确定算法在做出招聘决策那一刻的状态,也就无法确定应予公开的内容;二是在运用深度学习技术的情况下,算法即使实现了透明也难以解读,更难以审计和评价;三是算法透明还可能造成个人隐私和商业秘密的泄露等负面后果。[24]这些缺陷削弱了算法透明措施的实效,使之无法有效矫正“不考虑”规则的失灵。

其三,可以要求用人单位检视用于训练算法的数据,发现并纠正训练数据集中可能存在的偏见,从而防止算法习得这些偏见。科学界还设想开发帮助用人单位检视算法的新算法,实现“用算法审计算法”。[25]这样做会面临两个难处:一是现有的数据可能普遍包含偏见,不易找到“纯净”的数据集来训练算法。例如在前述亚马逊公司的案例中,由于公司在招聘时长期重男轻女,而且这并不仅仅是一家公司的问题,而是全行业的现象,所以很难寻得不带有歧视烙印的数据,这也是亚马逊公司不得不放弃开发算法的部分原因。二是偏见的发现和纠正可能是一个浩大的工程。因为,算法具备机器学习的能力,会不断收集数据训练自己,直到更多的训练不再提高其预测的精确性,而这个学习过程可以相当漫长,用于学习的数据更是规模庞大,对其加以检视和纠正的成本将会很高。用人单位为了规避这一成本,很可能会倾向于放弃开发和使用算法,而这与产业政策背道而驰。

第三,为了弥补“不卸责”规则的不足,可以采用否认算法的责任能力、在算法与用人单位之间设定连带责任等办法,让用人单位承担算法歧视的法律责任。这样做看似简单,只须法律作出规定即可,却会严重挫伤用人单位开发和使用算法的积极性。在深度学习的场景下,用人单位根本无法控制甚至无法理解算法的内容,如果让其对算法的歧视行为负责,必然给用人单位带来经营风险,而且这种风险的暴发时间及后果大小都难以预测。出于避险的考虑,用人单位放弃算法就是自然的选择。