治本之道及其落实

(二)治本之道及其落实

面对算法歧视的挑战,矫正反就业性别歧视法三大规则失灵的措施,均存在明显的局限,至多“治标”而难以“治本”。那么,治本之道何在?本章认为,应当挖掘算法歧视的成因,在国家、用人单位、女性劳动者及其伴侣之间公平分配生育成本,方能从根本上缓解算法歧视对于职场性别平等所造成的冲击。

首先,女性就业中为什么会发生算法歧视?就业歧视的发生主要有两种原因:一种歧视纯粹源于偏见,用人单位瞧不起女性,高估女性劳动者的费效比。这些单位放着费效比低的女性不用,却聘用费效比高的男性,其决策不符合经济理性,人力资源成本高于竞争对手,长此以往必然被市场淘汰。歧视经济学的主要创始人加里·贝克尔(Gary Becker)就持这种看法。[26]虽然市场也会发生失灵现象,但是市场在总体上仍然是打击歧视的可靠力量。[27]对于出自偏见的歧视,国家出手规制的必要性不大,主要还是依靠市场自身来淘汰歧视者。而另一种歧视则符合经济理性,用人单位担心招聘女性会给其带来生育成本,导致其在竞争中落后于没有负担的对手,所以不愿意招聘有生育可能的女性求职者。算法为了寻找费效比最低的劳动者,必须尽量准确地预测女性求职者生育的可能性,突破“不打探”规则也就无可避免。由于生育状况会显著影响到女性给用人单位所带来的费用和效用,所以算法必须将生育状况纳入考量,突破“不考虑”规则也就顺理成章。我国反就业性别歧视法所建立的屏障,主要就是被这种符合经济理性的算法歧视所逐层洞穿的。

其次,如何评价这种符合经济理性的算法歧视?一方面,经济理性并非用人单位正当化其一切行为的口实。无论何种性质的用人单位均应在经济效益之外履行社会责任,这甚至已经成为法律的要求。[28]从社会责任的角度出发,要求用人单位承担一部分生育成本,不仅完全正当,而且是我国劳动法上长期坚持的做法。[29]在劳动法上,“劳动”是“劳动力”和“劳动者”的统一体,用人单位不能单纯注重“劳动力”的侧面而寻求最优交易安排,而是也要承认“劳动者”的侧面并保护劳动者的利益。另一方面,生育成本应当本着“谁受益,谁负担”的原则,在国家、用人单位、女性劳动者及其伴侣之间公平分配。[30]就国家而言,面对老龄化的严重冲击,适度放开甚至鼓励生育乃是保障劳动力供给、维持消费规模、确保社会保险基金不至枯竭的唯一途径。实现上述目标的需求越迫切,国家从生育中的受益就越多,应当负担的生育成本就更多。就用人单位而言,女职工的生育很难为其带来收益,其所分担的生育成本就应当控制在合理限度。就女性劳动者而言,生育可以带来获得子女赡养等收益,但是大部分生育成本均由其承担,存在收益与成本不匹配的现象。就女性劳动者的伴侣而言,其从生育中获得的子女赡养等收益与女性相当,而分担的成本则显著少于女性。总体来看,国家和女性劳动者的伴侣应当更多分担生育成本,用人单位的成本份额可以大致不变,而女性劳动者自担的成本应当减轻。在生育成本获得公平分担的前提下,性别歧视将会丧失经济合理性,而算法作为劳动力的一种精准定价机制,实施歧视的概率也就大为降低。

为了实现生育成本的公平分担,需要着重采取两方面的措施。一方面要加强生育中的国家责任。国家应当推进育儿的社会化,兴办或鼓励发展托幼事业,减轻育儿对于女性工作的不利影响。国家也应当提供更为精准有效的就业服务,满足用人单位由于女性休产假而产生的顶岗需求,控制乃至降低聘用女性给用人单位带来的成本。国家还应当完善远程工作和灵活工时的相关制度[31],方便女性兼顾工作和家庭角色。另一方面要加重生育中女性劳动者伴侣的责任,改变“男主外、女主内”的性别刻板印象。一些地方试行男性产假,应当注重让男性在休假时切实投入到育儿事务中去,防止男性产假流于形式。今后还可以考虑采取措施,让伴侣为生育的女性提供更可靠的经济保障,这对于未婚生育的女性尤为重要。

* * *

本章可以看作对于女性就业中的算法歧视的诊疗报告。本章展望了算法歧视在我国职场发生的前景。核心问题是:这场疾病对于现有的法律医疗体系将会构成多大冲击?一方面,不应当将具有强大自主获取信息能力的当代算法等同于传统算法,寄望现有的反就业性别歧视法尚需时日。另一方面,也无须夸大算法歧视造成法律医疗资源“穿底”的风险,而是要深究其不合理机理,针对生育成本分担不公的现象来对症施治。在国家调整生育政策、放开“三胎”的背景下,不合理机理与算法歧视之间的因果联系越发凸显,消除不合理机理的时机也逐渐成熟。算法歧视的场景是全新的,而法律的治本之道却似曾相识,此中的反差充满辩证法的意味,足可供研究者深思。

【注释】

[1]参见罗智敏:《算法歧视的司法审查——意大利户户送有限责任公司算法歧视案评析》,载《交大法学》2021年第2期。

[2]The Editors of Encyclopaedia Britannica,Algorithm,https://www.britannica.com/science/algorithm.

[3]粗糙的推测仍然可行,但是准确率过低,通常不足以用作招聘决策的依据。

[4]罗智敏:《算法歧视的司法审查——意大利户户送有限责任公司算法歧视案评析》,载《交大法学》2021年第2期。

[5]丁晓东:《算法与歧视——从美国教育平权案看算法伦理与法律解释》,载《中外法学》2017年第6期。

[6]关于机器学习赋予算法自主性,参见Ignacio N.Cofone,Algorithmic Discrimination Isan Information Problem,70 Hast.L J.1389,2019;Matthew U.Scherer,Allan G.King&Marco N.Mrkonich,Applying Old Rules to New Tools:Employment Discrimination Law in the Age of Algorithms,71 S.Cal.L.Rev.449,2019。

[7]Edd Wilder-James,What Is Big Data?An Introduction to the Big Data Landscape,https://www.oreilly.com/radar/what-is-big-data/.

[8]关于算法歧视和偏见,参见郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例》,载《比较法研究》2019年第4期;梁志文:《论算法排他权:破除算法偏见的路径选择》,载《政治与法律》2020年第8期;徐琳:《人工智能推算技术中的平等权问题之探讨》,载《法学评论》2019年第3期;刘友华:《算法偏见及其规制路径研究》,载《法学杂志》2019年第6期;伊卫风:《算法自动决策中的人为歧视及规制》,载《南大法学》2021年第3期。

[9]亚马逊公司案例的情况参见Marc Cheong et al.(CIS&The Policy Lab,The University of Melbourne),Ethical Implications of AIBiasas a Result ofWorkforce Gender Imbalance(Final Report for UniBank),available at https://www.tmbank.com.au/-/media/unibank/about-us/member-news/report-ai-bias-as-a-result-of-workforce-gender-imbalance.ashx。类似案例见于英国圣乔治学院自行开发的简历筛选算法,见[美]凯西·奥尼尔著:《算法霸权:数学杀伤性武器的威胁》,马青玲译,中信出版集团2018年版。

[10]The Electronic Privacy Information Center(EPIC),In the Matter of HireVue,Inc.,Complaint and Request for Investigation,Injunction,and Other Relief,submitted to the Federal Trade Commission(November 6,2019),available athttps://epic.org/privacy/ftc/hirevue/EPIC_FTC_HireVue_Complaint.pdf.

[11]The Electronic Privacy Information Center(EPIC),HireVue,Facing FTCComplaint from EPIC,HaltsUseof Facial Recognition,https://epic.org/2021/01/hirevue-facing-ftc-complaint-f.htm l.

[12]据普华永道统计,早在2017年就有40%的国际企业在招聘中运用了算法。例如,欧莱雅公司每年要新聘大约1.5万名员工,而每个岗位平均对应134名求职者。自从引进耘智信息科技公司(Seedlink Technology)开发的算法以后,招聘速度提高了10倍之多。PwC People&Organization,Artificial Intelligence in HR:a No-brainer,https://www.pwc.at/de/publikationen/verschiedenes/artificial-intelligence-in-hr-a-no-brainer.pdf.(https://www.daowen.com)

[13]例如,林丽丽诉广州麦谷网络科技有限公司劳动争议案,广东省广州市中级人民法院判决书(2018)粤01民终12990号;王丹诉上海朗阁培训中心劳动争议案,上海市黄浦区人民法院判决书(2014)黄浦民一(民)初字第4034号;牛元元:《法律辩弈:职场隐婚VS就业歧视——北京朝阳法院判决志荣维拓公司诉徐娜娜劳动争议案》,载《人民法院报》2014年5月1日,第6版。

[14]例如,研究表明,巴西的一些电视剧以反映小家庭生活为主,观看了这些电视剧的妇女的生育水平较之其他妇女明显偏低。Eliana La Ferrara,Alberto Chong&Suzanne Duryea,Soap Operas and Fertility:Evidence from Brazil,American Economic Journal:Applied Economics 2012,4(4).

[15]我国目前的司法实践并未禁止用人单位的这种做法。参见王健:《社交媒体中劳动者隐私权的法律保护——基于欧盟与我国司法实践的比较研究》,载《华中科技大学学报(哲学社会科学版)》2019年第4期。

[16]参见袁洋:《人工智能的民事法律主体地位及民事责任问题研究》,载《中州学刊》2019年第8期。

[17]参见胡凌:《平台视角中的人工智能法律责任》,载《交大法学》2019年第3期。

[18]参见江溯:《人工智能作为刑事责任主体:基于刑法哲学的证立》,载《法制与社会发展》2021年第3期。

[19]参见谢增毅:《劳动者个人信息保护的法律价值、基本原则及立法路径》,载《比较法研究》2021年第3期。

[20]参见谢增毅:《劳动者社交媒体言论自由及其限制》,载《法学研究》2020年第4期。

[21]关于间接歧视制度,参见郭延军:《美国就业领域间接性别歧视的法律控制》,载《政治与法律》2013年第4期。

[22]即使拒绝录用女性求职者确有正当理由,也无法排除性别因素在决策中仍然扮演了一定角色的可能,此时成立所谓“混合动机”(mixed-motive)歧视。参见George Rutherglen,Employment Discrimination Law:Visions of Equality in Theory and Doctrine(3rd ed.),Foundation Press,2010.

[23]关于给弱势群体预留名额构成反向歧视的典型案件,参见Ricci v.DeStefano,557 U.S.557(2009)。

[24]参见沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,载《环球法律评论》2019年第6期。

[25]参见James Zou&Londa Schiebinger,AIcan be sexistand racist— it's time tomake it fair,559 Nature 324(2018)。

[26]参见[美]加里·贝克尔:《歧视经济学》,于占杰译,商务印书馆2014年版。

[27]关于市场在消除歧视时的失灵及其应对,参见阎天编译:《反就业歧视法国际前沿读本》,北京大学出版社2009年版。

[28]例如,《公司法》第5条第1款规定:“公司从事经营活动,必须……承担社会责任。”

[29]例如,《女职工劳动保护特别规定》要求,用人单位在女职工孕期应当减轻其劳动量,不得延长劳动时间或安排夜间劳动;对于哺乳期内的女职工,不但不得延长劳动时间或安排夜间劳动,还要安排哺乳时间;女职工怀孕、生育的,用人单位不得采取降低工资或单方面解除劳动合同的措施等。

[30]类似的政策研究和建议,参见李静雅:《已育一孩职业女性的二孩生育意愿研究——基于生育效用感和再生育成本的实证分析》,载《妇女研究论丛》2017年第3期;宋健、周宇香:《全面两孩政策执行中生育成本的分担——基于国家、家庭和用人单位三方视角》,载《中国人民大学学报》2016年第6期。

[31]关于远程工作的劳动法制度保障,参见田思路:《远程劳动的制度发展及法律适用》,载《法学》2020年第5期。