我国现有反就业性别歧视法的不足
针对就业中的性别歧视,“不打探”、“不考虑”和“不卸责”三项规则层层设防,手段不可谓不多样,力度不可谓不强大。然而,一旦将现有的法律置入算法歧视最可能发生的场景,就会发现三项规则均有失灵的可能,针对性别歧视的防御体系存在被洞穿的风险。归根结底,这种风险源于当代算法强大的自主获取信息能力。
第一,算法可以从已知数据中准确推测求职者的婚育状况,导致“不打探”规则失效。前文述及,在数据规模达到大数据量级、且算力足够强大的前提下,这种推测并非难事,且很少“失算”。值得一提的是,还有两个因素提高了算法做推测的准确性。一是,在大众文化的规训下,人们在结婚和生育过程中的诸多行为逐渐趋同,呈现出模式化的特征。[14]比如,婚姻登记前后要拍摄婚纱照,备孕时要服用叶酸,婴儿要参加早教培训等。算法一旦从大数据中解算出这些行为模式,就不难“按图索骥”,将符合模式的求职者推定为婚育之人。二是,求职者的网络账户之中包含着大量线索,分析这些线索是推测求职者婚育状况的捷径;而用人单位可以账户信息与履行劳动合同直接相关为由,要求求职者告知[15],这有利于算法聚焦关键数据、提高推测效率。例如,只要获知了求职者在某购物平台的账户昵称,就可以检索其在该平台所留下的购物评价,从而推测其购物是否出于婚育目的。(https://www.daowen.com)
第二,算法的自主性使得人类难以查明性别因素在算法决策中所扮演的角色,导致“不考虑”规则失效。“不考虑”规则对于算法的基本要求是:不能将性别设定为数据的特性,以之作为评价求职者的标准。这一要求的落实可分为三种情况:其一,在传统算法中,数据特性完全由程序员设定,且算法保持不变。这时很容易查明和监督特性的内容,“不考虑”规则不难实施。前述户户送公司的案件就属于这种情况。其二,在不运用深度学习的当代算法中,数据特性仍然由程序员设定,但是算法是自主生成的。此时虽然可以查明特性的内容,但是算法可以运用表面上与性别不相关的其他特性,获得与性别特性相当的筛选效果。这种做法很难被查明,前述亚马逊公司放弃开发算法的原因也在于此,“不考虑”规则难以完全落实。其三,在运用深度学习的当代算法中,数据特性是算法自主选择的,且算法处于不断迭代之中,程序员无法解读其内容,“不考虑”规则也就彻底失效了。
第三,算法的自主性使得以算法为基础的人工智能可以自行承担法律责任,导致“不卸责”规则失效。根据我国民法学和刑法学的研究,人工智能可否成为法律责任的主体主要取决于三个因素:一是人工智能是否具有自由意志。传统上认为,追究法律责任是对责任人自由意志的尊重,而基于深度学习算法的人工智能在很大程度上不受开发者控制,至少部分地具有自由意志。[16]二是人工智能承担责任是否符合政策考量。比如,有学者指出,平台出于避免法律责任的目的,会要求赋予人工智能产品以人格,使其独立承担法律责任。[17]三是人工智能是否具有承担责任的能力。尽管很难设想让人工智能承担名誉和金钱上的责任,但是其他责任形式并非全无现实可能。强形式的人工智能一旦获得某种自由意志,就会产生需求,例如对于算力(以及背后的电力)的需求;而禁止这种需求的满足就构成处罚,让人工智能接受处罚就是承担责任。[18]虽然基于深度学习的算法还很少应用到人工智能上,但是假以时日,用人单位完全可能打着尊重自由意志的幌子,把歧视的责任推给不受其控制的算法,从而逃脱法律责任的追究。