多元参与是公开公正的路径之一

多元参与是公开公正的路径之一

比阅读政治新闻更贴近生计的,是银行贷款和福利分配。如今人工智能已经开始广泛应用于银行和政府对于个人信用和经济状况的评价,而究竟为什么有些人的申请被拒绝,有些人的被接受,往往连人工智能的使用者,甚至开发者,也不能给出完全令人信服的答案。这是因为许多人工智能设计,尤其是神经网络,其运作方式是不可追溯的。卡内基梅隆大学计算机科学和电子工程系的达塔教授(Anupam Datta)于2016年研制了一款量化输入影响系统(Quantitative Input Influence,QII),试图揭示各个因素在放贷与否的最终决定形成中,各自所占比重有多大,从而观察种族或者性别是否在其中起到了歧视性的作用。达塔指出,有一些公司已经发布了算法透明报告,不过这些报告对计算基础方式的披露有限,QII的目标就是形成真正的透明报告。QII方法不是单单考察哪一种变量具有最大的影响力,而是量化衡量一组输入所具有的合力。[12]例如,银行在决定放贷与否时,高收入女性和高收入男性获批的概率若是极为相近,那么就很难下定论说银行涉嫌性别歧视;可是如果当低收入男性比低收入女性更容易获得贷款时,那么这个揭露出的问题就比单纯的性别歧视要复杂,它还牵扯到低收入人群中的性别分工,这种分工和职业发展潜力的差别在高收入人群中就可能不那么显著。

公布算法和开源的压力不仅来自美国社会内部,也来自外部的竞争,例如中国的同行。2018年下半年,美国数个大型科技企业纷纷推出优化人工智能公平性质的工具,包括脸书的Fairness Flow、微软研究院的数据预处理和输出预估、谷歌的“人+人工智能研究”(PAIR)计划、IBM的AI OpenScale 工具和AI Fairness 360工具包等。这一系列行动的背景之一,便是来自中国的同行竞争。2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书》,有不少业内相关企业参与编写,显示出中国人工智能正在从野蛮生长迈入有序发展阶段。[13]比起行政约束,美国龙头企业们则视开源共享和自下而上的行规约束为最好的管控手段。如果有足够多的程序员和开发者能够共同目击、监督算法的制造,那么就能够确保各大科技企业所开发的模型和算法是相对透明的。[14]

高质量、高透明度的公平公正,唯有邀请更多的主体参与才能够有效维持,这种参与既不限于国别,也不限于某个行业。随着人工智能在普通民众的生活中日益深化,人工智能使用者和公众之间的信任关系将是必不可少的。当然,要做到这一点也要基于一条善意的前提,那就是当企业或国家在使用人工智能时,他们会将这一情况广而告之。从这个意义上说,人工智能算法对价值观的作用是一把双刃剑,一方面它可能会把越来越多历史上的价值观积弊暴露出来,为正视并解决它们提供转机;另一方面它也可能促使越来越多的企业在越来越多的情境中选择不公布人工智能工具的在场。如若人工智能的社会效应被整体遮蔽起来,这就给一种向善的价值观转向又带来了变数。