脸书式“终极透明”的伦理困境

脸书式“终极透明”的伦理困境

尽管目前的人工智能并未超越人的智能,但它已经忠实反映了人类智能中可能存在的问题,倒是给了人们正视问题、健全发展的契机。算法的运行和输出具有即时性,其数据来源可回溯、可分析,并可以通过模拟来推算、评估实际效果,这就将平等这一价值观的前因与后果压缩到了同一时空,一定程度上突破了弱势人群社会地位的历史变迁难以追溯以至于用人、选人只能考虑机会平等的局限性。此外,算法不像潜意识里的价值观,后者的影响往往不被决策者所承认或察觉,算法可以在结果出现偏差时,随时停用加以修正,加之机器没有申辩的能力,这就使得人工智能提高了人们对公平这一价值观“纯度”的追求。

目前,人工智能在司法系统和求职市场应用引发的争议,已经产生了一定的积极意义。咨询公司高德纳(Gartner)针对求职歧视问题的报告中就提出,如果不向机器人提供那些个体生理、文化属性,例如年龄、残疾、种族、性别、性取向、宗教等,就可以有效地杜绝刻板化印象导致的歧视,而更多的把关注放在职业技能上。[8]亚马逊招聘算法中的性别歧视,很可能是数据本身的不完备和标记方法的不准确所导致的,囊括更多数据,在标记重点内容时,先行避开带有倾向性的价值判断,这些都能有效控制人工智能对既有偏见的放大作用。

不过,在现实生活中,即便初衷是善意的公司有意要公布算法,也会因为技术考量和商业秘密等原因受阻。以脸书(Facebook)为例,过去在现实生活中,当遇到呈现出自杀倾向的个体时,我们自然愿意出手相助,推断的依据无非是低迷的情绪或者异常的言行。然而,也有人在生活中举止寻常,但是在线上却已经积累了长期的抑郁表达。当社交媒体平台成为人们倾倒私隐的树洞,那么社交媒体就能通过人工智能比人更快、更准确地判断自杀倾向。脸书的研究者不但分析了与自杀倾向相伴出现的语言、词汇和表情包,甚至还对此前已经自杀的脸书用户的生前信息进行了回顾性分析,以便对相似的情况做出预测。2017年11月,脸书宣布开始应用这项新的人工智能,当有用户呈现出自杀倾向时,人工智能将向工作人员发出警报,这些人类员工将会对用户进行“健康状况检查”(wellness checks),并对其自我伤害的行为加以干预。但当被问起算法的细节时,该项产品副经理罗森(Guy Rosen)却对此讳莫如深,只说可以从情绪低潮的常见时间、亲友的关切评论和脸书用户留言中的文字内容进行推测分析,但拒绝讨论算法本身。同时,脸书又不断强调他们正与传统的自杀自残预防组织之间密切合作,试图靠线下的成果说话。

实际操作中,脸书的系统可能存在各种问题。例如,人工智能可能错误标记用户,但用户却无从知晓,也无从向系统反映报错;当被标记的用户受到“你现在可能格外需要帮助,请向我们求助”这样的讯息时,他本身也未必知道他已经被列入监控范畴,监控他的不是机器和平台,而是活生生的脸书工作人员。此外,这一算法也可以被别有用心之徒用作伤害他人的武器,针对精神状态不佳的网民进行骚扰和歧视。值得注意的是,即便是脸书的官方合作伙伴“危机短信热线”(Crisis Text Line,CTL),他们也不知道脸书已经在后台研发了这样一套系统。尽管CTL方面表示,他们也已经在用算法预测用户向他们发送的消息中可能包含的自杀倾向(例如“易布洛芬”一词就预示着陡增的自杀风险),但是脸书面对合作伙伴也保持神秘,又同时在如此海量的用户人口中尝试人工智能,总是让人留有疑虑的。[9]

脸书以人工智能做挡箭牌的做法远不止一例。2018年春,脸书深陷境外势力渗透其平台,干涉美国选举的丑闻,CEO扎克伯格(Mark Zuckerberg)在国会听证中提到人工智能数十次,将许多说不清道不明的技术问题和伦理问题,一股脑儿都甩给了人工智能。2016年总统大选将美国社会中长期存在的社会矛盾快速激化,而脸书等社交媒体的迅速成长为外部势力进入提供了快车道。选举的余波并未随着新总统的诞生而终结,脸书的管理失当成为了经久不衰的热点话题——虚假账号、种族歧视言论、恐怖主义宣传内容、水军、所谓来自俄罗斯的干涉、隐私安全……面对这些问题,扎克伯格一律以人工智能搪塞。诚然,人工智能确实具备了搜索关键词并分析内容的能力,能够一定程度上缓解网络信息空间的混乱,但是自然语言处理的发展仍很不足,尤其是对“假新闻”的判断,这更牵涉到判断主体的价值观念。对于自己的判断方式,脸书并不愿多说。科技媒体The Verge在评价扎克伯格在国会的表现时说:对着一群年长的外行人频繁使用人工智能一词,其实就是在逃避问题。当被密歇根参议员皮特斯(Gary Peters)问到人工智能算法的透明度时,扎克伯格只说“这是一个非常重要的问题”,脸书对此非常重视,并有专门团队负责,但却丝毫未透露将其算法公诸于世的意愿。[10]

针对脸书,有人批评道:尽管脸书时常论及政府和企业的透明度,但它真正想要推进的是个人的透明度,就是所谓的“彻底透明”或“终极透明”。[11]脸书采用诱导式、家长式方法将你引向你可能感兴趣的内容与人,让你找到你政治上的同好与同盟,形成自得其乐的线上回音室,不断向用户提供正向反馈,增强政治参与的兴奋感。然而,这一做法的缺陷已经在剑桥分析公司(Cambridge Analytica)一案中彻底暴露——当这些数据以层层外包的方式贩售出去,一旦中途落入别有用心之人手里,它不但可以被用于干涉美国内政,更可能构成对公民权益的普遍威胁。在剑桥分析公司一案中,脸书平台的数据在倒手中被售卖、侵犯和滥用,脸书却无知无觉,也无可奈何。足以见得,当“公开”原则应用于脸书这样规模的社交媒体时,除了要包含算法的透明之外,还需要对数据的去向进行持续的公开,长期接受监督。这对于一家靠数据来盈利的公司来说,无异于是与虎谋皮。