算法歧视与算法偏见

六、算法歧视与算法偏见

如今西方新闻业陷入了信任危机和专业性危机,机器算法的出现成为部分媒体人拯救新闻客观性和专业性的转机。他们希望通过支持算法的中立和客观来与传统媒体的价值观和编辑流程划清界限。与此同时,另一部分反对算法中立的学者开始在业界讨论有关算法歧视(algorithm discrimination)和算法偏见(algorithmic bias)的问题。美国非营利新闻机构“为了公众”(For Public)对一家公司开发的犯罪评估系统“代替性制裁的惩戒性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions)的评分方式进行研究,发现针对同样的罪行,有色人种可能会得到比白人更高的犯罪分数[8]。在新闻生产中,由算法带来的偏见影响也是非常大的,尤其是在内容生产过程中,当出现算法歧视和偏见时,新闻传媒便失去了其“瞭望者”的身份,成为错误信息的发布者。

一些作者已经表明,计算机系统也可能包含偏见,Friedman和Nissenbaum早在1996年就指出,软件可以系统地、不公平地歧视某些个人或个人群体,使之有利于他人。偏见可以在计算机系统中以不同的方式表现出来。社会中已经存在的偏见会影响算法程序的设计;技术限制也会产生技术偏见;算法程序完成后也会出现突发偏见……例如雅虎旗下的Flickr就曾错误地将黑人的照片打上“猿猴”的标签,2015年谷歌也曾错将黑人程序员上传的自拍照标记成“大猩猩”。2016年,微软公司上线了一款名为Tay的AI聊天机器人,但它在和网民聊天的过程中却被“教坏”了,将许多脏话甚至是种族歧视的思想输入进了学习程序,活脱脱变成了一个“不良少女”,因而上线不到一天就被微软公司紧急下线了。