引起算法新闻伦理失范的主要原因
算法新闻伦理失范不仅仅是在技术发展过程中所造成的,究其原因,除了技术带来的问题之外,媒体主体责任缺失,用户媒介素养不足也是重要原因之一。
(一)难以打开的算法黑箱
所谓算法黑箱,指的是通过算法进行新闻生产的过程是公众无法所知的,公众对于算法的实际运作程序、流程等几乎是一无所知的,对于算法工程师以及实际控制者设定的算法目标和意图也是不清楚的,在此情况下,公众是无法对其进行评判和监督的。算法黑箱之所以难以被打开,主要有两方面的因素,一是企业技术的排他性与技术本身复杂性,一旦将算法披露,就等于研发成果被公开,对于研发企业或者设计者而言,无异于技术泄露,企业或研发者的利益将受损。事实上,算法技术本身也非常复杂,即使向公众说明了程序设计的流程及环节等问题,大部分人也难以理解。其二是由于目前对于算法黑箱涉及的问题并没有十分明确的问责机制,贸然打开算法黑箱可能会导致管控缺位或机制不完善等问题。
(二)媒体主体责任缺失
媒体主体责任的缺失主要表现在三个方面。一是聚合类平台缺乏职业道德。在算法推动下,聚合类新闻平台兴起,这类平台拥有依靠算法进行个性化新闻分发,从而吸引了大量用户,对新闻的传播与扩散起着重要作用,推动着社会风气的形成和社会价值观的建构。然而平台为了获取商业利益、赢得商业竞争,忽视新闻质量,通过算法将大量低俗、虚假、泛娱乐等不健康的内容分发至用户,以提升用户黏性。仅在2017年下半年,“今日头条”就因传播低俗内容而多次被罚,《人民日报》更是在同年9月,“三批”今日头条,希望其能够提升平台的社会责任意识,不被算法推荐所“绑架”。二是媒体“把关人”角色淡化,算法主导是媒体话语权与新闻分发权转移。信息能够通过社交媒体直接流向用户,跳过“把关”环节,算法过滤机制不够完善,不能够有效对新闻价值进行判断,也不能完全准确筛选新闻信息,媒体公信力不断下降。早前,挪威的一名“脸书”使用者在平台上发布了普利策新闻奖获奖作品《战火中的女孩》,但是很快“脸书”通过自动算法将这一内容删除了。事件发生后,挪威首相强烈谴责“脸书”平台改变历史与真相,平台负责人则表示由于算法缺陷,将图片误判为儿童色情图片。实际上,造成误判的原因就是算法基于裸体就是色情的设定进行了筛选。三是新闻职业危机。机器人写作、AI智能播报等给新闻从业人员带来了危机感,部分新闻从业人员对自身职业价值产生怀疑,对职业意义进行否定,丧失了职业理想,进入了自我迷失的状态。
(三)用户媒介素养不足
用户在面临着各种新闻信息时所表现出来的对内容的选择力、理解力、辨别力以及质疑力等,被称为媒介素养。算法媒体时代,个性化推荐内容反映了用户对于内容的选择倾向。同时大量的新媒体平台的低准入门槛又为其提供了自由表达意见与观点的场所,于是缺乏媒介素养的“键盘侠”活跃在网络空间中。用户的媒介素养不足也是导致算法新闻伦理失范的主要原因之一。