正确引领算法分发,推动内容生产变革

(四)正确引领算法分发,推动内容生产变革

针对算法分发在实际应用过程中所引发的一系列问题及可能面临的相关伦理风险,首先需要明确的一点:算法分发已经成为传媒行业不可逆的发展趋势,是传媒内容生产的发展对技术提出的必然要求,如果没有算法的介入,海量信息将无法完成更为有效的传播,用户高效准确地获取信息的需求也得不到满足。

其一,推荐系统的多样化的信息应该能满足、拓展用户的个人选择,增强用户对于多种选择的认识;其二,从促进理性公共辩论的角度,多样化信息应保证用户与对立政治观点接触的程度,促成跨意识形态之间的互动,以建立社会成员相互理解和妥协的认知基础;其三,基于激进多元主义和对抗民主观念,算法应该主动促进批判性意见和弱势观点,将异议引入公共辩论。纠正公共讨论被精英和利益集团主导的局势,为挑战用户现有理念的内容提供生存空间。

1.改进以个性化推荐为核心的算法分发模式

虽然在目前的学界和业界对于“信息茧房”仍有争议,但是不少媒体都开始关注用户接受信息在个人视域内的窄化问题,试图通过在技术层面升级个性化算法推荐,帮助用户摆脱思维定式的桎梏,开放包容地倾听全方位的声音。

2017年,美国新闻聚合网站BuzzFeed[46]在其新闻客户端上推出了一个名为“Outside Your Bubble”的新功能,让读者能看到在自己的社交网络以外,别人都是如何谈论新闻的。BuzzFeed的编辑会整理出来自Twitter、Facebook、Reddit等网站上人们对于此新闻的评论(原本只会自动显示Facebook的未经筛选评论),让它们以中立平和的叙述方式呈现在页面上,点击每一个小标题,就能看到原作者到底说了些什么。

同样在2017年,瑞士报纸《新苏黎世报》开发了一款名为the Companion的应用。[47]这款应用在推送个性化信息时,值得注意的是,会保障在每一次给读者所推荐的信息中,至少有一条信息不是读者原本感兴趣的领域。谷歌也推出了“逃离泡沫”插件。该插件能够通过对用户的阅读喜好进行分析,将一些积极、容易被用户接纳的信息向用户进行反向推荐。

为了应对由算法分发所引发的信任危机,谷歌和Facebook等互联网巨头以各种方式做出反应,包括在新闻领域与独立的事实核查人员进行合作以及对可以戳破“过滤气泡”的新算法进行测试。2015年,谷歌还启动了“数字新闻计划”(Digital News Initiative,DNI),就是由谷歌和欧洲出版商们建立合作关系,从技术和创新方面支持高质量数字新闻报道的一项资助项目。[48]

由此可见,在大数据时代,随着算法推荐系统的不断成长,基于算法模型的内容生产可以超越个体经验积累的片面性和局部性,从大数据中挖掘以事件为中心的多维关联网络,对社会问题、社会现象等实现从局域到全域的剖析。这种剖析是跨越时空、突破语言限制的解析,给我们呈现出一种全局视角。

2.强化算法透明度

算法透明度指机构公开算法驱动计算机系统信息过程,帮助用户理解技术操作的价值观、偏见和意识形态。规制网络空间最有力的武器就是代码。与传统手段相比,这种“釜底抽薪”式的规制更为精巧和有效,同时也更隐蔽和复杂。编程语言已经侵蚀了普通语言的垄断地位而建立起一种新的等级制度。在以计算机为基础的技术允诺高度交互性的同时,实际上它们通过硬件与软件的交互作用把操控过程建立并隐藏了起来。互联网络只是提供了构建新的讨论空间和新型公共领域的可能性,与其他大众传媒一样,它也并不是价值中立的、完全自由的空间。就像我们日常食用的加工食品,制造者虽可对具体加工工艺秘而不宣,但消费者有权了解食品的成分构成、加工工艺对成分的影响、添加剂是否过量而影响健康。将算法的“黑箱”打开,将其逻辑规则置阳光之下,是检视不同算法对社会产生何种影响、避免负面社会影响的基本前提。

2019年欧洲议会未来与科学和技术小组(STOA)发布了一份关于算法透明和责任治理的系统性研究报告——《算法责任与透明治理框架》,报告中明确指出:应确保AI决策的数据集、过程和结果的可追溯性,保证AI的决策结果可被人类理解和追踪。当AI系统决策结果对个体产生重大影响时,应就AI系统的决策过程进行适当且及时的解释。提升用户对于AI系统的整体理解,让其明白与AI系统之间的交互活动,如实告知AI系统的精确度和局限性。[49]

在具体实践中,放眼全球,包括Facebook、谷歌在内的几乎所有互联网公司都将算法视为公司的重要机密,不愿意将之透明化。2017年,Facebook在接受关于俄罗斯利用社交媒体平台干预美国大选的调查之后,创始人扎克伯格强调会提高透明度,不过只是展示在平台投放广告的商家信息,而不是对自身的算法进行公开解释,此后再无关于算法公开的任何消息。相比之下,国内的一家互联网科技公司“今日头条”在2018年对公司算法原理的公开,开创了行业的先河。从媒体对于其公开的反馈效果来看,今日头条的做法是成功和值得借鉴的。它不仅让用户了解到了算法背后运行的规则,消除了对于算法的焦虑,而且很好地回应了学业界要求算法透明化,以更好应对技术可能带来的机遇及风险的要求。

3.引入多元主体参与算法共治

随着算法分发新闻的广泛应用,编制算法规则与程序的技术人员和用户之间那道无形的门槛,以及彼此之间关系的不对等这些问题都会日益凸显出来。解决这些问题,除了依靠平台主动去强化算法透明度,还需要社会多方力量介入进来,一起参与算法公正性的共治运动中来,让用户不仅能看到算法,更能理解算法。

行业监管部门、社会科学学者、传媒专业人士应在充分尊重公众、调动公众潜能、让公众在参与式互动中强化交往主体性的基础上,展开对话协商,通过制定法律法规、进行媒介批评、行业及公众组织监督等形式对算法展开规范管理。尤其在中国的现实语境下,技术型公司与媒体型公司均需在相同的政策法规背景下从事新闻传播活动,多元共治更显必要。这一过程中,通过展开更全面、生动的媒介素养教育,破除公众对技术的“迷信”,引导公众更加准确地理解并表达自身的信息需求,主动地选择信息,而不是在技术的诱导下成为信息的被动接收者。

算法规则制定的背后牵涉到媒体自身的商业利益,不论是技术手段还是人工编辑方式,对算法的优化都会将公众从“舒适区”中拽出,而这背后就可能造成相应平台或应用程序的用户数量下降、使用时长缩短,进而在短期内影响其商业利益。因此单纯靠媒体特别是商业媒体的“自觉”很难实现对算法的优化,需要对算法展开多元主体参与的共治监管。在这个过程中,作为信息接收者的用户更应该以一个主动积极的姿态,积极参与到算法共治的过程中。Facebook和谷歌公司为了限制假新闻的传播,一方面依靠用户对假新闻打标签,对具有一定数量假新闻标签的新闻进行降序处理,另一方面运用算法对新闻源进行交叉分析,辨别新闻的真实性,但实事求是地讲,通过算法识别制约假新闻依旧在路上艰难前行。