算法分发在实际应用过程中出现的问题及潜在的伦理风险
算法推荐机制确实能在海量信息充斥的新媒体背景下,为用户提供高效的信息服务。但个人信息重要的经济价值也驱使各大算法平台和机构费尽心力来收集、分析和整理用户信息,这对用户隐私构成了巨大威胁。由于算法平台掌握充足的资本和技术资源,在获取用户信息的过程中不会面临太大的阻碍。相对而言,用户处于弱势一方,难以选择向平台公布哪些信息,了解这些信息的具体流向。这就意味着平台和用户在这一资源置换关系中,双方的地位是不对等的,一些算法平台假借数据共享之名行侵犯用户隐私之实。在公众隐私方面,智能化算法推荐机制有一定的伦理风险。另外,算法技术缺陷对内容质量的影响、算法机制的合理性、算法背后涉及的权力关系等议题也是业界和学界在讨论算法分发模式对传媒内容生态影响时关注的重要问题。
1.低俗内容与虚假新闻
不同于人工编辑做内容筛选时会从多个维度对内容质量进行把控,目前的算法分发技术主要以用户的个人特征为标准进行信息筛选。这一标准在面对无法量化的内容,或者需要对内容做出较高层次价值观念评判时存在失效或者效果大打折扣的问题。因其本身的机械性,不具备人的意识与情感,所以仅仅通过关键词和算法模型识别有害内容,无法对内容进行价值判断,更无法对新闻可能产生的社会影响作出正确的判断。站在用户的角度来看,算法分发的根本合理性在于提供其所需要的有效信息。但是站在媒体的角度来看,算法分发的终极目标则是为了实现内容流量的最大化,完成内容产品的商业闭环。因此,一些平台在设计算法机制时会优先考虑内容的流量效益,相对减少内容在其他层面的价值比重。而在一个以流量作为主要目标的传播生态空间中,虚假新闻、低俗新闻等低劣化内容常常会纷至沓来。用户对这些内容趋于猎奇心理的点击和关注,更会成为滋养这些内容疯长的天然养料。
2017年,Facebook发表声明表示,俄罗斯的情报机关通过在Facebook平台上注册一些虚假账户,在美国总统大选期间购买了数千份广告,目的是放大造成社会不和的政治信息,欺骗公众,扭曲政治情绪以干预总统大选。[37]2019年,据《福布斯》杂志网站报道,美国防欺诈和安全公司RSA在欧美对6000名成年人进行调查,以评估人们对数据、隐私和个性化的态度变化趋势。[38]调查结果显示,有76%的消费者认为Facebook、Twitter等社交平台的个性化消息流是不道德的。2018年9月皮尤调查中心发布的《2018美国社交媒体新闻调查报告》显示,尽管很多美国人表明自己会通过社交媒体平台获取新闻信息,但有57%的消费者认为自己看到的新闻基本上是不准确的;趣味性和便捷性是消费者在平台媒体上获取新闻最受欢迎的特性。[39]
2.“把关人”的转变,背后权利的迁移问题
在很长一段时间,编辑掌握了内容分发的权利,我们读什么、听什么、看什么,都是由少数媒体精英所决定。今天,随着用户数据的积累,内容推送的权力,正在从有血有肉的编辑转移给算法。而社交平台的信息流算法往往属于商业机密,复杂的算法无法接受公众的详细审视,也并非工程师个人可以掌控,掌握信息分发权力的科技巨头拥有黑箱算法的完全决定权,成为名副其实的“把关人”,一定程度上决定了用户的信息消费和生产行为。
在算法的介入之下,社交平台既可以通过屏蔽关键字使特定事件出现在公众议程上的概率降低,也可以出于商业动机为某些本不应被推荐的内容进行加权。在社交媒体日益成为人们获取信息、交换意见重要渠道的情况下,科技权力的“信息把关权”一旦为政治、商业权力背书,即会向社交平台的公共性发起挑战,使公共领域面临“再封建化”的风险。相比传统媒体清晰的操作流程,算法使传播的操作后台化,资本权力扩张,垄断传播资源,内容采集、投递、营销难以受到公共力量的监督,拥有技术和数据的公司反而拥有更多的公共权力。
谷歌的新闻栏目Google News以“新闻流”的方式呈现,主要采用协同过滤与用户-产品二部图网络结构相结合的混合型算法。该算法基于用户点击形成的日志,分析预测用户兴趣,探索新闻趋势,同时结合协同式信息过滤的方式提升推荐的精准度。Facebook的新闻栏目News Feed则带有强烈的社交网站风格,十分注重点对点的人际传播。负责News feed产品管理的副总裁亚当Adam Mosseri公开表示公司新闻信息推送算法的核心价值观是“Friends and Family First”(朋友和家人第一),并表示要更好地理解用户的个人兴趣和信息、注重娱乐化信息、提升用户阅读体验以及强调对各种信息的包容性,对于误导性、煽情性和垃圾信息,算法则会努力降低它们的权重。[40]
通过以上两个事例不难发现,社交平台算法逻辑的设计与改进由商业公司操控,凸显其价值取向。
3.算法“黑箱”的出现,算法客观性受到质疑
有学者指出,虽然相比人工编辑,算法可以降低读者对于偏见的担忧,故而算法似乎可以对新闻可信度产生积极的影响。但来自计算机科学、哲学和传播学的三位学者联合审查了12个公开的事实核查算法数据集,发现所有被标注的算法数据集都存在偏差。标注者的政治倾向与人口统计学特征、标注数据集的来源、标注的流程等因素均会对标注的公正性产生影响。尽管作者倡议通过增加数据集的多元性和透明性来减少偏差,但不论在理论上还是在实践上,偏差都不可能完全被规避。[41]
算法的公正性直接决定了新闻的公正性。美国新闻网站Vox曾撰文指出,相比Twitter的时间线推送信息流,Facebook利用算法推送误导了用户,这些算法给予高互动用户较高的内容呈现优先权,其采取的标准类似八卦小报,给用户推送最吸引眼球的标题,却完全不管文章是否公正、精确和重要。[42]这种算法迫使类似《纽约时报》这样有声望的老牌媒体,也不得不亦步亦趋。简言之,算法主导下的新闻业,对人性弱点的迎合、对传统新闻业社会责任的弱化、对娱乐性的无限放大,将是人工智能时代新闻业面临的根本性挑战。
有学者对Facebook上广告生态的考察发现,大量的广告涉及新闻、政治、宗教等敏感领域,并通过入侵性、不透明的策略进行定向投放。对Facebook上定向广告的案例分析发现,智能化的广告投放可能被恶意广告商滥用,针对容易受到假新闻、偏见影响的人群,投放导致社会更加分裂的信息。由于广告的投放对象被限定在此类易感人群中,此类恶意广告被察觉的概率比较低,长此以往,公共对话的事实基础和价值基础被智能广告削弱。[43]
4.算法对用户的控制,“信息茧房”问题
在智能算法的帮助下,我们看到的都是我们感兴趣的内容,并且还能轻易过滤掉我们不认同、不喜欢的内容,算法帮助我们最大限度地挖掘自身的兴趣点。因此有观点认为,如果长期只接受特定的信息,不断重复和固化自身的偏见和喜好,我们最终会在兴趣里作茧自缚,形成所谓的“信息茧房”。信息茧房一旦形成,我们便很难再接受不同的信息和不同的观点,久而久之我们便会在信息流中故步自封,这便是著名的“信息茧房”理论。信息茧房概念是由哈佛大学法学院教授凯斯·桑斯坦在其2006年出版的著作《信息乌托邦——众人如何生产知识》中提出的。和“信息茧房”概念具有相同含义,在学术和业界用得比较多的还有“过滤器气泡”(filter bubble)和“同温层效应”(echo chamber)这两个概念。这三个概念的共同点是对算法分发技术发展带来的隐患的担忧,认为在算法分发主导下,用户所接触的信息将会面临单一片面化的趋势,长此以往,用户将会被片面化的信息限制住视野,失去批判性思考的能力。
对于这一观点,不少学者持批判态度,认为所谓的“信息茧房”效应和算法分发技术之间并没有必然的联系。他们认为“信息茧房”其实一直都存在,即便在互联网出现之前,大众媒介选择、采集和组织信息的时代,媒体也会根据自身的政治或市场定位及角色担当,以某种价值框架来选择性地呈现和反映这个世界。与此相对应的是,用户作为有自主意识的个人,也会以自我价值为核心,以一定的能力、意愿、兴趣为半径为自己建立信息渠道。不同的是,互联网时代开启了个人寻找信息的便利性,同时也开启了信息找寻人的便利性,双向互动是互联网对信息传播渠道的最大贡献。而所谓的以个人兴趣为核心的“信息茧房”本身,其实是由个人的选择和注意力决定的,算法与数据技术不过是媒介的价值选择机制在数据条件之下的一种“人体的延伸”,并不是形成“信息茧房”的独特成因。[44]
同时,伴随着算法分发技术的不断成熟,“信息茧房”理论中所蕴含的担忧也在技术的实际应用中被不断克服。谷歌在2018年I/O全球开发者大会上推出了一个全新项目,针对相同的新闻讯息,他们将用人工智能为用户提供广阔的视野,而不是像之前算法分发规则之下的新闻信息流那样“千人千面”[45]。例如关于特朗普和伊朗问题的报道,Google News将收集各种渠道的新闻信息,而推送给相关用户的都是一样的内容。