算法机制自身缺陷

(二)算法机制自身缺陷

1.算法机制的伦理失范

(1)算法偏见

机器人写作现已运用在各大新闻平台,机器人利用预先设定的算法进行快速的数据采集和新闻写作。而受众往往因为对机器人新闻缺乏认识,把人工智能的筛选模式当成客观筛选方式。[1]导致人们对于机器人新闻的过分信任。可是机器人写作依然依靠算法,而算法是由人工编写,人的编写必然会包含人本身带有的偏见。如果在算法的编写过程中就为机器人提供了带有偏见和个人情感的数据源和编写逻辑,那么即使是机器人写作,也很难做到新闻中立公正。对于那些将机器人新闻认为是客观准确的新闻的受众来说,有偏见的机器人新闻比有偏见的人工新闻更容易影响受众。

在信息源的获取方面,写稿机器人的采集范围是整个网络,然而现在网络中的虚假信息和低质量信息越来越多。在众多自媒体发布的信息中,信息真伪难辨,且准入门槛低,监管力度不到位,使得写稿机器人很有可能采集到虚假新闻。在假数据的基础上,或许再包含算法设定的不科学性,写稿机器人将写出大量的错误和虚假报道。在算法构建过程中有可能植入人的价值偏见:一是算法设计者的价值偏见,如设计者对问题的理解、数据和变量选取、综合考评等方面的主观偏好,将被纳入新闻算法程序,进而影响新闻写作;二是输入数据的偏见,在真实世界被数据化过程中,算法所依赖的数据本身可能是有缺陷的,如果客观世界数据化过程被植入偏见,则将影响新闻的客观性;三是算法局限的偏见,把纷扰复杂的现实世界转变为利用大数据模拟的简化模型时,算法系统本身并非完美的,总是存在着局限。[2]算法中存在的初始偏见可能会随着数据的积累和算法的运算逐步加深,基于算法的内容生产也同样会将加深的偏见生产和分发,影响算法所构建的拟态环境的均衡性。

(2)算法推送

基于大数据算法的人工智能推送,通过受众的建模“画像”和阅读行为,推测出受众的阅读偏好,使用户看到个性化信息。算法的个性化推送使用户只看到自己感兴趣的内容,将受众认同和感兴趣的话题以各种形式重复推送,造成信息窄化,且会带来新闻失衡,使重要信息边缘化。很多受众需要和有必要了解的社会公共事件没有得到推送,相反一些黄色信息、娱乐绯闻等代替了政治、经济和文化新闻,使受众沉浸在算法编织的“信息茧房”中。最终由于受众频繁接触同质信息,排斥其他观点,久而久之看待世界有了刻板印象。在算法推送下,受众因为共享同质化信息形成群体极化。在这样的群体中,由于缺乏竞争性观点的协商沟通,认为自己的价值取向广受认同,人们的观点越来越偏激。在需要公共对话时,不同网络群体的极化导致社会共识的形成变得困难,不利于社会和谐。

在大量信息的互联网中,受众有选择信息的主动权,当受众选择了自己感兴趣的内容后,人工智能新闻的生产和分发模式将会帮受众自动过滤掉一些非同质化信息,使受众对社会公共利益的关注让位于用户的个人趣味,一定程度上减少了受众主动选择接收信息的权利。而那些公众本应该知道却无法知道的新闻没有被推送到受众眼中,这让传统的新闻价值标准受到了损害,同时也使大众媒体的公共服务职能受到严重的影响。

(3)违背新闻报道的基本要求

写稿机器人的报道内容局限在财经和体育类新闻中,因为固定的算法模式导致机器人不能像人一样写出具有个人经历、个人风格的深度报道和独到的分析。机器人新闻仅仅满足了现在人们对于快速和个性化的满足,但这并不是传统意义上的新闻价值。新闻要讲究真实。写稿机器人无法对信息来源核对真实性,反而使新闻被技术的噱头蒙蔽,受众可能对技术的关注度超过了新闻的本身。

写稿机器人的新闻内容相对枯燥乏味,缺乏可读性。判断一条新闻是否成功,新闻的可读性是衡量的重要标准之一。然而机器人不具备人类所拥有的创造力、思辨力、想象力和丰富的情感表达,所以在语言上会比较枯燥乏味,难以表达复杂的感情,新闻格式也比较单一化和固定化,所以在新闻的可读性上就会有所缺陷。在新闻敏感度上,机器人也不具备这样的能力。新闻敏感度本就是一个记者必备的素养,对于人类来说都是一项具有难度的能力,需要有果断的判断力和敏锐的观察力,还要在新闻事实面前挖掘背后的新闻真相。而写稿机器人在面对新闻线索、新闻事件时无法像人类一样思考,不能判断新闻事件的价值。

在资本的背后,利用公众不熟悉的隐蔽技术对媒介进行操控,让人们更加难以辨别新闻的真实性。媒体完全依照商业逻辑进行个性化推荐,可是人们通常只看到了通过智能媒体展现出来的东西,却不知道背后的资本选择和意图。资本可以利用技术将涉及资本利息的新闻、言论从网络中消失,而新闻报道的则是要新闻事件展现在所有公众面前。资本通过技术对新闻消息进行了筛选,一定程度上侵犯了公众的知情权、侵蚀了公共利益。

2.智媒时代下用户信息安全问题

随着人工智能技术的发展,用户的个人隐私和信息安全成为不可避免的讨论问题。在智能媒体环境下,智能推送环节需要对用户的个人信息进行采集绘制个人“画像”。大数据会将用户的行为信息、位置信息甚至个人爱好、个人情感等通过用户在互联网中的痕迹进行分析和记录,用户每一次使用网络,都是为大数据的数据库录入信息。当然,用户被录入的数据越多,隐私就越少。捕捉信息的技术在不断发展,网民数量和上网频率在不断增加,大量又精准的信息被采集和分析,这就加大了个人隐私的保护难度。在网络的公共平台中,用户也会发布一些涉及个人隐私的信息、照片或者视频等,而这些信息一旦分享在具有开放、自由的平台中时,很多数据分析机构在采集社会言论信息时,也会将涉及个人隐私的部分纳入采集范围,所以隐私保护问题也会愈发突出。

网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。个人有权要求网络运营者删除或更正其个人信息。[3]我国在个人信息安全保护领域已经提出了相关的法律法规,但是仍然会存在用户个人信息隐私泄漏的事件。

用户可以对自己的信息选择删除、储存、使用、知情等基本权利,但在很多情况下难以保障安全。一些是本身信息技术就存在安全漏洞,可能导致信息泄漏、被盗的情况。另外,在目前大数据的隐私保护还存在缺陷的情况下,很多公众缺乏自我保护的防御意识。在智能盛行的现在,当信息隐私泄漏后已经不仅会在网络虚拟世界中形成干扰,在现实世界中也可能会产生影响。现在很多电子设备具有大量传感器,如果个人设备被非法接入,公众日常生活的对话、影像都会暴露在他人面前,公众的健康状况、身体信息、用药情况都会被他人知晓并加以利用,甚至操控智能设备如智能热水器、智能空调、扫地机器人等设备,在特定的场景下对个体产生生理上的损害。[4]

3.智媒生成物的知识产权问题

(1)智媒生成物的著作权问题

随着写稿机器人的投入使用和版本升级,很多人工智能的作品已经符合了独创性的要求,达到了构成著作权法上的作品要求。然而对于人工智能生成物的著作权问题需要得到著作权法的保护,若没有法律的界定和保护,人工智能生成的作品将会被随意使用,而人类创作的作品的版权交易价就会下降,人工智能技术的开发者和投资者的利益也无法保障,这不仅不利于激励作品的创作,也会阻碍人工智能技术的进一步发展。2019年4月25日,北京互联网法院对北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷一案进行了判决,[5]成为我国第一个关于人工智能生成物的著作权的纠纷案件。人工智能生成物的具体著作权归属是社会公众和学者一直在讨论的问题。

(2)智媒生成物侵权责任认定问题

在算法智能推送的机制下,很多网络新闻聚合平台将从网络大数据中获取的信息拆分和重构后精准推送给受众。而这些数据中很多是已经成型的新闻作品或者相关信息,在新闻数据源的抓取和使用过程中就可能存在侵犯新闻作品著作的问题。而此时的被侵权人无法受到保护。为了解决这些问题,就必须确定智能媒体生成物的负责人是谁,算法程序设计者,还是人工智能投资者,这与上一个智能媒体生成物的著作权问题类似。因为智能媒体想要生成一篇新闻稿件,涉及的人有很多,不同分工不同职责,在出了问题时,究竟应该谁来负责,到现在仍然是存在的问题。

4.沉浸式新闻的伦理问题

沉浸式新闻也称VR新闻,其采用VR技术,为用户建立一个新闻现实的虚拟场景,让受众从之前阅读新闻稿件和观看新闻视频变成新闻事件发生时的现场体验者。用户可以在VR新闻中自主捕捉更多新闻细节,增强新闻的现场感受。然而沉浸式新闻所覆盖的新闻类型有限,且制作难度相比于文字新闻和视频新闻也大大增加了。在新闻选题方面,VR新闻不适合现在快节奏的短新闻和叙事性简单的新闻事件,在灾难性报道中也会产生一些不良影响。

沉浸式新闻需要对全方位新闻现场进行展现,在故事情节的设定和场景的还原中,很有可能带有制作者的偏见。而受众在体验沉浸式新闻时,现场感和沉浸感更容易相信看到的即真实,对偏见进行放大。受众的在场感效果越强,其心理感受度就越强,当受众充分沉浸在眼前的事实中时,就会对文字版新闻和视频版新闻产生一定的怀疑态度,甚至有些时候直接用感官代替头脑思考,不对事件进行全面的辨析,在虚拟的场景中造成情绪化和冲动的行为。

在虚拟世界的打造中,很难达到与现实世界一模一样,新闻的真实性无法完全展现。若VR技术还原的场景过于逼真,受众在高强度的代入感和体验感中很可能引起一定的紧张感和不适感,特别是部分特殊题材的新闻事件中,在虚拟现场的受众可能会对即将发生的事情产生强烈好奇,处于高度紧张甚至恐慌的状态中。很多沉浸式新闻不适合一些特定群体,如老人、儿童、孕妇、心脏病患者等。

很多用户过分体验“现场感”,忽视了本身的新闻价值。由于沉浸式新闻在国内还是属于刚步入大众的新闻形式,很多用户出于新鲜感和好奇心观看新闻,对新闻本身报道的内容和叙事形式并不重视,成为新闻宣传吸引受众的噱头。沉浸式新闻的着力点还是应该放在新闻价值上,创作出有内容的新闻。