(二)监管机构加强相关内容管理
2020年,在数字消费持续增长的刺激下,全球科技巨头规模日益扩大,强势平台话语权增强,平台涉及全球健康危机、种族问题等的言论和信息,引发了人们对网络信息真实性的关注。欧盟《数字服务法案》草案指出,拥有4500万以上用户的在线平台有义务主动审查、处理和及时删除虚假信息、恐怖主义、仇恨言论等非法内容,审查其平台是否存在危险或假冒伪劣的第三方产品,并公开广告商信息和排名信息的算法参数等,违规者将被处以最高达其年营业额6%的罚款。在监管压力下,在线服务平台加强内容自治。脸书成立了由独立专家组成的监督委员会,对其内容管控事件作出审议,增强其内容管理的透明度。抖音(TikTok)也在采取措施提高透明度,其产品和政策团队正在研究可能与错误信息有关的账户和视频信息。推特则强化了对用户的诚信要求,并创建“技术道德和人性化使用”咨询委员会,减少因为技术漏洞而发布的错误信息对公众的危害。