8.2.3 人工智能伦理

8.2.3 人工智能伦理

机器学习的道德是指围绕使用数据的机器学习模型的输出的道德问题,造成机器学习输出的道德问题有以下几点:

(1)机器偏差。

机器偏差是指机器学习模型表现出的偏差。机器偏差可能是由多种原因造成的,如创建者对用于训练模型的数据的偏差。机器偏见反映了数据开发者的偏见。人工智能在处理速度和能力方面远远超过人类,但不能总是相信它是公平和中立的。谷歌的照片服务就是一例,在谷歌的照片服务中,人工智能被用于识别人、物体和场景,虽然谷歌及其母公司Alphabet在人工智能领域处于领先地位,但它仍然可能出错。人工智能系统是由具有偏见和判断能力的人类创造的,所以人工智能也会有一定的偏见性。但是,如果人工智能使用得当,并且被那些积极希望影响人类进步的人所使用,人工智能将催化积极的变化。

(2)数据偏差。

数据偏差是指与预期结果的偏差。有偏见的数据会导致错误的决策。偏见无处不在,包括数据本身。但是,我们可以通过了解可能造成数据偏差并影响分析和决策的因素,以严格的数据治理最大限度地减少有偏见数据的影响。

(3)人类偏见。

只要人类参与决策,偏见就会一直存在。微软开发的人工智能聊天机器人Tay可以与其他Twitter用户互动,并从与他人的互动中学习。在Tay发布后几个小时内,Tay就在推特上发布了性别歧视、种族主义和暗示性的帖子。最终的结果是微软24小时后就撤下了Tay,Tay只存在了24小时。这个实验后人们就提出了AI学习人类行为是否安全的问题。

(4)智能偏差。

机器学习模型的好坏取决于它们所训练的数据,这也通常会导致某种形式的偏差。已经证明了具有人类思维的人工智能系统可以将人类的偏见放大,并导致许多数据科学家投入大量精力研究人工智能技术的道德使用。建立在人口数据基础上的早期人工智能系统在性别、种族、社会地位和其他问题上就表现出明显的偏见迹象。美国的刑事司法系统中有一个非常有名的算法偏见案例。替代性制裁的惩教罪犯管理分析(COMPAS)算法在威斯康星州的一个法庭案例中被揭示其运行结果。由于非裔美国人犯罪的不成比例数据被输入犯罪预测模型中,导致该模型最终输出了对黑人社区的偏见。有偏差算法的例子和定义有很多。例如,评估家庭保险风险的算法会根据索赔数据对居住在特定地区的人产生偏见。数据规范化是关键。如果数据没有针对这种敏感性进行标准化,系统也没有得到适当验证,人类就会受到歪曲少数族裔行为的机器学习模型输出不正确结果的影响。

那么该怎么解决,或者说如何消除这些偏差呢?这是机器学习伦理的重大课题。消除偏差并不意味着模型不会有偏差。即使创建了一个绝对无偏的模型,也不能保证AI不会学习到与我们相同的偏差。所以说,我们可以从以下几点来考虑这些问题。(https://www.daowen.com)

(1)偏差校正。

偏差校正始于承认存在偏差。研究人员于1985年开始讨论机器学习伦理,当时James Moor定义了隐式和显式道德。显式代理是机器给出的原理或示例,可以从中学习以在不确定或未知的情况下做出道德决策。克服偏差可能涉及模型校准的后处理。分类器应该被校准为对敏感特征的所有子组具有相同的性能。数据重采样可以帮助平滑倾斜的样本。但是,由于许多原因,收集更多数据并不容易,而且可能会导致预算或时间问题。数据科学界必须积极努力消除偏见。工程开发过程中必须诚实地质疑对流程、智能系统的偏见。如何让这些问题在数据或预测中暴露出来,是一个需要解决的具有挑战性的问题,因此,许多组织采用聘请外部机构来挑战的做法。工作场所的多样性也可以防止偏见蔓延到数据中。如果创建AI系统的研究人员和开发人员本身缺乏多样性,那么基于这些数据科学家输入AI训练数据的内容,AI系统解决的问题和使用的训练数据都会变得有偏见。多样性确保了思维、道德和心态的范围。这促进了更少偏见和更多样化的机器学习模型。尽管可以编写算法来最好地避免偏见,但这样做非常具有挑战性。

(2)预测伦理。

随着先进的机器学习算法和模型的开发,将在短时间内获得更准确和可靠的结论。目前正在使用技术来解释各种图像包含的信号,包括来自超声、磁共振成像(MRI)、X射线和视网膜扫描的图像。机器学习算法已经可以有效地识别眼睛图像上的潜在关注区域并提出可能的假设。通过良好的治理和透明度确保对您的目标、数据和组织的信任是关键。这是人工智能未来发展的基础。

(3)解释预测。

随着人工智能算法变得越来越智能,它们也变得越来越复杂。对机器学习系统的构建一无所知或允许将它们构建为黑匣子可能会导致人工智能在伦理道德上出问题。数据和机器学习模型的可解释性是智能系统的一个关键方面。这不仅确保了模型的完整性,而且还试图正确地解决问题。具有数据科学领域知识背景的用户总是更喜欢可以理解和解释的体验。数据科学家还可以使用可解释性指标作为验证和改进的基础。机器学习黑匣子可能会通过程序员和永远不为人知的数据选择来隐藏偏见、不公平和歧视。神经网络是典型的无法解释的算法的一个例子,无法解释反向传播算法的计算值。随着人工智能在模拟人类方面的准确性不断提高,未来将有更大的要求来确保人工智能不会养成人类的坏习惯。

(4)有效性。

需要确保机器学习模型随时间推移的有效性,以确保模型可以泛化并且泛化是有效的。定期测试和验证模型对于保持机器学习模型的完整性和精度至关重要。次优的预测分析模型可能将提供不可靠的结果并且破坏完整性。必须防止算法成为不道德的算法并且防止人工智能不道德地行事。

迄今为止,由于人工智能大多数应用于商业场景中,出于盈利目的,人工智能的应用有很多是以不道德的方式执行。例如,优步(Uber)和大众汽车等在其人工智能运用的领域已经很好地证明了这一点。优步的Greyball算法试图预测哪些乘客是卧底警察,并用它来识别和拒绝运输。大众开发的算法允许车辆在测试阶段减少氮氧化物排放来通过排放测试。这两个组织都因公开欺骗和缺乏透明度而受到国际谴责。通过这两个来自世界上大公司的实例表明,人工智能应用需要内部和外部审计来验证算法及其组织的完整性和道德规范。