4.3.6 深度学习的局限

4.3.6 深度 学习的局限

尽管深度学习有很多优点,但也存在一些缺点。

(1)数据依赖性:通常,深度学习算法需要大量的训练数据才能准确地执行任务。但对于许多问题,没有足够的高质量数据来创建深度学习模型。

(2)可解释性:神经网络以极其复杂的方式发展它们的行为,甚至它们的创造者也很难解释它们的行为。缺乏可解释性使得解决错误和修复深度学习算法中的错误非常困难。

(3)算法偏差:由于训练数据通常包含隐藏或明显的偏差,算法会继承这些偏差。例如,主要针对白人的照片训练的面部识别算法将对非白人的执行不太准确。

(4)缺乏概括性:深度学习算法擅长执行重点任务,但在推广知识方面表现不佳。与人类不同,受过星际争霸训练的深度学习模型将无法玩类似的游戏,如魔兽争霸。此外,深度学习在处理偏离其训练示例的数据方面也很差,也被称为“边缘情况”。在自动驾驶汽车等情况下,这可能会变得很危险,因为错误会导致致命的后果。

深度学习尝试解决人工智能中抽象认知的难题,从理论分析和应用方面都获得了很大的成功。深度学习可以通过学习一种深层非线性网络结构,实现复杂函数逼近,并展现了强大的学习数据集本质和高度抽象化特征的能力。逐层初始化等训练方法显著提升了深层模型的可学习性。与传统的浅层模型相比,深层模型经过了若干层非线性变换,带给模型强大的表达能力,从而有条件为更复杂的任务建模。与人工特征工程相比,自动学习特征更能挖掘出数据中丰富的内在信息,并具备更强的可扩展性。深度学习顺应了大数据的趋势,只要有充足的训练样本,复杂的深层模型就可以充分发挥其潜力,挖掘出海量数据中蕴含的丰富信息。强有力的基础设施和定制化的并行计算框架,使得以往不可想象的训练任务加速完成,为深度学习走向实用奠定了坚实的基础。