3.3.1 青花瓷年代分类模型

3.3.1 青花瓷年代分类模型

3.3.1.1 网络模型结构

本章基于真彩色图像构建不同年代景德镇青花瓷分类模型,将上述两种经典的图像分类模型—— VGG网络模型和ResNet网络模型结构进行调整以适用本书的不同年代景德镇青花瓷真彩色图像数据。

(1)首先对不同年代景德镇青花瓷真彩色图像进行预处理操作,主要包括:随机裁剪、图像数据增强和归一化等过程,提高模型泛化能力和抗干扰能力,同时还可以扩充数据集的大小并且增加网络的鲁棒性。最后使用图像归一化处理提高网络模型训练的效率。

(2)对VGG16和ResNet50网络模型进行调整,将模型卷积层的参数全部冻结,只对模型的最后一层,即模型的全连接层进行修改,将原网络的输出类别个数修改为10类,来适应本书不同年代景德镇青花瓷图像数据分类。

(3)使用迁移学习的方法对网络模型进行训练,首先加载ImageNet数据集上的模型参数和预训练权重,对模型全连接层进行修改,选择随机梯度下降(Stochastic Gradient Descent,SGD)优化算法,选择交叉熵损失函数。

3.3.1.2 优化算法选择

目前,机器学习里优化算法的研究内容主要和数据有关。主要的数据格式有三种:① 统计分布意义上的独立同分布数据,并且都具有一个求期望的结构;② 存在求期望结构的图模型数据;③ 本质结构是求期望的序列数据。这三类机器学习数据的共性是都以统计期望的形式表达问题,因此随机优化算法成为机器学习优化最基础的研究方向之一,其中随机梯度下降(SGD)作为最常用的优化算法之一,也是目前最常用的神经网络优化算法之一,基于随机梯度的优化算法在许多科学和工程领域都起了重要作用,许多机器学习的问题都可以转化为对其参数的辅助目标函数的优化问题。

随机梯度下降(SGD)作为目前优化神经网络最基础的迭代算法,其基本思想是:用在随机、小批量的子集上计算出的梯度近似在整个数据集上计算出的真实梯度。它不同于批量梯度下降,批量梯度下降是将全部的样本放入网络进行训练,随机梯度下降是在每次更新参数过程中随机选取一部分样本,使得训练速度加快。如公式(3.2),SGD 每一步用小批量样本迭代更新权重。

式中 η—— 算法的学习率;

E(wt)—— 关于第t次迭代权重wt的损失函数;

wE(wt)—— 权重w在t时刻关于损失函数的一阶梯度,简记为gt

wi +1—— t+1时刻的权重值;

wt—— t时刻的权重值;

Δw—— 梯度算子,即每次迭代的权重更新部分。

随机梯度下降优化算法的主要优点是:通过使用小批量的数据进行训练并优化网络,有效地分担计算过程中对GPU产生的压力;在训练时仅使用少量的数据,代表训练过程中会多次对梯度进行更新,在有些数据集当中可以加快其收敛速度。