理论教育 基于数据的建模方法优化技巧

基于数据的建模方法优化技巧

时间:2023-06-16 理论教育 版权反馈
【摘要】:2.基于神经网络的方法基于人工神经网络的软测量方法是当前工业领域中备受关注的热点,其特点是无须掌握对象的先验知识,只需根据对象的输入输出数据直接建模,在解决高度非线性方面具有很大的潜力。

基于数据的建模方法优化技巧

基于数据的建模方法是软测量技术得到系统研究和能够形成通用技术的一种途径,这类软测量方法有多种,如基于回归分析的方法、基于部分最小二乘法、基于神经网络的方法、基于支持向量机的方法、基于模糊数学的方法、基于层析成像的方法、基于模式识别的方法等。下面仅介绍在化工过程获得较为广泛应用的3种方法。

1.基于回归分析的方法

线性回归(multi-linear regression,MLR)方法是最早在化工过程中得到应用的方法,它也是基于最小二乘法参数估计的方法,采用统计回归方法建立软测量模型,只要能够将输入输出归纳成y=xb的线性方程形式(x为输入数据空间,y为输出数据空间,b为回归模型参数向量),就可以用最小二乘估计方法得到(x T x)T x T y,从而可以利用y=xb来进行软测量估算。

但特别需要注意:多线性回归问题是否有解取决于(x T x)-1是否存在,当存在线性相关变量时,x为病态矩阵,(x T x)-1不存在,此时不能采用最小二乘法求解,只能采用主元回归(principal component regression,PCR)法或偏最小二乘(partial least squares,PLS)法。它们都是基于主元分析(principal component analysis,PCA),即将处于高维数据空间的x矩阵投影到低维特征空间,特征空间主元素保留了原始数据的特征信息而忽略了冗余信息,且它们之间是两两互不相关的。

PCR法是对输入数据空间进行主元分析,得到能反映输入数据空间主要信息的主元,完全去除了线性相关数据的影响,建立主元与输出y的回归关系,实现输入变量对输出变量的估计。PLS法不仅对输入数据空间进行主元分析,也对输出数据空间进行主元分析,并得到输入输出间的回归关系,并保证二者的主元相关性最大,实现输入变量对输出变量的最佳估计,是一种比较优异的统计分析法,在软测量应用中占有重要位置。

2.基于神经网络的方法

基于人工神经网络的软测量方法是当前工业领域中备受关注的热点,其特点是无须掌握对象的先验知识,只需根据对象的输入输出数据直接建模,在解决高度非线性方面具有很大的潜力。常用人工神经网络的结构和学习算法如下。

1)MFN(multilayer feed-forward)网络(www.daowen.com)

MFN网络提供了能够逼近广泛非线性函数的模型结构,事实上只要允许有足够多的神经元,任何非线性连续函数都可由一个三层前向网络以任意精度来逼近。最早用于该种网络的学习算法是BP(back propagation)算法,也是应用最多的学习算法,是一种非线性迭代寻优算法。MFN网络广泛应用于软测量计算,而且目前已有许多改进学习算法可供选择。

2)RBF(radical basis functions)网络

RBF网络是一个两层的前向网络,输入数目等于所研究问题的独立变量数,中间层选取基函数作为转移函数,输出层为一个线性组合器。理论上RBF网络具有广泛的非线性适应能力,与BP算法相比,RBF网络的学习算法不存在学习的局部最优问题,且由于参数调整是线性的,可获得较快的收敛速度。相比MFN,其神经元函数是局部性函数,有更高的逼近精度和学习速度,但对同样规模的问题需要更多的神经元。

当然,各种软测量技术的结合也产生了一些改进方法,如神经网络和PLS相结合的非线性PLS、神经网络和模糊技术相结合的模糊神经网络,都丰富和改进了软测量技术。

3.基于支持向量机(SVM)的方法

支持向量机是一种基于统计学习理论的学习方法,由于其数学理论基础严密,与其他学习方法相比,有更好的非线性处理能力和推广能力。特别是SVM采用结构风险最小化原则,避免了神经网络容易出现的局部极小和过拟合问题,而且SVM的拓扑结构可由支持向量机决定,避免了神经网络拓扑结构需要经验试凑的局限性。

最小二乘支持向量机是SVM的一种改进算法,通过构造损失函数将原支持向量机中算法的二次寻优变为求解线性方程,运算速度快,在一些工业生产过程中得到应用。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈