3.7.3 改进的最小二乘支持向量机
2025年09月26日
3.7.3 改进的最小二乘支持向量机
将式(3-88)的优化泛函改进为如下形式:
式中:vi=yi/ymax为峰值识别系数;λi为vi的放大系数。
同样,求解式(3-94)的优化问题,引入Lagrange函数:
最优的αi和b根据KKT(Karush-Kuhn-Tucker)条件得到:
由式(3-96),优化问题转化为求解如下的线性方程:
得到非线性回归函数的解为:
称为峰值识别最小二乘支持向量机模型(λivi-SVM模型)。
SVM是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理”,大大简化了通常的分类和回归等问题。
由于有较为严格的统计学习理论作保证,应用SVM方法建立的模型具有较好的推广能力。SVM方法可以给出所建模型推广能力的严格的界,这是目前其他任何学习方法所不具备的。建立任何一个数据模型,人为的干预越少越客观。与其他方法相比,建立SVM模型所需要的先验干预较少。
但核函数的选定及有关参数的优化、模型训练和测试速度等问题仍是目前尚未很好解决的问题。SVM通过核函数实现到高维空间的非线性变换,所以适合于解决本质上非线性的分类、回归和密度函数估计等问题。