9.2 SVM回归预测模型
支持向量机是Vapnik等人于1995年首先提出的[4],它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。
根据文献[5]和[6]等有关文献的论述,本节简述其方法如下。
对于线性情况,支持向量机函数拟合首先考虑用线性回归函数f(x)=ω·x+b拟合(xi,yi),i=1,2,…,n,xi∈Rn为输入量,yi∈R为输出量,即需要确定ω和b。
惩罚函数是学习或训练模型在学习过程中对误差的一种度量,一般在模型学习前已经选定,不同的学习问题对应的损失函数一般也不同,同一学习问题选取不同的损失函数得到的模型也不一样。标准支持向量机采用ε-不灵敏度函数。这时,该问题转化为求优化目标函数最小化问题:


