首页 理论教育 支持向量回归机算法解析与优化技巧

支持向量回归机算法解析与优化技巧

时间:2023-05-28 理论教育 版权反馈
【摘要】:此时最优化问题变为通过求解其对偶问题,可以如下支持向量回归机算法:1)设已知的样本集S={,,…由于除了核函数外,参数ε需要人为指定,因此该算法又称为ε-支持向量回归机。在支持向量回归机中,如果计算出的或,则称样本集式中对应的xi为支持向量。支持向量具有稀疏性,也就是说,并不是所有的样本点都是支持向量。

支持向量回归机算法解析与优化技巧

首先考虑线性回归问题,即限定所寻求函数f(x,α)为线性函数

fxw)=(w·x)+b (2-30)

假设所有样本数据可以在ε-不敏感函数的意义下无误差地用式(2-30)拟合,其参数w的求取可以表示如下

在约束不能满足的条件下,引入松弛变量ζ(∗)=(ζ1ζ1ζ2ζ2,…,ζlζl)和惩罚参数C得到如下的最优化问题

对于非线性的回归问题,引入非线性变换φxi)将原始样本集映射到高维的Hilbert空间中,在此空间中原问题可用线性回归方法解决。具体来说,引入从输入空间Rn到Hilbert空间H的变换

x∈RnH

φ: (2-33)

x|→φx

把样本集式(2-25)映射为

S′={(φx1),y1),(φx2),y2),…,(φxl),yl)} (2-34)

可以证明,优化算法式(2-32)在映射后的特征空间只涉及φxi)与φxj)的内积运算而不涉及单独运算,如果能定义某类函数Kxixj)=φxi)·φxj),则甚至不必知道φxi)与φxj)的具体形式。这样就可以极大地简化映射后的高维空间中的向量运算。统计学习理论指出,根据Hilbert-Schmidt原理,只要一种运算满足Mercer条件,它就可以作为内积使用。

Mercer条件表述为:对于任意的对称函数Kxx′),它是某个特征空间中的内积运算的充分必要条件是,对于任意的φx)≢0且∫φ2x)dx<∞,有

Kxx′φxφx′)dxdx′>0 (2-35)

函数Kxx′)又称为核函数。常用的核函数有

1.多项式核函数

Kx,x)=(x·x′+cd (2-36)

式中 c≥0;

d——任意正整数。(www.xing528.com)

2.Gauss径向基核函数

3.Sigmoid核函数

Kxx′)=tanh(Kxx′)+v) (2-38)

式中,K>0,v<0。

此时最优化问题变为

通过求解其对偶问题,可以如下支持向量回归机算法:

1)设已知的样本集

S={(x1y1),(x2y2),…,(xlyl)} (2-40)

式中 xiχ=RnyiRi=1,2,…,l)。

2)选取适当的核函数Kxx′)和正数εC,构造并求解最优化问题

利用Lagrange函数及Kuhn-Tucker条件,求得最优解为

3)构造决策函数。

式中 b——按式(2-44)计算。

选择位于开区间(0,C)中的978-7-111-43722-2-Chapter02-39.jpg978-7-111-43722-2-Chapter02-40.jpg。若选到的是978-7-111-43722-2-Chapter02-41.jpg,则

若选到的是978-7-111-43722-2-Chapter02-43.jpg,则

对于式(2-45),同支持向量分类机一样,当978-7-111-43722-2-Chapter02-45.jpg,样本xi回归方程是没有贡献的,而978-7-111-43722-2-Chapter02-46.jpg978-7-111-43722-2-Chapter02-47.jpg对应的xi将参与到回归方程的构建中,因此将这些xi称为支持向量。由于除了核函数外,参数ε需要人为指定,因此该算法又称为ε-支持向量回归机(ε-SVR)。

在支持向量回归机中,如果计算出的978-7-111-43722-2-Chapter02-48.jpg978-7-111-43722-2-Chapter02-49.jpg,则称样本集式(2-40)中对应的xi为支持向量。支持向量具有稀疏性,也就是说,并不是所有的样本点都是支持向量。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈