1500字范文,内容丰富有趣,写作好帮手!
1500字范文 > 支持向量机原理(一)线性支持向量机

支持向量机原理(一)线性支持向量机

时间:2022-08-07 13:26:28

相关推荐

支持向量机原理(一)线性支持向量机

SVM压制了神经网络好多年,如果不考虑集成学习算法,不考虑特定的训练集,在分类算法中SVM表现排第一。

SVM是一个二元分类算法。

SVM学习策略:间隔最大化,可形式化为一个求解凸二次规划问题。

间隔最大化使它有别于感知机。

SVM包括核技巧,使它成为非线性分类器。

支持向量机模型包括:线性可分支持向量机、线性支持向量机、非线性支持向量机。当训练集线性可分,通过硬间隔最大化学习的线性分类器为线性可分支持向量机,又称硬间隔支持向量机;通过软间隔最大化学习的线性分类器为线性支持向量机,又称软间隔支持向量机;当训练及线性不可分,通过核技巧及软间隔最大化学习的称为非线性支持向量机。

1. 回顾感知机模型

在感知机原理中,在二维就是找到一条直线,在三维或者更高维就是找到一个超平面,将所有二元类别分开。这个超平面定义为:wTx+b=0。如图,在超平面wTx+b=0上方定义y=1,在超平面下方定义y=-1。可以看出满足这个超平面的不止一个。我们尝试找到最好的。

感知机损失函数优化的思想:让所有误分类点(定义为M)到超平面的距离之和最小,即下面式子的最小化:

当w和b扩大N倍,分母L2范数也会扩大N倍。也就是分子,分母有倍数关系。所以可以固定分子或分母为1,然后求分母倒数或另一个分子最小化作为损失函数。感知机模型中,固定分母||w||2=1,则感知机损失函数简化为:

2. 函数间隔与集合间隔

超平面为wTx+b=0,|wTx+b|为点x到超平面的相对距离。当wTx+b与y同号,分类正确,否则,分类不正确。这里引入函数间隔的感念,定义函数间隔 γ’为:

即函数间隔就是感知机模型中误分类点到超平面距离的分子。对于训练集中m个样本点对应的m个函数间隔的最小值,就是整个训练集的函数间隔。

函数间隔并不能正常反应点到超平面的距离,在感知机模型中,分子成比例增长,分母也增长。为了统一度量,对法向量w加上约束条件,得到几何间隔γ为:

几何间隔是点到超平面的真正距离,感知机模型里用到的距离就是几何距离。

3. 支持向量

感知机利用误分类最小的策略,求得分离超平面有无穷多个;线性可分支持向量机利用间隔最大化求得最优分离超平面只有一个。

如图,线性可分支持向量机:决策边界(实),间隔边界(虚),支持向量(红点)。

支持向量到超平面的距离为1/||w||2,两个支持向量之间的距离为2/||w||2。

4. SVM模型目标函数与优化

SVM模型:让所有点到超平面的距离大于支持向量到超平面的距离。数学表达式:

一般取函数间隔r‘(i)为1,表达式变为:

也就是说在约束条件下 yi(wTxi + 1)≥1 (i = 1,2,3...m)下,最大化1/||w||2。可以看出,SVM是固定分子优化分母,同时加上支持向量的限制。

由于的最大化等同于最小化。所以SVM的优化函数等价于:

由于目标函数是凸函数,同时约束条件不等式是仿射的,根据凸优化理论,通过拉格朗日函数将优化目标转化为无约束的优化函数,这和最大熵模型原理中讲的目标函数优化方法一样。优化函数转化为:

由于引入拉格朗日乘子,优化目标变为:

和最大熵模型一样,这个优化函数满足KKT条件,可以通过拉格朗日对偶将优化问题转化为等价的对偶问题。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。