全球旧事资料 分类
gx等价,且为四维空间中的线性函数。这样,我
们就将低维的非线性可分问题转化为了高维的线性可分问题。
但遗憾的是,目前还没有一种系统地将低维向量映射到高维的方法5。
第7页共14页
f密

线
事实上,计算过程中我们只关心高维向量之间的内积,只要找出一种方法可以求出此值就得到了我们想要的结果。
核函数(ker
elfu
ctio
)正是为了求出低维空间的向量经过变换后在高维空间的内积而提出的。并且由于其输入为原空间中的低维向量,避开了高维变换计算问题,使得问题大大简化了。
根据泛函的有关理论,只要一种核函数Kxixj满足Mercer条件,它就对应某一变换空
间中的内积6。
Mercer条件:对任意的对称函数Kxx它是某个特征空间中的内积运算的充分必要条
件是,对任意x0,且2xdx,有Kxxxxdxdx0
用核函数替换内积函数后,此时的最优分类目标函数变为

fxsg
iyiKxixbi1
此时由于计算仍在原空间进行,分类器的计算复杂度没有增加4。
目前,常用的核函数有以下几种:
线性核函数:
多项式核函数:
Kxixjxixj
径向基函数(RBF):Sigmoid函数:
Kxixjxixj1d
Kxixjexp
xi
xj
2

Kxixjta
hvxixjc
这时SVM实现的是包含一个隐层的多层感知器,隐层节点数是由算法自动确定的,而且
算法不存在困扰神经网络方法的局部极小点问题。
第8页共14页
f密

线
(四)松弛变量及惩罚因子核函数解决了低维向高维空间映射的计算问题,但如果映射到高维空间之后有少量样本
的存在使得问题仍然是非线性可分的,这种造成少量错分的问题称为近似线性可分。如图
41松弛变量
此时我们对错分样本点i引入一非负松弛变量i使其间隔可以大于规定的间隔。并使用
一个惩罚因子C衡量其带来的损失。此时,我们的原始优化问题就变为:
mi

1
2
w2
l
Ci
i1
subjecttoyiwxib1ii12li0
此时,近似线性可分问题就转为了线性可分问题。由此得到的分类器称为软间隔分类器,之前未加入松弛变量得到的分类器为硬间隔分类器。
引入松弛变量可以获得更大的分类间隔,但同时也使分类器的精确分类能力降低了。
42惩罚因子
第9页共14页
f密

线
惩罚因子Cr
好听全球资料 返回顶部