全球旧事资料 分类
龙源期刊网httpwwwqika
comc
支持向量机分类与回归
作者:宋晓晶封丹丹来源:《科教导刊电子版》2017年第25期
摘要支持向量机(supportvectormachi
e,SVM)是一种基于统计学习理论的新型的机器学习方法,由于出色的学习性能,已经成为当前机器学习界的研究热点。本文系统地介绍了支持向量机分类和回归的理论基础,运用统计软件对分类和回归进行数值模拟实验并分析结果。
关键词支持向量机统计学习理论分类回归
中图分类号:P39文献标识码:A
1SVM理论
支持向量机是建立在统计学习理论基础上的一种数据挖掘方法,可以处理回归问题(时间序列分析)和模式识别(分类问题、判别分析)等诸多问题。国际上有很多关于SVM的研究报道,目前已经被成功应用到各种实际问题,如粒子鉴定、脸谱识别、文本分类、生物信息等。支持向量机的实现原理是:通过某种事先选择的非线性映射(核函数)将输入向量映射到一个高维特征空间,在这个空间中构造最优分类超平面。
11支持向量机
对于给定的训练样本集(x1,y1),(x2,y2),…,(x,y),如果样本是线性可分离的,设划分超平面L的方程为:(wx)b0,为了使分类面对所有样本正确分类并且具备分类间隔,就要求它满足如下约束:
yi(wx)b)≥1i1,2,…,
分类间隔为2w,因此建立线性支持向量机的问题转化为求解如下一个二次凸规划问题:
(1)
应用Lagra
ge乘子法并考虑满足KKT条件,求得最优超平面决策函数为:
(2)
其中,为确定最优划分超平面的参数,为两个向量的点积。
f龙源期刊网httpwwwqika
comc
12非线性支持向量机
SVM方法真正价值是用来解决非线性问题。思路是通过一个非线性映射,把样本空间映射到一个高维乃至无穷维的特征空间。之后根据Mercer定理,如果只用到映象的点积,则可以用相对应的核函数K(x,y)((x)(y))来代替,不需要知道映射的显性表达式。这是从线性支持向量机到非线性支持向量机的关键一步。在特征空间中应用线性支持向量机的方法,分类决策函数式(2)变为:
(3)
考虑到Mercer定理,上式化简为:
(4)
这就是非线性支持向量学习机的最终分类决策函数。在实际运算中,我们只需求出支持向量及其支持的“强度”和阈值,通过核函数的计算,即可得到原来样本空间的非线性划分输出值。
13SVM回归
SVR是将模式识别问题中得到的结果在回归情况下的推广。在回归情况下需要引入不敏感损失函数,它的含义是如果预测值和实际值之间的差别小于,则损失等于0,尽管预测值与观测值r
好听全球资料 返回顶部