数学建模-支持向量机
- 格式:ppt
- 大小:825.50 KB
- 文档页数:28
⽀持向量机(SVM)原理详解SVM简介 ⽀持向量机(support vector machines, SVM)是⼀种⼆分类模型,它的基本模型是定义在特征空间上的间隔最⼤的线性分类器,间隔最⼤使它有别于感知机;SVM还包括核技巧,这使它成为实质上的⾮线性分类器。
SVM的的学习策略就是间隔最⼤化,可形式化为⼀个求解凸⼆次规划的问题,也等价于正则化的合页损失函数的最⼩化问题。
SVM的的学习算法就是求解凸⼆次规划的最优化算法。
⼀、⽀持向量与超平⾯在了解svm算法之前,我们⾸先需要了解⼀下线性分类器这个概念。
⽐如给定⼀系列的数据样本,每个样本都有对应的⼀个标签。
为了使得描述更加直观,我们采⽤⼆维平⾯进⾏解释,⾼维空间原理也是⼀样。
举个简单⼦:如下图所⽰是⼀个⼆维平⾯,平⾯上有两类不同的数据,分别⽤圆圈和⽅块表⽰。
我们可以很简单地找到⼀条直线使得两类数据正好能够完全分开。
但是能将据点完全划开直线不⽌⼀条,那么在如此众多的直线中我们应该选择哪⼀条呢?从直观感觉上看图中的⼏条直线,是不是要更好⼀些呢?是的,我们就是希望寻找到这样的直线,使得距离这条直线最近的点到这条直线的距离最短。
这读起来有些拗⼝,我们从如下右图直观来解释这⼀句话就是要求的两条外⾯的线之间的间隔最⼤。
这是可以理解的,因为假如数据样本是随机出现的,那么这样分割之后数据点落⼊到其类别⼀侧的概率越⾼那么最终预测的准确率也会越⾼。
在⾼维空间中这样的直线称之为超平⾯,因为当维数⼤于三的时候我们已经⽆法想象出这个平⾯的具体样⼦。
那些距离这个超平⾯最近的点就是所谓⽀持向量,实际上如果确定了⽀持向量也就确定了这个超平⾯,找到这些⽀持向量之后其他样本就不会起作⽤了。
⼆、SVM算法原理 2.1 点到超平⾯的距离公式既然这样的直线是存在的,那么我们怎样寻找出这样的直线呢?与⼆维空间类似,超平⾯的⽅程也可以写成⼀下形式:(1) 有了超平⾯的表达式之后之后,我们就可以计算样本点到平⾯的距离了。
支持向量机操作方法有哪些
支持向量机(Support Vector Machine,SVM)是一种分类和回归分析的机器学习模型,常用于处理二分类问题。
以下是支持向量机的一些操作方法:
1. 数据预处理:首先,需要对数据进行预处理,包括数据清洗、特征选择、特征缩放等。
2. 选择核函数:SVM可以使用不同的核函数,如线性核函数、多项式核函数、径向基函数等。
选择适合问题的核函数可以提高SVM的性能。
3. 训练模型:使用训练数据集对SVM模型进行训练,通过找到最优的决策边界(超平面)来最大程度地分割不同类别的样本。
4. 参数调整:SVM有一些重要的参数需要设置,如正则化参数C、核函数参数等。
可以使用交叉验证等技术来选择最优的参数组合。
5. 样本分类:在训练模型之后,可以使用训练好的模型对新的样本进行分类预测。
6. 模型评估:对SVM模型进行评估,包括计算准确率、精确度、召回率、F1值等指标,以及生成混淆矩阵来分析模型的性能。
7. 超参数调优:对SVM模型的超参数进行调优,可以使用网格搜索、随机搜索等方法,以获得更好的模型性能。
8. 支持向量分析:分析支持向量的分布和权重,可以帮助了解模型的决策边界和影响预测结果的重要特征。
以上是一些常见的支持向量机操作方法,具体的应用还需要根据实际问题进行调整和优化。
支持向量机支持向量机,英文名为support vector machine,一般简称SVM,通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划(convex quadratic programming)问题的求解,支持向量机的学习算法是求解凸二次规划的最优化算法。
其方法包含构建由简到繁的模型:线性可分支持向量机、线性支持向量机和非线性支持向量机。
线性可分支持向量机假定一特征空间上的训练数据集T={(x1,y1),(x2,y2),⋯,(x N,y N)},其中x i∈χ= R n,y i∈Y={+1,−1},i=1,2,⋯,N,x i为第i个特征向量,也就是实例,y i为x i的类标记,当y i=+1时,称x i为正例;当y i=−1时,称x i为负例,(x i,y i)称为样本点。
再假设训练数据集是线性可分的,即存在某个超平面能够将正例和负例完全正确的分开,不妨设分离超平面方程为w∙x+b=0,法向量为w、截距为b。
一般地,当训练数据集线性可分时,存在无穷多个分离超平面可将两类数据正确分开,线性可分支持向量机利用间隔最大化求最优分离超平面,这是解是唯一的。
若最优分离超平面为w∗∙x+b∗=0,则分类决策函数为f(x)=sign(w∗∙x+b∗)。
在上图中,有A、B、C三个点,表示三个实例,设“。
”表示正类,“×”表示负类,则这三个点全在正类。
A距分类超平面较远,若预测该点为正类就比较确信预测是正确的;C距分类超平面较近,若预测该点为负类就不那么确信;B介于AC两者之间,预测为正类的确信度也在A与C之间。
故一般来说,点距离分离超平面的远近可以表示分类预测的确信程度。
在超平面w ∙x +b =0确定的情况下,|w ∙x +b |能够相对地表示点x 到超平面的远近,而w ∙x +b 的符号与类标记y 的符号是否一致可表示分类是否正确,所以y (w ∙x +b )可以来表示分类的真确性及确信度,我们称之为函数间隔。
⽀持向量机模型⽀持向量机模型(SVM)是⼀个⼆分类模型,基本思想是求解能够正确划分训练数据集并且⼏何间隔最⼤的分离超平⾯,其学习策略便是间隔最⼤化,最终化为⼀个凸⼆次规划问题的求解。
SVM可分为线性可分⽀持向量机、线性⽀持向量机和⾮线性⽀持向量机。
算法推导1. 线性可分⽀持向量机引⼊函数间隔和⼏何间隔线性向量机的基本思想是硬间隔最⼤化,即:\begin{aligned} \max_{w,b} \ \ \ \ &γ\\ s.t.\ \ \ \ \ &y_i·\frac{1}{||w||} ·(w·x_i+b)≥γ,i=1,2,…,N \end{aligned}即:\begin{aligned} \max_{w,b} \ \ \ \ &\frac{ŷ}{||w||}\\ s.t.\ \ \ \ \ &y_i·(w·x_i+b)≥ŷ,i=1,2,…,N \end{aligned}取ŷ=1,得\begin{aligned} \min_{w,b} \ \ \ \ &\frac{1}{2}{||w||}^2\\ s.t.\ \ \ \ \ &y_i·(w·x_i+b)-1≥0,i=1,2,…,N \end{aligned}这是⼀个凸⼆次规划问题,通过引⼊拉格朗⽇乘⼦法,构建拉格朗⽇对偶函数,通过求其对偶函数的解,从⽽得到原始问题的最优解。
定义拉格朗⽇函数:L(w,b,α)= \frac{1}{2}{||w||}^2-\sum_{i=1}^N{α_iy_i (w·x_i+b)}+\sum_{i=1}^N{α_i}其中,α={(α_1,α_2,…,α_N)}^T为拉格朗⽇乘⼦向量,α_i≥0,i=1,2,…,N原始问题的对偶问题是极⼤极⼩问题:\max_α{\min_{w,b} L(w,b,α)}求解对偶问题求\min_{w,b} L(w,b,α)分别对w,b求偏导数并令其为0:\begin{aligned} \nabla_w L(w,b,α)=w-\sum_{i=1}^N{α_i y_i x_i}=0 \\ \nabla_b L(w,b,α)=\sum_{i=1}^N{α_i y_i}=0 \end{aligned}得\begin{aligned} w=\sum_{i=1}^N{α_i y_i x_i} \\ \sum_{i=1}^N{α_i y_i}=0 \end{aligned}代⼊拉格朗⽇函数,得L(w,b,α)= \frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j+b)-\sum_{i=1}^N{α_i y_i ((\sum_{j=1}^N{α_j y_jx_j})·x_i+b)}+\sum_{i=1}^Nα_i= -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i即\min_{w,b} L(w,b,α) = -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i求\min_{w,b} L(w,b,α)对α的极⼤:\max_{α}\ \ \ -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_is.t.\ \ \ \sum_{i=1}^N{α_i y_i}=0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ α_i≥0,i=1,2,…,N即:\min_{α}\ \ \ \frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)-\sum_{i=1}^Nα_is.t.\ \ \ \sum_{i=1}^N{α_i y_i}=0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ α_i≥0,i=1,2,…,N求得最优解1\alpha^x={({\alpha_1}^x,{\alpha_2}^x,…,{\alpha_N}^x)}^{T}计算w^*=\sum_{i=1}^N {α_i}^x y_i x_i并选择α^x的⼀个正分量{α_j}^x>0,计算b^x=y_i-\sum_{i=1}^N {α_i}^x y_i (x_i·x_j)求得分类决策函数:f(x)=sign(w^x·x+b^x)可知w^x,b^x只依赖训练数据中对应于{α_i}^x>0的样本点(x_i,y_i),⽽其他样本点对w^x,b^x没有影响。
使用支持向量机模型进行模型解释的技巧支持向量机(Support Vector Machine,SVM)是一种机器学习算法,常用于分类和回归问题。
它在处理非线性和高维数据时表现出色,因此在许多领域得到广泛应用。
然而,SVM模型通常被认为是“黑盒”模型,难以解释其预测结果。
在实际应用中,我们往往需要对模型进行解释,以了解模型对特征的重要性和预测的依据。
本文将介绍使用支持向量机模型进行模型解释的技巧。
特征重要性分析在解释SVM模型之前,首先需要了解模型中各个特征的重要性。
一种常见的方法是使用SVM的系数和支持向量来衡量特征的重要性。
系数表示了模型对特征的权重,而支持向量则是决定了模型的分隔超平面的关键样本点。
通过分析系数和支持向量,可以得知哪些特征对模型的预测结果影响较大。
另一种方法是使用特征重要性评估算法,如基于树的算法(如随机森林)或基于模型的算法(如SHAP)。
这些算法可以在不同程度上衡量各个特征对SVM模型的影响,从而帮助理解模型的决策过程。
局部解释与全局解释SVM模型的解释可以分为局部解释和全局解释。
局部解释指的是针对单个样本的解释,可以帮助理解模型是如何做出特定预测的。
全局解释则是对整个模型的解释,可以揭示模型对所有样本的整体决策规则。
在进行局部解释时,可以使用局部解释方法,如LIME(Local Interpretable Model-agnostic Explanations)或SHAP值来解释单个样本的预测结果。
这些方法能够以可解释的方式描述模型在特定样本上的决策依据,帮助用户理解模型的预测逻辑。
而在进行全局解释时,可以使用全局解释方法,如模型特征重要性排序、决策规则可视化或特征重要性的统计分析。
这些方法可以帮助用户全面了解模型的决策逻辑,从而更好地理解模型对输入特征的整体依赖关系。
交互式可视化在解释SVM模型时,交互式可视化是一种有力的工具。
通过交互式可视化,用户可以自由地探索模型的决策过程和特征之间的关系,从而更加直观地理解模型的预测逻辑。