基于模糊单类支持向量机的丢包区分算法
- 格式:pdf
- 大小:305.61 KB
- 文档页数:5
基于模糊逻辑算法的分类器设计与应用探索 在当今信息爆炸的时代,面对海量的数据和复杂多样的问题,如何高效地进行分类和判断成为了一项重要的任务。传统的精确逻辑算法在解决某些问题上存在着局限性,这时候模糊逻辑算法便出现在我们的视野中。本文将探讨基于模糊逻辑算法的分类器设计与应用,并深入研究其在实际问题中的优势与问题。
一、模糊逻辑算法简介 模糊逻辑算法是一种处理模糊信息的数学方法,它引入了模糊集合和隶属度的概念,允许数据具有多个隶属度。与传统的二元逻辑不同,模糊逻辑允许事物存在于模糊和不确定的状态之中,更贴合现实世界的复杂性。常用的模糊逻辑算法有模糊C均值算法(FCM)和模糊支持向量机(FSVM)等。
二、基于模糊逻辑算法的分类器设计 1. 模糊C均值算法(FCM) 模糊C均值算法是一种无监督学习算法,其主要思想是将数据点划分为模糊集合,通过迭代计算得到最优的聚类中心。在分类问题中,我们可以将不同类别的数据点进行模糊划分,即每个数据点属于不同类别的隶属度可以不是二元的,而是一个[0,1]区间的实数。通过FCM算法,我们可以获得模糊的分类结果,更加准确地反映了数据点属于不同类别的可能性。
2. 模糊支持向量机(FSVM) 模糊支持向量机是一种监督学习算法,它在传统支持向量机的基础上引入了模糊隶属度的概念。FSVM算法通过将样本点表示成模糊隶属度矩阵的形式,将分类问题转化为求解一组模糊隶属度的优化问题。通过调整隶属度的值,我们可以灵活地控制模糊分类器的特征。
三、基于模糊逻辑算法的应用探索 1. 图像分类 在图像分类中,传统的二值逻辑算法往往无法准确地识别具有模糊边界的物体。通过引入模糊逻辑算法,我们可以更好地处理图像中的模糊信息,实现更准确的分类结果。例如在人脸识别中,人脸图像往往存在着不同角度、光照和噪声等因素的干扰,模糊逻辑算法可以更好地应对这些复杂情况。
2. 自然语言处理 在自然语言处理中,词义的模糊性是一个常见的问题。同一个词在不同的语境中可能具有不同的含义,这给文本分类和信息提取带来了一定的挑战。通过模糊逻辑算法,可以将词语的隶属度表示为一个概率分布,更好地捕捉词义的多样性,提高文本分类和信息提取的准确性。
基于模糊支持向量机的多标签分类方法改进郭晨晨;朱红康【摘要】Multi labels sorting of one-against-all support vector machine (SVM)exists the problems that the sample is sorted into training set while undefined area can′t be acquired,also,label without clear deci-sion function has vague area.So,a multi labels sorting improved method (FSVMi)was put forward based on vague SVM.By merging multiterm decision boundary and allocating corresponded subordinate function for each label,it is verified by experiment that it has superiority over existed method.%One-against-all支持向量机的多标签分类存在将样本分类到训练集无法获取标签的"未定义"区域和没有明确决策函数的标签模糊区域的问题.对此提出一种基于模糊支持向量机的多标签分类改进方法(FSVMi).该方法通过将多条决策边界合并,并为每个标签类分配相应的隶属函数.实验结果表明,相比于现有方法,该方法更具有优越性.【期刊名称】《甘肃科学学报》【年(卷),期】2017(029)006【总页数】5页(P6-10)【关键词】One-against-all;模糊支持向量机;多标签分类;决策边界;隶属函数【作者】郭晨晨;朱红康【作者单位】山西师范大学数学与计算机科学学院,山西临汾 041000;山西师范大学数学与计算机科学学院,山西临汾 041000【正文语种】中文【中图分类】TP18在分类问题中,单个样本点通常被分到单个类中。
基于支持向量机算法的异常检测算法异常检测算法是一种在数据中发现异常行为的技术,它可以帮助我们找出那些难以通过人工方法发现的异常点,提高数据的安全性和可靠性。
其中基于支持向量机算法的异常检测算法是一种非常有效的技术,下面我们来详细了解一下。
首先,我们需要知道什么是支持向量机算法,它是一种利用机器学习技术进行分类和回归分析的算法,其主要思想是寻找一条能够将两个不同类别的数据尽可能分开的超平面,从而得到一个划分区域。
在分类问题中,如果某个新的数据点出现在超平面的一侧,则将其分为该类别;反之,如果出现在另一侧,则将其分为另一个类别。
在回归问题中,支持向量机算法则是找到一个尽可能适合数据的超平面,从而做出一个预测。
然后,我们需要知道什么是异常检测,它是一种通过对数据进行统计分析、数据挖掘和机器学习等技术的检测方法,来检测数据中的异常行为。
在异常检测中,我们需要考虑两个方面:什么样的数据被视为异常?如何检测出这些异常数据?在支持向量机算法中,异常数据通常指那些跟其他数据明显不同的数据点,它们会远离大多数数据点,并且无法被任何超平面所界定。
因此,基于支持向量机算法的异常检测算法主要是通过训练SVM模型,找到一个能够分割正常数据和异常数据的超平面,从而实现异常检测。
具体来说,基于支持向量机算法的异常检测主要包括两个步骤:第一步,构建一个合适的训练集。
训练集一般由正常数据和一小部分异常数据组成,正常数据用于训练SVM模型,而异常数据则用于测试该模型的检测能力。
第二步,利用SVM算法建立异常检测模型。
在这一步中,我们需要选择合适的核函数和正则化参数,从而得到一个最佳的超平面来分割正常数据和异常数据。
有时候,我们也会使用一些特殊的SVM算法,例如二值SVM和非对称SVM等,以提高模型的准确性。
需要注意的是,基于支持向量机算法的异常检测算法并不是适用于所有情况的。
它主要适用于那些数据量较小、特征空间维数较高、异常数据相对较少的场景中。
模糊支持向量分类机
杨志民;田英杰;邓乃扬
【期刊名称】《计算机工程》
【年(卷),期】2005(031)020
【摘要】研究了当训练点的输出为模糊数时支持向量分类机的构建问题.对于线性模糊分类问题,首先将其转化为模糊系数规划.利用模糊系数规划的最优规划,求解模糊系数规划得到模糊最优解(模糊集合)以及模糊最优分类函数集(取值为最优分类函数而隶属度为的模糊集合),从而构造线性模糊支持向量分类机.对于非线性模糊分类问题,引入核函数,类似于线性模糊分类问题得到非线性模糊支持向量分类机.最后构造显示模糊支持向量分类机特点的模糊支持向量集(取值为模糊训练点,隶属度为的模糊集合).模糊支持向量分类机较好地解决了支持向量机中含有模糊信息的分类问题.
【总页数】3页(P25-26,32)
【作者】杨志民;田英杰;邓乃扬
【作者单位】中国农业大学经济管理学院,北京,100083;浙江工业大学之江学院理学系,杭州,310024;中国农业大学经济管理学院,北京,100083;中国农业大学理学院,北京,100083
【正文语种】中文
【中图分类】TP181
【相关文献】
1.基于模糊系数规划的模糊支持向量分类机 [J], 杨志民;田英杰
2.模糊支持向量分类机在冠心病诊断中的应用 [J], 杨志民;齐志泉
3.基于最小二乘支持向量分类机的齿轮泵\r故障诊断研究 [J], 何庆飞;陈小虎;姚春江;王德文;张宁
4.支持向量分类机LIBSVM方法识别天然地震、爆破与塌陷 [J], 范晓易; 曲均浩; 曲保安; 刘方斌; 山长仑; 周少辉
5.基于改进PSO算法参数优化的模糊支持向量分类机 [J], 石磊;侯丽萍
因版权原因,仅展示原文概要,查看原文内容请购买。
数据挖掘中的支持向量机算法数据挖掘是一门利用大数据进行模式识别、预测和决策的学科。
在数据挖掘的过程中,算法的选择和应用非常重要。
支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,被广泛应用于数据挖掘领域。
支持向量机是一种基于统计学习理论的监督学习算法。
它的目标是找到一个超平面,能够将不同类别的样本分隔开来,并且使得两个类别之间的间隔最大化。
这个超平面被称为决策边界,它能够对新的样本进行分类。
支持向量机的核心思想是将低维的样本映射到高维空间,从而使得样本在高维空间中线性可分。
在高维空间中,支持向量机通过寻找最优的超平面来实现分类。
这个超平面由支持向量所确定,它们是离决策边界最近的样本点。
支持向量机的训练过程就是通过调整超平面的参数,使得支持向量到决策边界的距离最大化。
支持向量机算法具有以下几个优点。
首先,支持向量机是一种非常强大的分类器,具有较高的准确性和泛化能力。
其次,支持向量机是一种比较稳定的算法,对于数据的噪声和异常值具有较强的鲁棒性。
此外,支持向量机算法还能够处理高维数据和非线性数据,通过使用核函数将样本映射到高维空间进行分类。
虽然支持向量机算法在数据挖掘中具有广泛的应用,但是它也存在一些限制和挑战。
首先,支持向量机算法的计算复杂度较高,特别是在处理大规模数据集时。
其次,支持向量机算法对于参数的选择非常敏感,需要通过交叉验证等方法来确定最优的参数。
此外,支持向量机算法在处理多类别分类问题时需要进行一些扩展,如一对多和一对一方法。
为了克服支持向量机算法的一些限制,研究者们提出了一系列的改进和扩展算法。
例如,基于核函数的支持向量机算法可以处理非线性分类问题。
此外,多核支持向量机算法可以利用多个核函数来提高分类性能。
还有一些基于支持向量机的集成学习算法,如支持向量机融合和支持向量机堆叠等,可以进一步提高分类准确性。
总之,支持向量机算法是数据挖掘中一种重要的分类算法。
支持向量机模型对于缺失数据的处理策略在机器学习领域,支持向量机(Support Vector Machine,简称SVM)是一种常用的分类和回归算法。
然而,在实际应用中,我们经常会遇到数据缺失的情况。
对于缺失数据的处理,SVM也有一些策略可以采用。
首先,我们需要了解缺失数据的类型。
缺失数据可以分为完全随机缺失、非随机缺失和随机缺失三种类型。
完全随机缺失是指数据缺失与任何其他变量无关,这种情况下,我们可以直接将缺失数据排除。
非随机缺失是指数据缺失与其他变量有关,这种情况下,我们需要采用一些方法来处理缺失数据。
随机缺失是指数据缺失的原因不确定,这种情况下,我们可以通过一些统计方法来估计缺失数据。
对于非随机缺失,SVM可以采用多种策略来处理。
一种常见的方法是使用插补技术,通过已有的数据来预测缺失数据的值。
插补技术可以分为单变量插补和多变量插补两种。
单变量插补是指根据单个变量的信息来估计缺失数据,常用的方法有均值插补和回归插补。
均值插补是指用该变量的均值来代替缺失值,回归插补是指通过回归模型来预测缺失值。
多变量插补是指根据多个变量的信息来估计缺失数据,常用的方法有多重插补和期望最大化算法。
多重插补是指通过生成多个完整数据集来估计缺失值,期望最大化算法是指通过最大化似然函数来估计缺失值。
另一种常见的处理策略是删除含有缺失数据的样本。
这种方法适用于缺失数据比例较小的情况,如果缺失数据比例较大,删除样本可能会导致数据集过小,影响模型的性能。
因此,在使用此策略时需要谨慎权衡。
除了插补和删除样本的方法外,SVM还可以使用特殊的技术来处理缺失数据。
一种常见的方法是使用核函数来处理缺失数据。
核函数是SVM中的一个重要概念,可以将低维空间中的数据映射到高维空间中,从而解决非线性可分问题。
在处理缺失数据时,我们可以利用核函数的映射特性,将缺失数据映射到高维空间中,从而得到更准确的分类结果。
此外,还有一些其他的策略可以用于处理缺失数据。
单分类支持向量机的学习方法研究支持向量机(Support Vector Machine, SVM)是在统计学习理论基础上发展起来的新型机器学习算法。
SVM采用结构风险最小化原则,同时最小化经验风险和置信范围,具有拟合精度高、选择参数少、推广能力强和全局最优等优势。
SVM 为解决小样本、高维数及非线性等问题提供了有效工具,已成为机器学习领域中研究热点之一并得到了广泛应用。
SVM是针对二分类问题提出的,需要两种类别的样本作为训练样本。
在实际应用中,有些领域几乎无法获取两类的样本或者代价极高,如敌我识别、攻击样本、卫星故障等,只能获取一个类别的样本,故只能利用这一类样本进行学习,形成数据描述从而实现分类,故出现了单分类算法。
支持向量数据描述(Support Vector Data Description, SVDD)和一类支持向量机(one-class support vector machine, OCSVM)是SVM算法扩展成的单分类算法。
在相同的高斯核函数作用下,两种算法完全等价,合称之为单分类支持向量机(1-SVM).“工欲善其事,必先利其器”。
要使1-SVM能更好地应用于实际工程问题,首先需要解决1-SVM的训练或学习问题,其过程实际上是求解一个二次规划(OP)问题。
本文以提高1-SVM的学习能力为目标,分别对1-SVM的粒子群优化学习、快速学习以及增量学习三个方面进行了研究,并提出了相应的解决方案,主要工作如下:提出将粒子群优化算法(PSO)的一种扩展算法——线性粒子群优化算法(LPSO)应用到1-SVM的学习上。
为了解决粒子飞行到群体最优位置容易陷入停滞状态而过早收敛的问题,采用改变群体最优粒子飞行方式的策略,使群体最优粒子与其他粒子按照不同的方式飞行,改善了LPSO算法的收敛性能,并将此方法应用到LPSO学习1-SVM的过程中。
LPSO为解决1-SVM的学习问题提供了新思路。
针对1-SVM的大规模样本集的学习问题,受启发于随机取样算法在凸二次规划问题的成功应用,提出了一种基于随机取样算法的快速学习方法。
人工智能A r t i f i c i a l Intelligence基于模糊支持向量机的非平衡数据分类陈辉辉,白治江(上海海事大学信息工程学院,上海2〇13〇6)摘要:支持向量机(S V M)作为一种有效的机器学习技术可以很好地处理平衡数据集,然而除了对噪声点和野点敏感以外,S V M在非平衡数据分类时会偏向多数类(负类)样本,从而导致少数类(正类)的分类精度变差。
为了克服以上问题,提出了一 种改进的模糊支持向量机(F S V M)算法。
新算法在设计模糊隶属度时,不仅考虑样本到其所在类中心的距离,还考虑了样本的 紧密度特征。
实验结果表明,相对于标准S V M及已有的F S V M模型,新方法对于非平衡且含有噪声的数据集有更好的分类 效果。
关键词:非平衡数据集%模糊支持向量机%模糊隶属度%样本紧密度中图分类号:T P18文献标识码:A D O I:10. 19358/j.iss n. 1674-7720.2017.16.016引用格式:陈辉辉,白治江.基于模糊支持向量机的非平衡数据分类[J].微型机与应用,2017,36(16):56-59.Im balanced data classification based on FSVMChen H u ih u i,Bai Zhijiang(In fo rm a tio n E n g in e e rin g C o lle g e,S ha ng h ai M a ritim e U n iv e r s ity,S h a ng h ai 201306,C h in a)A b s tT c lC t:A s an ?fe c tiv e m a c h in e le a rn in g te c h n o lo g y,s u p p o rt v e c to r m a c h in e( S V M) can e ffe c tiv e ly h a n d le th e b a la n c c d datasets. H o w e ve r,a sid e fro m b e in g s e n s itiv e t o the n oise p o in ts a nd o u t lie r s,S V M tends to b ia s to w ard s the m a jo r ity! n e g a tiv e) class in an im b a la n c e d d ata set and th is lea d s to a p o o r c la s s ific a tio n a c c u ra c y o f m in o r ity! p o s itiv e) class. In th is p a p e r,an im p ro v e d fu zzy s u p p o rt v e c to r m a c h in e( F SV M )a lg o rith m is prop o se d to d e a l w ith these p ro b le m s. W h e n d e s ig n in g th e fu z z y m e m b e rs h ip in the new a lg o r it lim,w e ta ke in to c o n s id e ra tio nn o t o n ly th e d is ta n c e fro m the sa m ple to the c e n te r o f its class b u t also the tig h tn e s s o f th e sa m ple s. T h e e x p e rim e n ta l re s u lts show th a t co mp a re d to the s ta n d a rd S V M a lg o rith m and the o th e r F S V M m o de ls ,th e n ew m ethiod has b e t e r p erfo rm a n c e in the im b a la n c e d a nd n o is e-c o n ta in in g datasets.K e y w o r d s:im b a la n c e d d atasets ;F S V M;fu z z y m e m b e rs h ip degree ;tig h tn e s s o f a sam ple〇引言支持向量机(S V M)是建立在统计学习中的V C维理 论和结构风险最小化原则基础上的一种机器学习方法,因其在解决局部极小、维数灾难以及实现全局最优等问题上 具有较好的泛化能力,已被普遍应用于各种样本集的分类 问题中[12]。
基于模糊核聚类的支持向量分类
张国兵;郎荣玲;周凯
【期刊名称】《计算机应用》
【年(卷),期】2013(033)0z2
【摘要】建立在统计学习理论基础上的支持向量机(SVM)具有良好的分类性能,然而其训练的计算量大的弊端,严重限制了其在大规模数据分类方面的应用.针对大规模数据训练的问题,提出一种模糊核聚类支持向量分类方法,该方法将核函数技术与模糊聚类技术相结合,首先滤除一部分冗余的样本点,减少了进入SVM训练过程的样本数,大大提高了SVM的训练效率,使其能够适应处理大规模高维数据的分类.最后利用UCI数据库中的数据对本文的方法进行了评估,实验结果表明通过模糊核聚类技术,能够过滤掉大量的冗余样本点,并且利用过滤后的样本所训练的SVM的精度不低于利用所有样本训练的SVM的精度.
【总页数】4页(P108-110,132)
【作者】张国兵;郎荣玲;周凯
【作者单位】北京航空航天大学电子信息工程学院,北京100191;北京航空航天大学电子信息工程学院,北京100191;北京航空航天大学电子信息工程学院,北京100191
【正文语种】中文
【中图分类】TP181
【相关文献】
1.基于模糊核聚类和支持向量机的鲁棒协同推荐算法 [J], 伊华伟;张付志;巢进波
2.基于模糊核聚类的多类支持向量机 [J], 曹巍;赵英凯;高世伟
3.一种基于模糊核聚类算法的图像分类方法 [J], 王书文;皮炳坤;张弘强;马聪
4.基于模糊核聚类粒化的粒度支持向量机 [J], 黄华娟; 韦修喜; 周永权
5.基于半模糊核聚类的模糊超球支持向量机多类分类方法 [J], 郭雪松;孙林岩;刘哲因版权原因,仅展示原文概要,查看原文内容请购买。
一种模糊支持向量机主动学习算法孙秀英;王燕【摘要】模糊支持向量机具有很好的抗噪声能力,受到很多专家的重视。
然而模糊支持向量机上的主动学习算法却一直鲜有研究。
提出一种针对模糊支持向量机的主动学习算法,该算法首先在训练集合上利用模糊支持向量机得到决策超平面,然后选取间隔内的未标记样本进行标记,并计算相应的模糊权重,以及更新原有训练样本的模糊权重。
最后结合赋予模糊权重的新标记样本重新进行学习,直到未标记样本集为空或者分类性能满足要求。
在UCI标准数据集和语音识别数据集上的实验充分验证了该算法的有效性。
%Fuzzy support vector machine (FSVM)has good anti-noise performance,which attracts the attention from many experts. However,the active learning algorithm of FSVM has been seldom studied.In this paper,we propose an active learning algorithm for FSVM. This algorithm firstly obtains the decision-making hyperplane using FSVM from the training collection.Then it marks the unlabeled samples selected from the interval,and computes their corresponding fuzzy weights,and updates the fuzzy weights of original training samples. Finally,the algorithm makes re-learning in combination with the new labelled samples assigned with fuzzy weights until the unlabeled samples set to be empty or the classification performance meeting the requirements.The experiments on UCI standard dataset and speech recognition dataset fully verify the effectiveness of the proposed algorithm.【期刊名称】《计算机应用与软件》【年(卷),期】2013(000)010【总页数】3页(P136-138)【关键词】模糊支持向量机;抗噪;主动学习;间隔【作者】孙秀英;王燕【作者单位】黄河科技学院现代教育技术中心河南郑州450006;黄河科技学院现代教育技术中心河南郑州450006【正文语种】中文【中图分类】TP181主动学习[1]是一种针对小样本学习问题[2]的优秀的学习策略。
基于支持向量机的邮件分类技术研究随着互联网的快速发展和电子邮件的普及,人们每天都会收到大量的邮件。
其中,垃圾邮件(spam)成为人们日常生活中最头疼的问题之一。
垃圾邮件的出现不仅会占用用户的宝贵时间,而且还会危害用户的信息安全。
因此,如何精准地进行邮件分类,将垃圾邮件过滤掉,已成为影响电子邮件服务质量的重要问题。
在这个背景下,基于支持向量机的邮件分类技术应运而生。
一、支持向量机的基本原理支持向量机(Support Vector Machine,简称SVM)是一种常见的分类算法,其主要思想是将数据映射到高维空间中,通过选择最优的决策边界将不同类别的数据彻底分开,从而实现分类。
具体来说,就是通过寻找一个超平面,使得该超平面能够最大化将两类数据分开的距离(Margin)。
超平面的方程可以写成W^T*x + b = 0的形式,其中,W是超平面的法向量,b是超平面的截距。
对于一个新的样本数据,如果它的特征向量x与超平面的距离小于某个阈值,则该数据属于超平面所在的类别。
二、邮件分类的过程在进行邮件分类之前,需要先对邮件进行预处理。
预处理包括:分词、去停用词、词干提取、特征选择等步骤。
分词是将邮件中的语句分割成若干个单词或词组,去停用词是去除一些无意义的词语,如“的”、“了”等,词干提取是将不同的词形还原为同一个词干,特征选择是从众多的文本特征中选取合适的特征。
邮件分类的主要过程可以分为以下几步:1. 构建邮件数据集:将邮件转化为数值型的特征向量,并分成训练集和测试集。
2. 特征选择:选取合适的特征,去除冗余信息。
3. 模型训练:采用支持向量机算法,结合训练集的标签,训练分类模型。
4. 模型评估:将分类模型应用于测试集,统计分类准确率、精确率、召回率等指标,评估模型的分类效果。
三、邮件分类技术的应用基于支持向量机的邮件分类技术已经在实际应用中得到了广泛的应用。
例如,在email spam detection方面,支持向量机已经取得了非常好的效果。
基于支持向量机的数据挖掘算法研究数据挖掘是指从大量数据中获取有价值的信息,它是一种利用统计学、机器学习和人工智能等技术来发现数据中隐含规律和模式的技术。
随着互联网、移动设备和物联网等技术的不断发展,我们所面临的数据已经越来越庞大、复杂和多变,如何从这些数据中发现有价值的信息成为了一个亟待解决的问题。
而支持向量机(Support Vector Machine,简称SVM)算法作为一种有效的数据挖掘算法,已经在各个领域得到了广泛的应用。
一、支持向量机的基本原理支持向量机是一种基于统计学习理论的非线性分类器。
该算法的基本思想是将原始空间中的数据点映射到高维空间中,寻找一个超平面,使得能够将不同类别的数据点分开。
这个超平面可以被定义为一组权重向量w和一个截距b,使得w和b满足以下条件:1. 对于所有属于第一类的数据点,w*x + b > 02. 对于所有属于第二类的数据点,w*x + b < 0其中,w表示权重向量,x表示数据点,b表示截距,是需要训练出来的参数。
SVM的核心思想是找到一个最大化分类间隔的超平面,并保证数据点不会落在分类间隔中。
二、支持向量机在数据挖掘中的应用支持向量机在数据挖掘中的应用非常广泛,包括文本分类、图像识别、预测分析等领域。
下面以文本分类为例,介绍SVM在数据挖掘中的应用。
文本分类是指将文本数据按照事先给定的某种标准自动分类为不同的类别。
一个经典的文本分类问题是垃圾邮件过滤,即将垃圾邮件与正常邮件进行区分。
传统的文本分类方法有朴素贝叶斯、KNN等,而SVM在文本分类中也有着广泛的应用。
SVM在文本分类中的应用主要是通过构建分类器,将文本数据分成正负两类。
具体来说,Svm将每篇文章当做一个样本,文章中的每个词语都被当做一个特征,然后根据这些特征,构建一个分类模型。
当遇到新的文章时,SVM会将其中的词语找出来作为特征,然后使用已经训练好的分类模型来进行分类。
这样做的好处是,SVM具有很好的泛化能力,对未知数据的分类效果也非常好。