支持向量机等各种算法和模型的优点和缺点
- 格式:docx
- 大小:16.21 KB
- 文档页数:3
linearsvc算法原理线性支持向量机(Linear Support Vector Machines,LSVM)是一种用于分类和回归的机器学习算法。
在机器学习领域,SVM是一个广泛使用的工具,用于解决分类、回归问题。
LinearSVC则是SVM方法中的一个变种,它的优点是处理高维特征数据的能力非常强,能够快速训练和处理数据集。
一、算法概述LSVM算法利用给定的训练集,通过构建一个线性超平面或者多项式超平面将训练样本划分为不同的类别。
这个超平面分界线的选择是基于使得两个分类之间的最大边界距离最大化。
这一过程可以转化为一个特定的数学优化问题,可以通过凸二次编程的技术来解决。
在训练分类器时,LSVM算法利用支持向量来构建分类规则,即从不同的类别中选择几个代表性的样本,通过这些样本来学习构建分类模型。
二、算法原理1. 超平面在机器学习领域中,超平面被定义为将给定多维空间中的样本分为不同类别的直线或者是平面。
从几何角度来看,超平面可以被认为是定义了一个特定的决策边界。
不同的样本会落在超平面的不同侧,从而实现分类。
2. 支持向量支持向量是指样本空间中离超平面最近的那些样本,它们是在学习分类规则时最为关键的样本。
在LSVM算法中,支持向量是用来帮助我们构建分类规则的重要因素。
选择一个最佳的分类规则需要找到离超平面最近的样本。
在LSVM算法中,通过选择支持向量构建分类基础,可以保证分类器在训练集上具有最小的误差,并且具有较强的泛化能力。
3. 求解最大边界为了能够找到一个最优的超平面,LSVM算法通过最大化不同类别之间的最大边界距离来解决这一问题。
边界距离被定义为离超平面最近的样本(即支持向量)到超平面的距离。
通过选择超平面,我们希望不同类别之间的最大边界距离能够最大化。
在实现过程中,我们将这个过程转化为一个凸二次规划问题,并利用特定的数学优化技术来求解。
三、应用场景LSVM算法广泛应用于如下领域:1. 文本分类LSVM算法可以用于对文本数据进行分类。
《支持向量机的理论与算法研究》篇一一、引言支持向量机(Support Vector Machine,SVM)是一种广泛应用于分类、回归和异常检测等领域的机器学习算法。
它以统计学习理论为基础,具有很好的泛化性能和推广能力。
近年来,随着数据量的增加和复杂性的提高,SVM的应用和研究愈发广泛。
本文将主要对支持向量机的理论及算法进行深入的研究和探讨。
二、支持向量机理论基础1. 线性可分与支持向量的概念支持向量机主要处理的是线性可分问题。
在给定的训练集中,如果存在一个超平面能够将不同类别的样本完全分开,那么这个训练集就是线性可分的。
支持向量是那些位于超平面两侧且与超平面距离最近的样本点,它们在SVM的决策过程中起着关键作用。
2. 间隔最大化原理SVM的核心思想是通过最大化不同类别样本之间的间隔来寻找最优的分类超平面。
这个间隔越大,模型的泛化能力越强。
因此,SVM的目标是在保证分类正确的前提下,最大化这个间隔。
三、支持向量机算法研究1. 硬间隔最大化SVM硬间隔最大化SVM是最基本的SVM算法,它通过求解一个二次规划问题来寻找最优的分类超平面。
该算法在处理线性可分问题时具有很好的效果。
2. 软间隔最大化SVM当训练集不是完全线性可分时,需要引入松弛变量来处理样本的误分类问题。
软间隔最大化SVM通过在目标函数中加入松弛变量的惩罚项来处理这种情况。
这种算法在处理现实世界中的复杂问题时具有更好的效果。
3. 核技巧与核函数对于非线性问题,SVM通过核技巧将原始空间中的样本映射到高维特征空间中,使得样本在高维空间中变得线性可分。
核函数是实现这一映射的关键,常见的核函数包括线性核、多项式核、高斯径向基核等。
选择合适的核函数对于解决具体问题至关重要。
四、支持向量机的应用与发展趋势1. 支持向量机的应用领域支持向量机已广泛应用于图像识别、文本分类、生物信息学、异常检测等领域。
它具有优秀的分类性能和泛化能力,为解决实际问题提供了有力的工具。
评分模型常用的算法-概述说明以及解释1.引言1.1 概述评分模型是在许多领域中广泛应用的一种算法,用于对不同对象或事件进行评分或打分。
通过评分模型,我们可以将复杂的事物转化为数字形式,从而更方便地进行比较和分析。
评分模型的应用可以追溯到多个领域,如电商平台中的商品评价、社交媒体中的用户评级以及电影评分等。
评分模型的重要性在于它可以帮助我们量化和衡量各个对象的优劣程度。
通过建立合理的算法和评分体系,我们可以对不同对象进行客观、准确且可靠的评估。
这不仅对消费者和用户提供了更好的参考和决策依据,也对商品和服务的提供者提供了改进和优化的方向。
评分模型的广泛应用使得我们能够更好地了解各个领域中的对象和事件,并对它们进行全面的比较和分析。
常用的评分模型算法包括但不限于平均分算法、加权平均算法、协同过滤算法等。
平均分算法是一种简单且常见的评分算法,它将所有评分相加再取平均值作为最终评分。
加权平均算法在平均分算法的基础上引入权重因素,根据不同评分的重要性进行加权计算。
协同过滤算法则是基于用户的历史行为和偏好进行评分预测,通过发现用户之间的相似性来推荐适合的评分。
这些评分模型算法在不同的领域和场景中发挥着重要的作用。
在电商平台中,评分模型可以帮助消费者选择高质量和受欢迎的商品,提升用户的购物体验。
在社交媒体中,评分模型可以帮助用户发现和关注高质量的内容创作者,并建立交流和互动的平台。
在电影和音乐领域,评分模型可以帮助用户找到符合个人口味和喜好的作品,提供个性化的推荐和建议。
总之,评分模型是一种重要的算法工具,它能够帮助我们进行客观、准确和可靠的评估和比较。
通过不断优化和改进评分模型算法,我们可以提高评估的准确性和预测的精确性,为用户和消费者提供更好的体验和服务。
未来,随着技术的不断发展和应用场景的扩大,评分模型算法有望进一步提升并发展出更多的变种和应用形式。
对于评分模型的应用前景,我们可以期待它在各个领域中发挥更大的作用,并为不同行业的发展注入新的动力和机遇。
人工智能常用算法在当今数字化和信息化的时代,人工智能(Artificial Intelligence,简称AI)正逐渐渗透进我们的生活,在各个领域发挥着巨大的作用。
而作为实现人工智能的核心技术,算法起到了决定性的作用。
本文将介绍一些人工智能常用的算法,包括决策树算法、神经网络算法、遗传算法以及支持向量机算法。
一、决策树算法决策树算法是一种基于树状结构的分类与回归分析方法。
它通过构建一个树形模型来描述数据的决策规则,从而实现对数据的分类或预测。
决策树算法的核心思想是根据一系列的判断条件对数据进行划分,直到达到最终的分类结果。
决策树算法的优点是结果易于理解和解释,适用于处理具有缺失值的数据,且可以处理多分类问题。
然而,决策树算法也存在着容易产生过拟合、对噪声敏感等问题。
二、神经网络算法神经网络算法又称为人工神经网络(Artificial Neural Network,简称ANN),它是一种模拟人类神经系统信息处理过程的数学模型。
神经网络算法由多个称为神经元的节点组成,通过模拟神经元之间的连接和传递信息的方式来实现对数据的学习和分类。
神经网络算法的优点是可以对非线性问题进行建模,并且具有较强的自适应能力。
然而,神经网络算法也存在着计算复杂性高、需大量训练样本等问题。
三、遗传算法遗传算法是模拟达尔文生物进化论中的自然选择和遗传机制的一种优化算法。
通过定义适应度函数,遗传算法通过模拟个体的繁殖、变异和选择等过程来进行优化搜索,从而找到最优解。
遗传算法的优点是适用于各种类型的问题,能够在复杂的搜索空间中找到较好的解决方案。
然而,遗传算法也存在着运算速度较慢、可能陷入局部最优等问题。
四、支持向量机算法支持向量机算法是一种基于统计学习理论的二分类模型。
支持向量机算法通过在特征空间上构建最优超平面来实现对数据的分类。
它通过定义支持向量和间隔最大化的原则来寻找最优分类超平面。
支持向量机算法的优点是能够处理高维空间的数据,且具有较强的泛化能力。
模型融合算法(实用版)目录一、引言二、模型融合算法的定义和分类三、模型融合算法的应用四、模型融合算法的优缺点五、结论正文一、引言随着人工智能技术的不断发展,各种机器学习模型应运而生,如决策树、支持向量机、神经网络等。
这些模型各自具有独特的优势,在不同领域和场景中表现出色。
然而,单一模型往往难以在所有问题上都取得良好的性能。
因此,模型融合算法应运而生,它通过将多个模型进行结合,以提高模型的整体性能和泛化能力。
二、模型融合算法的定义和分类模型融合算法,指的是将多个模型的预测结果进行综合,以得到最终预测结果的一种方法。
模型融合可以看作是一种模型改进技术,通过结合多个模型的优点,达到提高预测性能的目的。
根据融合方式的不同,模型融合算法可以分为以下几类:1.模型加权平均:将多个模型的预测结果进行加权平均,作为最终预测结果。
2.模型投票:每个模型对输入数据进行预测,然后对所有模型的预测结果进行投票,选择得票最多的作为最终预测结果。
3.模型 stacking:将多个模型的预测结果作为输入,训练一个元模型,得到最终预测结果。
4.模型集成:将多个模型结合在一起,形成一个新的模型,具有更好的泛化能力。
三、模型融合算法的应用模型融合算法在许多领域都有广泛的应用,如金融、医疗、图像识别等。
以下以金融领域为例,介绍模型融合算法的应用。
在金融风险评估中,可以使用多种机器学习模型对借款人的信用进行评估。
通过模型融合算法,可以将多个模型的预测结果进行综合,得到最终的信用评估结果。
这样,可以提高模型的准确性,降低金融风险。
四、模型融合算法的优缺点模型融合算法具有以下优点:1.提高模型的整体性能:通过结合多个模型的优点,模型融合算法可以提高预测结果的准确性。
2.提高模型的泛化能力:模型融合算法可以降低单个模型的过拟合风险,提高模型在未知数据上的预测性能。
3.灵活性强:模型融合算法可以根据实际问题和场景,灵活选择合适的模型和融合方法。
支持向量机期末试题及答案[注:本文按照试题答案的形式来进行回答]1. 什么是支持向量机(SVM)?它的主要特点是什么?答:支持向量机(Support Vector Machine,SVM)是一种在机器学习领域中常用的监督学习模型。
其主要特点如下:- SVM 是一种二分类模型,但也可以扩展到多分类问题;- SVM的目标是寻找一个超平面(或称为决策边界),能够将不同类别的数据样本尽可能地分开,并最大化分类边界两侧的间隔;- SVM使用了一种称为“核函数”的技术,可以将数据映射到高维特征空间,使数据在低维度无法分开的情况下,在高维度中得到有效的分类;- SVM对于训练数据中的噪声和异常点具有较好的鲁棒性。
2. SVM的基本原理是什么?请简要描述其运行过程。
答:SVM的基本原理可以总结为以下几个步骤:- 将训练数据样本通过一个核函数映射到高维特征空间;- 在高维特征空间中,寻找一个超平面,使得不同类别的数据能够被最大化地分开,并使分类边界两侧的间隔最大化;- 对于线性可分的情况,可以直接找到一个超平面将数据完全分开;- 对于线性不可分的情况,通过引入松弛变量和惩罚项,在允许一定的误分类的情况下,寻找一个最佳的超平面;- 在找到超平面后,可以利用其支持向量(距离分类边界最近的样本点)来进行分类。
3. SVM中常用的核函数有哪些?请简要描述每种核函数的特点与使用场景。
答:SVM中常用的核函数包括线性核函数、多项式核函数和径向基函数(RBF)核函数。
- 线性核函数:特点是计算简单,适用于线性可分的情况,当数据特征维度较高时效果较好;- 多项式核函数:通过引入多项式的方式来进行特征映射,在一些非线性问题中表现良好,但计算复杂度较高;- RBF核函数:也称为高斯核函数,通过将数据映射到无限维的特征空间来实现非线性分类,适用于大部分场景。
4. SVM的损失函数是什么?请简要描述其作用并说明优化算法。
答:SVM的损失函数是Hinge Loss(合页损失函数)。
算法模型与应用场景算法是计算机科学的基石,它是解决实际问题的重要工具。
不同的问题需要不同的算法模型,因此在不同的应用场景下需要选择合适的算法模型来解决问题。
在本文中,我们将介绍一些常见的算法模型以及它们的应用场景。
一、线性模型线性模型是最简单的模型之一,它通常用于解决分类问题。
线性模型基于一组特征的线性组合来进行预测,它的目标是最小化预测误差。
线性模型具有计算简单、可解释性强等特点,因此在很多应用场景中得到广泛应用,如广告点击率预测、信用评估等。
二、决策树决策树是一种基于树状结构的分类模型,它将特征按照不同的选项划分成一系列的路径,并将每个路径的结果作为预测结果。
决策树具有计算简单、可解释性强等特点,可以用于解决分类和回归问题。
决策树应用广泛,如医学诊断、预测用户消费行为等。
三、神经网络神经网络是一种基于人工神经元的模型,它可以用于解决分类、回归、图像识别等多个问题,出色的泛化能力使它成为最受欢迎的深度学习模型之一。
神经网络具有强大的表达能力和自适应能力,但训练和调试过程较为复杂。
神经网络应用广泛,如语音识别、图像处理、自然语言处理等。
四、支持向量机支持向量机是一种基于间隔最大化的模型,它可以用于解决分类、回归、异常检测等多个问题。
支持向量机具有较强的泛化能力、高效的计算速度和较好的鲁棒性,但对于大规模数据集的处理存在困难。
支持向量机应用广泛,如文本分类、图像分类、生物信息学等。
五、聚类模型聚类模型是一种无监督学习方法,它通过将数据集中的点按照某种相似度进行分组来实现对数据的分类。
聚类模型可以用于群体行为分析、市场细分、生物分类等领域。
聚类模型具有可解释性强、处理非线性数据能力较强等优点,但在处理高维度数据和噪声数据时存在一定困难。
六、深度学习模型深度学习是指一类由多个简单的非线性处理单元组成的神经网络模型,它可以自动学习数据中的特征,并使用这些特征来进行分类或预测。
深度学习模型具有强大的表征能力和高度自适应性,对于大规模数据处理效果优秀。
17个机器学习的常用算法!1. 监督式学习:在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。
在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。
监督式学习的常见应用场景如分类问题和回归问题。
常见算法有逻辑回归(Logistic Regression)和反向传递神经网络(Back Propagation Neural Network)2. 非监督式学习:在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。
常见的应用场景包括关联规则的学习以及聚类等。
常见算法包括Apriori算法以及k-Means算法。
3. 半监督式学习:在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。
应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。
如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。
4. 强化学习:在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。
常见的应用场景包括动态系统以及机器人控制等。
常见算法包括Q-Learning以及时间差学习(Temporal difference learning)在企业数据应用的场景下,人们最常用的可能就是监督式学习和非监督式学习的模型。
在图像识别等领域,由于存在大量的非标识的数据和少量的可标识数据,目前半监督式学习是一个很热的话题。
数据分析知识:数据挖掘中的监督学习和无监督学习在数据分析领域,数据挖掘技术被广泛运用于从数据中挖掘出有意义的信息和规律,以帮助企业和个人做出更明智的决策。
而数据挖掘主要分为监督学习和无监督学习两种方式。
本文将详细介绍这两种学习方式的概念、算法、应用场景和优缺点。
一、监督学习监督学习是指基于已知结果的数据样本,通过建立一个映射函数,将输入数据映射到输出结果,从而实现对未知数据进行预测或分类的过程。
在监督学习中,我们通常将输入数据称为自变量,输出结果称为因变量。
监督学习的核心是建立一个有效的模型,这个模型需要能够对未知数据进行良好的预测或分类。
目前常用的监督学习算法包括决策树、神经网络、支持向量机、朴素贝叶斯分类和随机森林等。
1.决策树算法决策树算法是一种基于树型结构的分类算法,它通过对数据样本的分类特征进行判断和划分,最终生成一棵树形结构,用于对未知数据进行分类或预测。
决策树算法具有易于理解、易于实现和可解释性强等优点,适合于处理中小规模的数据集。
2.神经网络算法神经网络算法是一种基于人工神经网络的分类算法,它通过多层神经元之间的相互连接和权重调整,学习输入数据和输出结果之间的复杂非线性关系,从而实现对未知数据的分类或预测。
神经网络算法具有适应性强、泛化能力好等优点,但也存在学习速度慢、容易陷入局部最优等缺点。
3.支持向量机算法支持向量机算法是一种基于核函数的分类算法,它通过定义一个最优超平面,将不同类别的数据样本分隔开来,从而实现对未知数据的分类或预测。
支持向量机算法具有泛化性能强、对于样本噪声和非线性问题具有较好的处理能力等优点,但也存在计算量大、核函数选择过程较为困难等缺点。
4.朴素贝叶斯分类算法朴素贝叶斯分类算法是一种基于概率统计的分类算法,它通过统计样本数据中各个特征值出现的概率,并根据贝叶斯公式计算出对于给定数据属于每个类别的概率,从而实现对未知数据的分类或预测。
朴素贝叶斯分类算法具有计算速度快、对于高维数据具有处理优势等优点,但也存在对于样本分布不平衡和假设独立性等问题的限制。
1决策树(Decision Trees)的优缺点
决策树的优点:
一、决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。
二、对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一
般化,比如去掉多余的或者空白的属性。
三、 能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。
四、决策树是一个白盒模型。如果给定一个观察的模型,那么根据所产生的决策树很容易推
出相应的逻辑表达式。
五、易于通过静态测试来对模型进行评测。表示有可能测量该模型的可信度。
六、在相对短的时间内能够对大型数据源做出可行且效果良好的结果。
七、可以对有许多属性的数据集构造决策树。
八、决策树可很好地扩展到大型数据库中,同时它的大小独立于数据库的大小。
决策树的缺点:
一、对于那些各类别样本数量不一致的数据,在决策树当中,信息增益的结果偏向于那些具
有更多数值的特征。
二、决策树处理缺失数据时的困难。
三、过度拟合问题的出现。
四、忽略数据集中属性之间的相关性。
2 人工神经网络的优缺点
人工神经网络的优点:分类的准确度高,并行分布处理能力强,分布存储及学习能力强,对噪
声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系,具备联想记忆的功能等。
人工神经网络的缺点:神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值;
不能观察之间的学习过程,输出结果难以解释,会影响到结果的可信度和可接受程度;学习
时间过长,甚至可能达不到学习的目的。
3 遗传算法的优缺点
遗传算法的优点:
一、与问题领域无关切快速随机的搜索能力。
二、搜索从群体出发,具有潜在的并行性,可以进行多个个体的同时比较,鲁棒性好。
三、搜索使用评价函数启发,过程简单。
四、使用概率机制进行迭代,具有随机性。
五、具有可扩展性,容易与其他算法结合。
遗传算法的缺点:
一、遗传算法的编程实现比较复杂,首先需要对问题进行编码,找到最优解之后还需要对问题
进行解码,
二、另外三个算子的实现也有许多参数,如交叉率和变异率,并且这些参数的选择严重影响解
的品质,而目前这些参数的选择大部分是依靠经验.没有能够及时利用网络的反馈信息,故算
法的搜索速度比较慢,要得要较精确的解需要较多的训练时间。
三、算法对初始种群的选择有一定的依赖性,能够结合一些启发算法进行改进。
4 KNN算法(K-Nearest Neighbour) 的优缺点
KNN算法的优点:
一、简单、有效。
二、重新训练的代价较低(类别体系的变化和训练集的变化,在Web环境和电子商务应用中
是很常见的)。
三、计算时间和空间线性于训练集的规模(在一些场合不算太大)。
四、由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别
的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
五、该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用
这种算法比较容易产生误分。
KNN算法缺点:
一、KNN算法是懒散学习方法(lazy learning,基本上不学习),一些积极学习的算法要快
很多。
二、类别评分不是规格化的(不像概率评分)。
三、输出的可解释性不强,例如决策树的可解释性较强。
四、该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其
他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样
本占多数。该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本
并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。
可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
五、计算量较大。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用
不大的样本。
5 支持向量机(SVM)的优缺点
SVM的优点:
一、可以解决小样本情况下的机器学习问题。
二、可以提高泛化性能。
三、可以解决高维问题。
四、可以解决非线性问题。
五、可以避免神经网络结构选择和局部极小点问题。
SVM的缺点:
一、对缺失数据敏感。
二、对非线性问题没有通用解决方案,必须谨慎选择Kernelfunction来处理。
6 朴素贝叶斯的优缺点
优点:
一、朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。
二、NBC模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。
缺点:
一、理论上,NBC模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,
这是因为NBC模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的(可以考
虑用聚类算法先将相关性较大的属性聚类),这给NBC模型的正确分类带来了一定影响。在
属性个数比较多或者属性之间相关性较大时,NBC模型的分类效率比不上决策树模型。而在
属性相关性较小时,NBC模型的性能最为良好。
二、需要知道先验概率。
三、分类决策存在错误率
7 Adaboosting方法的优点
一、adaboost是一种有很高精度的分类器。
二、可以使用各种方法构建子分类器,Adaboost算法提供的是框架。
三、当使用简单分类器时,计算出的结果是可以理解的。而且弱分类器构造极其简单。
四、简单,不用做特征筛选。
五、不用担心overfitting。
8 Rocchio的优点
Rocchio算法的突出优点是容易实现,计算(训练和分类)特别简单,它通常用来实现衡量
分类系统性能的基准系统,而实用的分类系统很少采用这种算法解决具体的分类问题。
9各种分类算法比较
根据这篇论文所得出的结论,
Calibrated boosted trees的性能最好,随机森林第二,uncalibrated bagged trees第
三,calibratedSVMs第四, uncalibrated neural nets第五。
性能较差的是朴素贝叶斯,决策树。
有些算法在特定的数据集下表现较好。
参考文献:
[1] 罗森林, 马俊, 潘丽敏.数据挖掘理论与技术[M].电子工业出版社.2013.126-126
[2] 杨晓帆,陈廷槐.人工神经网络固有的优点和缺点[J].计算机科学.1994(vol.21).23-26
[3] Steve.遗传算法的优缺点.http://blog.sina.com.cn/s/blog_6377a3100100h1mj.html
[4] 杨建武.文本自动分类技
术.www.icst.pku.edu.cn/course/mining/12-13spring/TextMining04-%E5%88%86%E7%B1%B
B.pdf
[5] 白云球工作室. SVM(支持向量机)综述.
http://blog.sina.com.cn/s/blog_52574bc10100cnov.html
[6] 张夏天. 统计学习理论和SVM的不足
(1).http://blog.sciencenet.cn/blog-230547-248821.html
[7] RichCaruana,AlexandruNiculescu-Mizil.An Empirical Comparison of Supervised
LearningAlgorithms.2006