机器学习与模式识别-第4章_线性判别
- 格式:pdf
- 大小:2.02 MB
- 文档页数:96
【线性判别】Fisher线性判别(转)今天读paper遇到了Fisher线性判别的变体,所以来学习⼀下,所以到时候⼀定要把PRMl刷⼀遍呀在前⽂《贝叶斯决策理论》中已经提到,很多情况下,准确地估计概率密度模型并⾮易事,在特征空间维数较⾼和样本数量较少的情况下尤为如此。
实际上,模式识别的⽬的是在特征空间中设法找到两类(或多类)的分类⾯,估计概率密度函数并不是我们的⽬的。
前⽂已经提到,正态分布情况下,贝叶斯决策的最优分类⾯是线性的或者是⼆次函数形式的,本⽂则着重讨论线性情况下的⼀类判别准则——Fisher判别准则。
为了避免陷⼊复杂的概率的计算,我们直接估计判别函数式中的参数(因为我们已经知道判别函数式是线性的)。
⾸先我们来回顾⼀下线性判别函数的基本概念:应⽤统计⽅法解决模式识别问题时,⼀再碰到的问题之⼀就是维数问题。
在低维空间⾥解析上或计算上⾏得通的⽅法,在⾼维空间⾥往往⾏不通。
因此,降低维数有时就会成为处理实际问题的关键。
问题描述:如何根据实际情况找到⼀条最好的、最易于分类的投影线,这就是Fisher判别⽅法所要解决的基本问题。
考虑把d维空间的样本投影到⼀条直线上,形成⼀维空间,即把维数压缩到⼀维。
然⽽,即使样本在d维空间⾥形成若⼲紧凑的互相分得开的集群,当把它们投影到⼀条直线上时,也可能会是⼏类样本混在⼀起⽽变得⽆法识别。
但是,在⼀般情况下,总可以找到某个⽅向,使在这个⽅向的直线上,样本的投影能分得开。
下图可能会更加直观⼀点:从d维空间到⼀维空间的⼀般数学变换⽅法:假设有⼀集合Г包含N个d维样本x1, x2, …, xN,其中N1个属于ω1类的样本记为⼦集Г1, N2个属于ω2类的样本记为⼦集Г2 。
若对xn的分量做线性组合可得标量:yn = wTxn, n=1,2,…,N这样便得到N个⼀维样本yn组成的集合,并可分为两个⼦集Г1’和Г2’ 。
实际上,w的值是⽆关紧要的,它仅是yn乘上⼀个⽐例因⼦,重要的是选择w的⽅向。
线性判别分析(LinearDiscriminantAnalysis,LDA)⼀、LDA的基本思想线性判别式分析(Linear Discriminant Analysis, LDA),也叫做Fisher线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由Belhumeur引⼊模式识别和⼈⼯智能领域的。
线性鉴别分析的基本思想是将⾼维的模式样本投影到最佳鉴别⽮量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的⼦空间有最⼤的类间距离和最⼩的类内距离,即模式在该空间中有最佳的可分离性。
如下图所⽰,根据肤⾊和⿐⼦⾼低将⼈分为⽩⼈和⿊⼈,样本中⽩⼈的⿐⼦⾼低和⽪肤颜⾊主要集中A组区域,⿊⼈的⿐⼦⾼低和⽪肤颜⾊主要集中在B组区域,很显然A组合B组在空间上明显分离的,将A组和B组上的点都投影到直线L上,分别落在直线L的不同区域,这样就线性的将⿊⼈和⽩⼈分开了。
⼀旦有未知样本需要区分,只需将⽪肤颜⾊和⿐⼦⾼低代⼊直线L的⽅程,即可判断出未知样本的所属的分类。
因此,LDA的关键步骤是选择合适的投影⽅向,即建⽴合适的线性判别函数(⾮线性不是本⽂的重点)。
⼆、LDA的计算过程1、代数表⽰的计算过程设已知两个总体A和B,在A、B两总体分别提出m个特征,然后从A、B两总体中分别抽取出、个样本,得到A、B两总体的样本数据如下:和假设存在这样的线性函数(投影平⾯),可以将A、B两类样本投影到该平⾯上,使得A、B两样本在该直线上的投影满⾜以下两点:(1)两类样本的中⼼距离最远;(2)同⼀样本内的所有投影距离最近。
我们将该线性函数表达如下:将A总体的第个样本点投影到平⾯上得到投影点,即A总体的样本在平⾯投影的重⼼为其中同理可以得到B在平⾯上的投影点以及B总体样本在平⾯投影的重⼼为其中按照Fisher的思想,不同总体A、B的投影点应尽量分开,⽤数学表达式表⽰为,⽽同⼀总体的投影点的距离应尽可能的⼩,⽤数学表达式表⽰为,,合并得到求从⽽使得得到最⼤值,分别对进⾏求导即可,详细步骤不表。
机器学习与模式识别》教学大纲课程编号: 071243B课程类型:□通识教育必修课□通识教育选修课■专业必修课□专业选修课□学科基础课总学时: 48 讲课学时: 32 实验(上机)学时: 16 学分: 3适用对象:计算机科学与技术专业先修课程:程序设计基础与应用、数据结构、高等数学、算法导论一、教学目标《机器学习与算法导论》是计算机科学技术专业的一门专业选修课程。
本课程是面向计算机技术开设的专业选修课。
其教学重点是使学生掌握常见机器学习算法,包括算法的主要思想和基本步骤,并通过编程练习和典型应用实例加深了解;同时对机器学习的一般理论,如假设空间、采样理论、计算学习理论,以及无监督学习和强化学习有所了解。
模式识别部分是研究计算机模式识别的基本理论、方法和应用。
通过本课程的学习,使学生掌握模式识别的基本概念、基本原理、基本分析方法和算法,培养学生利用模式识别方法,运用技能解决本专业和相关领域的实际问题的能力。
学生通过本门课程的学习,能够对机器学习和模式识别的内容有一个较为全面的了解和认识,更深刻地理解机器学习的实质内容,使学生具备前沿的计算机技术必要的专业知识。
从而,为学生今后从事计算机技术应用与计算机技术前沿研究,以及相关领域的科学研究做好理论和技术上的准备。
目标1:通过对机器学习与模式识别基本概念、原理、和基本方法的讲解,让学生理解并掌握机器学习和模式识别的基本技术。
目标2:培养学生利用模式识别方法,运用技能解决本专业和相关领域的实际问题的能力。
目标3:鼓励学生运用知识解决各自学科的实际问题,培养他们的独立科研的能力和理论联系实际的能力。
二、教学内容及其与毕业要求的对应关系(黑体,小四号字)本课程主要介绍决策论与信息论基础、概率分布、回归的线性模型、分类的线性模型、核方法、支持向量机、图模型、混合模型和期望最大化、隐Markov 模型和条件随机场模型、统计决策方法、概率密度函数的估计、线性分类器、非线性分类器、其他分类方法、特征选择、特征提取、非监督模式识别、模式识别系统的评价等。
模式识别:线性分类器一、实验目的和要求目的:了解线性分类器,对分类器的参数做一定的了解,理解参数设置对算法的影响。
要求:1. 产生两类样本2. 采用线性分类器生成出两类样本的分类面3. 对比线性分类器的性能,对比参数设置的结果二、实验环境、内容和方法环境:windows 7,matlab R2010a内容:通过实验,对生成的实验数据样本进行分类。
三、实验基本原理感知器基本原理:1.感知器的学习过程是不断改变权向量的输入,更新结构中的可变参数,最后实现在有限次迭代之后的收敛。
感知器的基本模型结构如图1所示:图1 感知器基本模型其中,X输入,Xi表示的是第i个输入;Y表示输出;W表示权向量;w0是阈值,f是一个阶跃函数。
感知器实现样本的线性分类主要过程是:特征向量的元素x1,x2,……,xk是网络的输入元素,每一个元素与相应的权wi相乘。
,乘积相加后再与阈值w0相加,结果通过f函数执行激活功能,f为系统的激活函数。
因为f是一个阶跃函数,故当自变量小于0时,f= -1;当自变量大于0时,f= 1。
这样,根据输出信号Y,把相应的特征向量分到为两类。
然而,权向量w并不是一个已知的参数,故感知器算法很重要的一个步骤即是寻找一个合理的决策超平面。
故设这个超平面为w,满足:(1)引入一个代价函数,定义为:(2)其中,Y是权向量w定义的超平面错误分类的训练向量的子集。
变量定义为:当时,= -1;当时,= +1。
显然,J(w)≥0。
当代价函数J(w)达到最小值0时,所有的训练向量分类都全部正确。
为了计算代价函数的最小迭代值,可以采用梯度下降法设计迭代算法,即:(3)其中,w(n)是第n次迭代的权向量,有多种取值方法,在本设计中采用固定非负值。
由J(w)的定义,可以进一步简化(3)得到:(4)通过(4)来不断更新w,这种算法就称为感知器算法(perceptron algorithm)。
可以证明,这种算法在经过有限次迭代之后是收敛的,也就是说,根据(4)规则修正权向量w,可以让所有的特征向量都正确分类。
1. 问题之前我们讨论的PCA、ICA也好,对样本数据来言,可以是没有类别标签y的。
回想我们做回归时,如果特征太多,那么会产生不相关特征引入、过度拟合等问题。
我们可以使用PCA 来降维,但PCA没有将类别标签考虑进去,属于无监督的。
比如回到上次提出的文档中含有“learn”和“study”的问题,使用PCA后,也许可以将这两个特征合并为一个,降了维度。
但假设我们的类别标签y是判断这篇文章的topic是不是有关学习方面的。
那么这两个特征对y几乎没什么影响,完全可以去除。
再举一个例子,假设我们对一张100*100像素的图片做人脸识别,每个像素是一个特征,那么会有10000个特征,而对应的类别标签y仅仅是0/1值,1代表是人脸。
这么多特征不仅训练复杂,而且不必要特征对结果会带来不可预知的影响,但我们想得到降维后的一些最佳特征(与y关系最密切的),怎么办呢?2. 线性判别分析(二类情况)回顾我们之前的logistic回归方法,给定m个n维特征的训练样例(i从1到m),每个对应一个类标签。
我们就是要学习出参数,使得(g 是sigmoid函数)。
现在只考虑二值分类情况,也就是y=1或者y=0。
为了方便表示,我们先换符号重新定义问题,给定特征为d维的N个样例,,其中有个样例属于类别,另外个样例属于类别。
现在我们觉得原始特征数太多,想将d维特征降到只有一维,而又要保证类别能够“清晰”地反映在低维数据上,也就是这一维就能决定每个样例的类别。
我们将这个最佳的向量称为w(d维),那么样例x(d维)到w上的投影可以用下式来计算这里得到的y值不是0/1值,而是x投影到直线上的点到原点的距离。
当x是二维的,我们就是要找一条直线(方向为w)来做投影,然后寻找最能使样本点分离的直线。
如下图:从直观上来看,右图比较好,可以很好地将不同类别的样本点分离。
接下来我们从定量的角度来找到这个最佳的w。
首先我们寻找每类样例的均值(中心点),这里i只有两个由于x到w投影后的样本点均值为由此可知,投影后的的均值也就是样本中心点的投影。
【模式识别与机器学习】——3.3分段线性判别函数3.4模式空间和权空间出发点: 线性判别函数在进⾏分类决策时是最简单有效的,但在实际应⽤中,常常会出现不能⽤线性判别函数直接进⾏分类的情况。
采⽤⼴义线性判别函数的概念,可以通过增加维数来得到线性判别,但维数的⼤量增加会使在低维空间⾥在解析和计算上⾏得通的⽅法在⾼维空间遇到困难,增加计算的复杂性。
引⼊分段线性判别函数的判别过程,它⽐⼀般的线性判别函数的错误率⼩,但⼜⽐⾮线性判别函数简单。
图例: ⽤判别函数分类可⽤⼀个⼆次判别函数来分类也可⽤⼀个分段线性判别函数来逼近这个⼆次曲线分段线性判别函数的设计(1)采⽤最⼩距离分类的⽅法图例:分段线性分类设计3.4 模式空间和权空间模式空间: 对⼀个线性⽅程w1x1+w2x2+w3x3=0,它在三维空间(x1 x2 x3)中是⼀个平⾯⽅程式,w=(w1 w2 w3)T是⽅程的系数。
把w向量作为该平⾯的法线向量,则该线性⽅程决定的平⾯通过原点且与w垂直。
若x是⼆维的增⼴向量,此时x3=1,则在⾮增⼴的模式空间中即为{x1, x2 }⼆维坐标,判别函数是下列联⽴⽅程的解(a)增⼴向量决定的平⾯(b)⾮增⼴向量决定的直线权空间:若将⽅程x1w1+x2w2+w3=0绘在权向量w=(w1 w2 w3)T的三维空间中,则x=(x1 x2 1)T为⽅程的系数。
若以x向量作为法线向量,则该线性⽅程所决定的平⾯为通过原点且与法线向量垂直的平⾯,它同样将权空间划分为正、负两边。
在系数x不变的条件下,若w值落在法线向量离开平⾯的⼀边,则wTx>0,若w值落在法线向量射向平⾯的⼀边,则wTx <0。
权空间中判别界⾯的平⾯⽰意图。
fisher线性判别
fisher 判决⽅式是监督学习,在新样本加⼊之前,已经有了原样本。
原样本是训练集,训练的⽬的是要分类,也就是要找到分类线。
⼀⼑砍成两半!
当样本集确定的时候,分类的关键就在于如何砍下这⼀⼑!
若以⿊⾊的来划分,很明显不合理,以灰⾊的来划分,才是看上去合理的
1.先确定砍的⽅向
关键在于如何找到投影的向量u,与u的长度⽆关。
只看⽅向
找到样本点的中⼼均值m1,m2,以及在向量u上的投影的m1~,m2~。
因为u的⽅向与样本点都有关,所以需要考虑⼀个含有所有样本点的表达式
不妨算出离差阵
算出类内离差矩阵,两个都要求出来,并求和
并且投影的离差阵
根据聚类的理想情况,类内距离⼩,类间距离⼤,所以就⽤类间去处理类内,我们现在的变量是向量u,我们就对u求导,算出max存在的时后u的条件。
为了⽅便化简,引⼊⼀个参数不要以为下⾯除以是向量,(1*2)*(2*2)(2*1)=1 维度变成1,这是⼀个常数。
当求导公式
分⼦为0的时候,推出
所以
⽽且是(1*2)*(2*1)等于1,也是⼀个常数
到此为⽌,u的⽅向已经确定了
2.具体切哪⼀个点。
a,切
切投影均值的终点
2.
切贝叶斯概率的⽐例点
⽅向和具体点均已找到,分析完毕。
判别分析判别分析(discriminant analysis)是一种分类技术。
它通过一个已知类别的“训练样本”来建立判别准则,并通过预测变量来为未知类别的数据进行分类。
判别分析的方法大体上有三类,即Fisher判别(线性判别)、Bayes判别和距离判别。
Fisher判别思想是投影降维,使多维问题简化为一维问题来处理。
选择一个适当的投影轴,使所有的样品点都投影到这个轴上得到一个投影值。
对这个投影轴的方向的要求是:使每一组内的投影值所形成的组内离差尽可能小,而不同组间的投影值所形成的类间离差尽可能大。
Bayes判别思想是根据先验概率求出后验概率,并依据后验概率分布作出统计推断。
距离判别思想是根据已知分类的数据计算各类别的重心,对未知分类的数据,计算它与各类重心的距离,与某个重心距离最近则归于该类。
接下来将通过例题展示不同的判别方法。
例1:在某市场抽取20种牌子的电视机中,5种畅销,8种平销,另外7种滞销。
按电视质量评分、功能评分和销售价格三项指标衡量,销售状态:1为畅销,2为平销,3为滞销。
数据集:d6.3> X=read.table("clipboard",header=T) #读取数据存入X中> plot(X$Q, X$C); #做横坐标为Q,纵坐标为C的散点图> text(X$Q, X$C, X$G,adj=-0.8,cex=0.75) #在上一句的散点图中为每个点加文本;Q,C,G表示依据Q和C加上G的文本名字;adj为调整文字与点距离的选项,+为向左,-为向右;cex为调整文字的大小;>plot(X$Q, X$P);text(X$Q, X$P, X$G,adj=-0.8,cex=0.75) #同上> plot(X$C, X$P);text(X$C, X$P, X$G,adj=-0.8,cex=0.75) #同上1.线性判别(等方差)R中线性判别和贝叶斯判别的函数为lda()。
《模式识别与机器学习》教学大纲Pattern Recognition and Machine Learning第一部分大纲说明1. 课程代码:2. 课程性质:学位必修课3. 学时/学分:40/34. 课程目标:模式识别与机器学习研究计算机识别物体的机理,该课程的学习将为数据分析与处理以及人工智能等领域的学习打下基础。
本课程主要分为两大部分,第一部分主要介绍模式识别,包括模式识别的基本概念、基本原理、典型方法、实用技术以及有关研究的新成果,其目的是使学生掌握模式识别的基本概念和基本原理,了解模式识别在图像分析、语音识别和音频分类等领域的具体应用、存在的问题和发展前景。
第二部分主要介绍机器学习,包括多项式回归、正则方程、逻辑回归、神经网络、深度置信网络、卷积神经网络等,通过教学使学生掌握机器学习的基础理论,以及无监督学习和强化学习等;熟悉常见机器学习的常用算法,以及算法的主要思想和运用方法,并通过编程实践和典型应用实例加深了解。
5. 教学方式:课堂讲授、自学与讨论、课堂上机与实例项目相结合6. 考核方式:考试7. 先修课程:概率论、数字信号处理9. 教材及教学参考资料:(一)教材:《模式识别》第4版,Sergios T等编,电子工业出版社边肇祺,张学工等编著,《机器学习》,Peter Flach. 人民邮电出版社, 2016.(二)教学参考资料:[1]《模式分类》(英文版·第2版), Richard O等编,机械工业出版社[2]《模式识别导论》,范九伦等编,西安电子科技大学出版社[3]《模式识别》第2版,边肇祺等编,清华大学出版社[4]《神经网络与机器学习(英文版·第3版)》. Haykin S. 机械工业出版社[5]《Deep Learning》. Ian Goodfellow, Yoshua Bengio and Aaron Courville. MIT Press第二部分教学内容和教学要求上篇模式识别第一章绪论教学内容:1.1模式与模式识别1.2模式识别的主要方法1.3监督模式识别与非监督模式识别1.4模式识别系统举例1.5模式识别系统的典型构成教学要求:了解模式识别的相关常识与概念,以及一些常用的研究方法。
机器学习:线性判别式分析(LDA)1.概述线性判别式分析(Linear Discriminant Analysis),简称为LDA。
也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Belhumeur引⼊模式识别和⼈⼯智能领域。
基本思想是将⾼维的模式样本投影到最佳鉴别⽮量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的⼦空间有最⼤的类间距离和最⼩的类内距离,即模式在该空间中有最佳的可分离性。
LDA与PCA都是常⽤的降维技术。
PCA主要是从特征的协⽅差⾓度,去找到⽐较好的投影⽅式。
LDA更多的是考虑了标注,即希望投影后不同类别之间数据点的距离更⼤,同⼀类别的数据点更紧凑。
但是LDA有两个假设:1.样本数据服从正态分布,2.各类得协⽅差相等。
虽然这些在实际中不⼀定满⾜,但是LDA被证明是⾮常有效的降维⽅法,其线性模型对于噪⾳的鲁棒性效果⽐较好,不容易过拟合。
2.图解说明(图⽚来⾃⽹络)可以看到两个类别,⼀个绿⾊类别,⼀个红⾊类别。
左图是两个类别的原始数据,现在要求将数据从⼆维降维到⼀维。
直接投影到x1轴或者x2轴,不同类别之间会有重复,导致分类效果下降。
右图映射到的直线就是⽤LDA⽅法计算得到的,可以看到,红⾊类别和绿⾊类别在映射之后之间的距离是最⼤的,⽽且每个类别内部点的离散程度是最⼩的(或者说聚集程度是最⼤的)。
3.图解LAD与PCA的区别(图⽚来⾃⽹络)两个类别,class1的点都是圆圈,class2的点都是⼗字。
图中有两条直线,斜率在1左右的这条直线是PCA选择的映射直线,斜率在 -1左右的这条直线是LDA选择的映射直线。
其余不在这两条直线上的点是原始数据点。
可以看到由于LDA考虑了“类别”这个信息(即标注),映射后,可以很好的将class1和class2的点区分开。
D与PCA的对⽐(1)PCA⽆需样本标签,属于⽆监督学习降维;LDA需要样本标签,属于有监督学习降维。