第五章 主成分分析x
- 格式:pptx
- 大小:2.49 MB
- 文档页数:94
主成分分析类型:一种处理高维数据的方法。
降维思想:在实际问题的研究中,往往会涉及众多有关的变量。
但是,变量太多不但会增加计算的复杂性,而且也会给合理地分析问题和解释问题带来困难。
一般说来,虽然每个变量都提供了一定的信息,但其重要性有所不同,而在很多情况下,变量间有一定的相关性,从而使得这些变量所提供的信息在一定程度上有所重叠。
因而人们希望对这些变量加以“改造”,用为数极少的互补相关的新变量来反映原变量所提供的绝大部分信息,通过对新变量的分析达到解决问题的目的。
一、总体主成分1.1 定义设 X 1,X 2,…,X p 为某实际问题所涉及的 p 个随机变量。
记 X=(X 1,X 2,…,Xp)T ,其协方差矩阵为()[(())(())],T ij p p E X E X X E X σ⨯∑==--它是一个 p 阶非负定矩阵。
设1111112212221122221122Tp p Tp pT pp p p pp p Y l X l X l X l X Y l X l X l X l X Y l X l X l X l X⎧==+++⎪==+++⎪⎨⎪⎪==+++⎩ (1) 则有()(),1,2,...,,(,)(,),1,2,...,.T T i i i i TT T i j ijij Var Y Var l X l l i p Cov Y Y Cov l X l X l l j p ==∑===∑= (2)第 i 个主成分: 一般地,在约束条件1T i i l l =及(,)0,1,2,..., 1.T i k i k Cov Y Y l l k i =∑==-下,求 l i 使 Var(Y i )达到最大,由此 l i 所确定的T i i Y l X =称为 X 1,X 2,…,X p 的第 i 个主成分。
1.2 总体主成分的计算设 ∑是12(,,...,)T p X X X X =的协方差矩阵,∑的特征值及相应的正交单位化特征向量分别为120p λλλ≥≥≥≥及12,,...,,p e e e则 X 的第 i 个主成分为1122,1,2,...,,T i i i i ip p Y e X e X e X e X i p ==+++= (3)此时(),1,2,...,,(,)0,.Ti i i i Ti k i k Var Y e e i p Cov Y Y e e i k λ⎧=∑==⎪⎨=∑=≠⎪⎩ 1.3 总体主成分的性质1.3.1 主成分的协方差矩阵及总方差记 12(,,...,)T p Y Y Y Y = 为主成分向量,则 Y=P T X ,其中12(,,...,)p P e e e =,且12()()(,,...,),T T p Cov Y Cov P X P P Diag λλλ==∑=Λ=由此得主成分的总方差为111()()()()(),p ppTTiii i i i Var Y tr P P tr PP tr Var X λ=====∑=∑=∑=∑∑∑即主成分分析是把 p 个原始变量 X 1,X 2,…,X p 的总方差1()pii Var X =∑分解成 p 个互不相关变量 Y 1,Y 2,…,Y p 的方差之和,即1()pii Var Y =∑而 ()k k Var Y λ=。
主成分分析讲解范文下面我们来具体讲解主成分分析的步骤和原理:1.数据预处理在进行主成分分析之前,需要对原始数据进行预处理,包括去除噪声、处理缺失值和标准化等操作。
这些操作可以使得数据更加准确和可靠。
2.计算协方差矩阵协方差矩阵是衡量各个变量之间相关性的指标。
通常,我们会对数据进行标准化处理,使得各个变量具有相同的尺度。
然后,计算标准化后的数据的协方差矩阵。
3.计算特征值和特征向量通过对协方差矩阵进行特征分解,可以得到特征值和特征向量。
其中,特征值表示新坐标系中的投影方差,特征向量表示新坐标系的方向。
4.选择主成分根据特征值的大小,我们可以按照降序的方式选择主成分。
选取一部分较大的特征值所对应的特征向量,即可得到相应的主成分。
这些主成分是原始数据中最重要的成分。
5.生成投影数据通过将原始数据投影到选取的主成分上,即可得到降维后的数据。
每个样本在各个主成分上的投影即为新的特征值。
6.重构数据在需要恢复原始数据时,可以通过将降维后的数据乘以选取的主成分的转置矩阵,再加上原始数据的均值,即可得到近似恢复的原始数据。
主成分分析在实际应用中有很广泛的用途。
首先,它可以用于数据的降维,使得复杂的数据集可以在低维空间中进行可视化和分析。
其次,它可以用于数据的简化和压缩,减少数据存储和计算的成本。
此外,主成分分析还可以用于数据的特征提取和数据预处理,辅助其他机器学习和统计分析方法的应用。
然而,主成分分析也有一些限制和注意事项。
首先,主成分分析假设数据具有线性关系,对于非线性关系的数据可能失效。
其次,主成分分析对于离群值敏感,需要对离群值进行处理。
另外,主成分分析得到的主成分往往是原始数据中的线性组合,不易解释其具体含义。
总之,主成分分析是一种常用的降维数据分析方法,通过寻找新的投影空间,使得数据的方差最大化,实现数据的降维和简化。
它可以应用于数据可视化、数据压缩和特征提取等方面,是数据分析和机器学习中常用的工具之一、在应用主成分分析时,需要注意数据的预处理和对主成分的解释和理解。
主成分分析方法主成分分析(Principal Component Analysis,PCA)是一种常用的数据降维技术,它可以将高维数据转化为低维数据,同时保留数据的主要特征。
主成分分析方法在数据挖掘、模式识别、图像处理等领域被广泛应用,本文将介绍主成分分析的基本原理、算法步骤和应用场景。
1. 基本原理。
主成分分析的基本原理是通过线性变换将原始的特征空间转换为新的特征空间,新的特征空间是由原始特征的线性组合构成的,这些线性组合被称为主成分。
主成分分析的目标是找到能够最大程度保留原始数据信息的主成分,从而实现数据的降维。
2. 算法步骤。
主成分分析的算法步骤如下:(1)标准化数据,对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。
(2)计算协方差矩阵,根据标准化后的数据计算特征之间的协方差矩阵。
(3)计算特征值和特征向量,对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。
(4)选择主成分,按照特征值的大小,选择最大的k个特征值对应的特征向量作为主成分。
(5)数据转换,利用选定的主成分进行数据转换,将原始数据映射到新的低维空间中。
3. 应用场景。
主成分分析方法在实际应用中具有广泛的场景,例如:(1)数据可视化,通过主成分分析可以将高维数据转化为二维或三维数据,便于数据的可视化展示和分析。
(2)特征提取,在图像处理和模式识别领域,主成分分析可以用于提取图像的主要特征,从而实现图像的压缩和识别。
(3)数据预处理,在机器学习和数据挖掘任务中,主成分分析可以用于数据的降维处理,减少特征的数量和复杂度,提高模型的训练效率和预测准确度。
总结。
主成分分析是一种重要的数据分析方法,它通过线性变换将高维数据映射到低维空间,从而实现数据的降维和特征提取。
在实际应用中,主成分分析具有广泛的应用场景,能够帮助人们更好地理解和分析数据。
希望本文的介绍能够帮助读者更好地理解主成分分析方法,并在实际工作中加以应用。
可编辑修改精选全文完整版主成分分析(principal component analysis, PCA)如果一组数据含有N个观测样本,每个样本需要检测的变量指标有K个, 如何综合比较各个观测样本的性质优劣或特点?这种情况下,任何选择其中单个变量指标对本进行分析的方法都会失之偏颇,无法反映样本综合特征和特点。
这就需要多变量数据统计分析。
多变量数据统计分析中一个重要方法是主成份分析。
主成分分析就是将上述含有N个观测样本、K个变量指标的数据矩阵转看成一个含有K维空间的数学模型,N个观测样本分布在这个模型中。
从数据分析的本质目的看,数据分析目标总是了解样本之间的差异性或者相似性,为最终的决策提供参考。
因此,对一个矩阵数据来说,在K维空间中,总存在某一个维度的方向,能够最大程度地描述样品的差异性或相似性(图1)。
基于偏最小二乘法原理,可以计算得到这个轴线。
在此基础上,在垂直于第一条轴线的位置找出第二个最重要的轴线方向,独立描述样品第二显著的差异性或相似性;依此类推到n个轴线。
如果有三条轴线,就是三维立体坐标轴。
形象地说,上述每个轴线方向代表的数据含义,就是一个主成份。
X、Y、Z轴就是第1、2、3主成份。
由于人类很难想像超过三维的空间,因此,为了便于直观观测,通常取2个或者3个主成份对应图进行观察。
图(1)PCA得到的是一个在最小二乘意义上拟合数据集的数学模型。
即,主成分上所有观测值的坐标投影方差最大。
从理论上看,主成分分析是一种通过正交变换,将一组包含可能互相相关变量的观测值组成的数据,转换为一组数值上线性不相关变量的数据处理过程。
这些转换后的变量,称为主成分(principal component, PC)。
主成分的数目因此低于或等于原有数据集中观测值的变量数目。
PCA最早的发明人为Karl Pearson,他于1901年发表的论文中以主轴定理(principal axis theorem)衍生结论的形式提出了PCA的雏形,但其独立发展与命名是由Harold Hotelling于1930年前后完成。
一、主成分分析的思想主成分分析是数据处理中常用的降维方法。
我们需要处理的数据往往是高维数据,把它看成是由某个高维分布产生。
高维分布的不同维之间可能具有较强的相关性,这也就为数据降维提供了可能。
为了叙述清楚主成分分析的思想,我们通过二维数据进行叙述,即数据是由随机向量 (X_1,X_2) 产生,并假设X_1=X_2 。
通过该分布得到的样本点如图下所示:如果我们把每个数据点用 (x_1,x_2) 表示,那么,每个数据是二维的。
实际上,容易发现,我们只需要将坐标系进行旋转,旋转到红色坐标系位置,此时,每个数据点在新坐标系下的表示形式为为 (x_1^{'},0) ,由于每个数据点的第二维坐标都是 0 ,所以每个数据点只需要用一个数表示就行了,这样就把数据的维数从二维降到了一维。
接下来考虑不是完全线性关系,但是具有强相关性的情况,如下图所示:在这种情况下,我们不可能通过坐标系的平移与旋转,使所有点都落在一根轴上,即不可能精确地把数据用一维表示。
但是注意到 (X_1,X_2) 仍然有强相关性,我们仍然将坐标轴旋转到红色位置,可以看出,将数据在 x_1^{'} 上的投影近似代表原数据,几乎可以完全反映出原数据的分布。
直观看,如果要将数据投影到某根轴,并用投影来表示原数据,将数据压缩成一维,那么投影到 x_1^{'} 是最好的选择。
因为投影到这跟轴,相比于投影到其他轴,对原数据保留的信息量最多,损失最小。
如何衡量保留的信息量呢?在主成分分析中,我们用数据在该轴的投影的方差大小来衡量,即投影后方差越大(即投影点越分散),我们认为投影到该轴信息保留量最多。
从这种观点看,投影到 x_1^{'} 确实是最好的选择,因为投影到这根轴,可使得投影点最分散。
我们将数据的中心平移到原点(即新坐标轴的原点在数据的中心位置),为了消除单位的影响,我们将数据的方差归一化。
进一步考虑如下数据分布:根据上述,如果要将数据压缩为一维的,那么应该选择 F_1 轴进行投影,如果用该投影表示原数据的损失过大,我们可以再选择第二根轴进行投影,第二根轴应该与 F_1 垂直(保证在两根轴上的投影是不相关的)并且使得数据在该轴上投影方差最大,即图中的 F_2 轴(如果是二维情况,第一根轴确定后,第二根轴就确定了。