多元统计分析第三章聚类分析
- 格式:ppt
- 大小:543.50 KB
- 文档页数:49
2015——2016学年第一学期实验报告课程名称:多元统计分析实验项目:聚类分析实验类别:综合性□√设计性□验证性□专业班级:13统计班姓名:张淑娟学号:*********** 实验地点:总理楼60801实验时间:2015年11月25日星期三指导教师:*绩:一、实验数据、参考资料与实验目的实验数据来源于文件《聚类分析.rar》内的chapter 12,主要参考书为《spss统计分析从入门到精通.pdf》。
实验目的:1、掌握聚类分析的基本方法,主要有快速聚类、分层聚类、系统聚类和分层聚类等方法;2、至少应用所给数据进行两种及两种以上的聚类分析,并对其进行比较。
具体数据由自己选择。
二、SPSS操作方法或程序类平均法聚类操作方法:1、打开分析→分类→系统聚类,打开系统聚类分析对话框,将聚类指标选入变量栏中,将表示地区的变量选入注标个案栏。
2、点击绘制,选中谱系图,点击继续返回主对话框;3、再点击方法按钮,在聚类方法下拉菜单中选择组间连接法选项,返回主对话框,点击确定。
最短距离法聚类操作方法:1、2、同类平均法1、2;3、再点击方法按钮,在聚类方法下拉菜单中选择最短距离法选项,返回主对话框,点击确定。
最长距离法聚类操作方法:1、2、同类平均法1、2;3、再点击方法按钮,在聚类方法下拉菜单中选择最长距离法选项,返回主对话框,点击确定。
三、程序运行结果(不能截图,需要导出)指标的相关系数:相关性编号食品衣着燃料住房生活用品文化支出组别编号Pearson 相关性 1 -.720**-.387*-.136 -.743**-.710**-.687**.439*显著性(双侧).000 .042 .490 .000 .000 .000 .032 N 28 28 28 28 28 28 28 24食品Pearson 相关性-.720** 1 .518**.517**.778**.707**.613**-.680**显著性(双侧).000 .005 .005 .000 .000 .001 .000 N 28 28 28 28 28 28 28 24衣着Pearson 相关性-.387*.518** 1 .133 .579**.752**.181 -.593**显著性(双侧).042 .005 .501 .001 .000 .357 .002 N 28 28 28 28 28 28 28 24燃料Pearson 相关性-.136 .517**.133 1 .133 .210 .456*-.641**显著性(双侧).490 .005 .501 .500 .283 .015 .001 N 28 28 28 28 28 28 28 24住房Pearson 相关性-.743**.778**.579**.133 1 .843**.353 -.636**显著性(双侧).000 .000 .001 .500 .000 .065 .001 N 28 28 28 28 28 28 28 24生活用品Pearson 相关性-.710**.707**.752**.210 .843** 1 .336 -.697**显著性(双侧).000 .000 .000 .283 .000 .081 .000 N 28 28 28 28 28 28 28 24文化支出Pearson 相关性-.687**.613**.181 .456*.353 .336 1 -.439*显著性(双侧).000 .001 .357 .015 .065 .081 .032 N 28 28 28 28 28 28 28 24组别Pearson 相关性.439*-.680**-.593**-.641**-.636**-.697**-.439* 1 显著性(双侧).032 .000 .002 .001 .001 .000 .032N 24 24 24 24 24 24 24 24**. 在 .01 水平(双侧)上显著相关。
多元统计分析-聚类分析聚类分析是⼀个迭代的过程对于n个p维数据,我们最开始将他们分为n组每次迭代将距离最近的两组合并成⼀组若给出需要聚成k类,则迭代到k类是,停⽌计算初始情况的距离矩阵⼀般⽤马⽒距离或欧式距离个⼈认为考试只考 1,2⽐较有⽤的⽅法是3,4,5,8最喜欢第8种距离的计算 欧式距离 距离的⼆范数 马⽒距离 对于X1, X2均属于N(u, Σ) X1,X2的距离为 (X1 - X2) / sqrt(Σ)那么不同的聚类⽅法其实也就是不同的计算类间距离的⽅法1.最短距离法 计算两组间距离时,将两组间距离最短的元素作为两组间的距离2.最长距离法 将两组间最长的距离作为两组间的距离3.中间距离法 将G p,G q合并成为G r 计算G r与G k的距离时使⽤如下公式 D2kr = 1/2 * D2kp + 1/2 * D2kq + β * D2pq β是提前给定的超参数-0.25<=β<=04.重⼼法 每⼀组都可以看成⼀组多为空间中点的集合,计算组间距离时,可使⽤这两组点的重⼼之间的距离作为类间距离 若使⽤的是欧⽒距离 那么有如下计算公式 D2kr = n p/n r * D2kp + n q/n r * D2kq - (n p*n q / n r*n r ) * D2pq5.类平均法 两组之间的距离 = 组间每两个样本距离平⽅的平均值开根号 表达式为D2kr = n p/n r * D2kp + n q/n r * D2kq6.可变类平均法 可以反映合并的两类的距离的影响 表达式为D2kr = n p/n r *(1- β) * D2kp + n q/n r *(1- β) * D2kq + β*D2pq 0<=β<17.可变法 D2kr = (1- β)/2 * (D2kp + D2kq) + β*D2pq8.离差平⽅和法 这个⽅法⽐较实⽤ 就是计算两类距离的话,就计算,如果将他们两类合在⼀起之后的离差平⽅和 因为若两类本⾝就是⼀类,和本⾝不是⼀类,他们的离差平⽅和相差较⼤ 离差平⽅和:类中每个元素与这⼀类中的均值距离的平⽅之和 若统⼀成之前的公式就是 D2kr = (n k + n p)/(n r + n k) * D2kp + (n k + n q)/(n r + n k) -(n k)/(n r + n k) * * D2pq⼀些性质 除了中间距离法之外,其他的所有聚类⽅法都具有单调性 单调性就是指每次聚类搞掉的距离递增 空间的浓缩和扩张 D(A)>=D(B) 表⽰A矩阵中的每个元素都不⼩于B D(短) <= D(平) <= D(长) D(短,平) <= 0 D(长,平) >= 0 中间距离法⽆法判断。
多元统计分析——聚类分析——K-均值聚类(K-中值、K-众数)注意:有的时候我们可以结合各个聚类算法的特性进⾏聚类,层次聚类的特点是⽐较直观的确定聚成⼏类合适,K-均值聚类的特点在于速度,所以这个这个时候我们可以采⽤以下的步骤进⾏聚类:⼀、K-均值聚类K-均值聚类与层次聚类都是关于距离的聚类模型,关于层次聚类的介绍详见《》。
层次聚类的局限:在层次聚类中,⼀旦个体被分⼊⼀个族群,它将不可再被归⼊另⼀个族群(单向的过程,局部最优的解法)。
故现在介绍⼀个“⾮层次”的聚类⽅法——分割法(Partition)。
最常⽤的分割法是k-均值(k-Means)法。
1、聚类算法的两种常见运⽤场景发现异常情况:如果不对数据进⾏任何形式的转换,只是经过中⼼标准化或级差标准化就进⾏快速聚类,会根据数据分布特征得到聚类结果。
这种聚类会将极端数据单独聚为⼏类。
这种⽅法适⽤于统计分析之前的异常值剔除,对异常⾏为的挖掘,⽐如监控银⾏账户是否有洗钱⾏为、监控POS机是有从事套现、监控某个终端是否是电话卡养卡客户等等。
将个案数据做划分:出于客户细分⽬的的聚类分析⼀般希望聚类结果为⼤致平均的⼏⼤类(原始数据尽量服从正态分布,这样聚类出来的簇的样本点个数⼤致接近),因此需要将数据进⾏转换,⽐如使⽤原始变量的百分位秩、Turkey正态评分、对数转换等等。
在这类分析中数据的具体数值并没有太多的意义,重要的是相对位置。
这种⽅法适⽤场景包括客户消费⾏为聚类、客户积分使⽤⾏为聚类等等。
以上两种场景的⼤致步骤如下:聚类算法不仅是建模的终点,更是重要的中间预处理过程,基于数据的预处理过程,聚类算法主要应⽤于以下领域:图像压缩:在使⽤聚类算法做图像压缩过程时,会先定义K个颜⾊数(例如128种颜⾊、256种颜⾊),颜⾊数就是聚类类别的数量;K均值聚类算法会把类似的颜⾊分别放在K个簇中,然后每个簇使⽤⼀种颜⾊来代替原始颜⾊,那么结果就是有多少个簇,就⽣成了由多少种颜⾊构成的图像,由此实现图像压缩。
第1章 多元正态分布1、在数据处理时,为什么通常要进行标准化处理?数据的标准化是将数据按比例缩放,使之落入一个小的特定区间。
在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。
其中最典型的就是0-1标准化和Z 标准化。
2、欧氏距离与马氏距离的优缺点是什么?欧氏距离也称欧几里得度量、欧几里得度量,是一个通常采用的距离定义,它是在m 维空间中两个点之间的真实距离。
在二维和三维空间中的欧氏距离的就是两点之间的距离。
缺点:就大部分统计问题而言,欧氏距离是不能令人满意的。
每个坐标对欧氏距离的贡献是同等的。
当坐标表示测量值时,它们往往带有大小不等的随机波动,在这种情况下,合理的方法是对坐标加权,使变化较大的坐标比变化较小的坐标有较小的权系数,这就产生了各种距离。
当各个分量为不同性质的量时,“距离”的大小与指标的单位有关。
它将样品的不同属性之间的差别等同看待,这一点有时不能满足实际要求。
没有考虑到总体变异对距离远近的影响。
马氏距离表示数据的协方差距离。
为两个服从同一分布并且其协方差矩阵为Σ的随机变量与的差异程度:如果协方差矩阵为单位矩阵,那么马氏距离就简化为欧氏距离,如果协方差矩阵为对角阵,则其也可称为正规化的欧氏距离。
优点:它不受量纲的影响,两点之间的马氏距离与原始数据的测量单位无关。
由标准化数据和中心化数据计算出的二点之间的马氏距离相同。
马氏距离还可以排除变量之间的相关性的干扰。
缺点:夸大了变化微小的变量的作用。
受协方差矩阵不稳定的影响,马氏距离并不总是能顺利计算出。
3、当变量X1和X2方向上的变差相等,且与互相独立时,采用欧氏距离与统计距离是否一致?统计距离区别于欧式距离,此距离要依赖样本的方差和协方差,能够体现各变量在变差大小上的不同,以及优势存在的相关性,还要求距离与各变量所用的单位无关。
如果各变量之间相互独立,即观测变量的协方差矩阵是对角矩阵, 则马氏距离就退化为用各个观测指标的标准差的倒数作为权数的加权欧氏距离。