二聚类与判别
- 格式:doc
- 大小:331.50 KB
- 文档页数:10
应用数理统计作业二学号:姓名:电话:二〇一四年十二月对NBA球队的聚类分析和判别分析摘要:NBA联盟作为篮球的最高殿堂深受广大球迷的喜爱,联盟的30支球队大家也耳熟能详,本文选取NBA联盟30支球队2013-2014常规赛赛季场均数据。
利用spss软件通过聚类分析对27个地区进行实力类型分类,并利用判断分析对其余3支球队对分类结果进行验证。
可以看出各球队实力类型与赛季实际结果相吻合。
关键词:聚类分析,判别分析,NBA目录1. 引言 (4)2、相关统计基础理论 (5)2.1、聚类分析 (5)2.2,判别分析 (6)3.聚类分析 (7)3.1数据文件 (7)3.2聚类分析过程 (9)3.3 聚类结果分析 (11)4、判别分析 (12)4.1 判别分析过程 (12)4.2判别检验 (17)5、结论 (20)参考文献 (21)致谢 (22)1. 引言1896年,美国第一个篮球组织"全国篮球联盟(简称NBL)"成立,但当时篮球规则还不完善,组织机构也不健全,经过几个赛季后,该组织就名存实亡了。
1946年4月6日,由美国波士顿花园老板沃尔特.阿.布朗发起成立了“美国篮球协会”(简称BAA)。
1949年在布朗的努力下,美国两大篮球组织BAA和NBL合并为“全国篮球协会”(简称NBA)。
NBA季前赛是 NBA各支队伍的热身赛,因为在每个赛季结束后,每支球队在阵容上都有相当大的变化,为了让各队磨合阵容,熟悉各自球队的打法,确定各队新赛季的比赛阵容、同时也能增进队员、教练员之间的沟通,所以在每个赛季开始之前,NBA就举办若干场季前赛,使他们能以比较好的状态投入到漫长的常规赛的比赛当中。
为了扩大NBA在全球的影响,季前赛有约三分之一的球队在美国以外的国家举办。
从总体上看,NBA的赛程安排分为常规赛、季后赛和总决赛。
常规赛采用主客场制,季后赛和总决赛采用七场四胜制的淘汰制。
[31]NBA常规赛从每年的11月的第一个星期二开罗,到次年的4月20日左右结束。
判别分析与聚类分析的基本原理数据分析是在如今信息时代中,越来越重要的一项技能。
在数据分析的过程中,判别分析和聚类分析是两个非常重要的方法。
本文将介绍判别分析和聚类分析的基本原理,以及它们在数据分析中的应用。
一、判别分析的基本原理判别分析是一种用于分类问题的统计方法,其目的是通过学习已知类别的样本数据,来构建一个分类器,从而对未知样本进行分类。
判别分析的基本原理可以简单概括为以下几个步骤:1. 数据预处理:首先需要对数据进行预处理,包括数据清洗、缺失值处理、特征选择等,以获得更好的数据质量。
2. 特征提取:在进行判别分析之前,需要将原始数据转化为有效的特征。
特征提取的方法有很多种,常用的包括主成分分析、线性判别分析等。
3. 训练分类器:利用判别分析算法对已知类别的样本数据进行训练,建立分类模型。
常用的判别分析方法有线性判别分析、二次判别分析等。
4. 分类预测:通过训练好的分类器,对未知样本进行分类预测。
分类预测的结果可以是离散的类标签,也可以是概率值。
判别分析广泛应用于医学、金融、市场营销等领域。
例如,在医学领域,可以利用判别分析来预测疾病的状态,辅助医生做出诊断决策。
二、聚类分析的基本原理聚类分析是一种无监督学习方法,其目的是将相似的数据对象分组,使得同一组内的对象相似度较高,不同组间的相似度较低。
聚类分析的基本原理可以概括为以下几个步骤:1. 选择相似性度量:首先需要选择一个合适的相似性度量,用于评估数据对象之间的相似程度。
常用的相似性度量包括欧氏距离、曼哈顿距离等。
2. 选择聚类算法:根据具体的问题需求,选择合适的聚类算法。
常用的聚类算法有K-means、层次聚类等。
3. 确定聚类数目:根据实际问题,确定聚类的数目。
有些情况下,聚类数目事先是已知的,有些情况下需要通过评价指标进行确定。
4. 根据聚类结果进行分析:将数据对象划分到各个聚类中,并对聚类结果进行可视化和解释。
聚类分析被广泛应用于市场分析、图像处理、社交网络等领域。
判别分析与聚类分析判别分析与聚类分析是数据分析领域中常用的两种分析方法。
它们都在大量数据的基础上通过统计方法进行数据分类和归纳,从而帮助分析师或决策者提取有用信息并作出相应决策。
一、判别分析:判别分析是一种有监督学习的方法,常用于分类问题。
它通过寻找最佳的分类边界,将不同类别的样本数据分开。
判别分析可以帮助我们理解和解释不同变量之间的关系,并利用这些关系进行预测和决策。
判别分析的基本原理是根据已知分类的数据样本,建立一个判别函数,用来判断未知样本属于哪个分类。
常见的判别分析方法包括线性判别分析(LDA)和二次判别分析(QDA)。
线性判别分析假设各类别样本的协方差矩阵相同,而二次判别分析则放宽了这个假设。
判别分析的应用广泛,比如在医学领域可以通过患者的各种特征数据(如生理指标、疾病症状等)来预测患者是否患有某种疾病;在金融领域可以用来判断客户是否会违约等。
二、聚类分析:聚类分析是一种无监督学习的方法,常用于对数据进行分类和归纳。
相对于判别分析,聚类分析不需要预先知道样本的分类,而是根据数据之间的相似性进行聚类。
聚类分析的基本思想是将具有相似特征的个体归为一类,不同类别之间的个体则具有明显的差异。
聚类分析可以帮助我们发现数据中的潜在结构,识别相似的群组,并进一步进行深入分析。
常见的聚类分析方法包括层次聚类分析(HCA)和k-means聚类分析等。
层次聚类分析基于样本间的相似性,通过逐步合并或分割样本来构建聚类树。
而k-means聚类分析则是通过设定k个初始聚类中心,迭代更新样本的分类,直至达到最优状态。
聚类分析在市场细分、社交网络分析、图像处理等领域具有广泛应用。
例如,可以将客户按照他们的消费喜好进行分组,以便为不同群体提供有针对性的营销活动。
总结:判别分析和聚类分析是两种常用的数据分析方法。
判别分析适用于已知分类的问题,通过建立判别函数对未知样本进行分类;聚类分析适用于未知分类的问题,通过数据的相似性进行样本聚类。
聚类分析聚类分析和判别分析有相似的作用,都是起到分类的作用。
但是,判别分析是已知分类然后总结出判别规则,是一种有指导的学习;而聚类分析则是有了一批样本,不知道它们的分类,甚至连分成几类也不知道,希望用某种方法把观测进行合理的分类,使得同一类的观测比较接近,不同类的观测相差较多,这是无指导的学习。
所以,聚类分析依赖于对观测间的接近程度(距离)或相似程度的理解,定义不同的距离量度和相似性量度就可以产生不同的聚类结果。
SAS/STAT中提供了谱系聚类、快速聚类、变量聚类等聚类过程。
谱系聚类方法介绍谱系聚类是一种逐次合并类的方法,最后得到一个聚类的二叉树聚类图。
其想法是,对于个观测,先计算其两两的距离得到一个距离矩阵,然后把离得最近的两个观测合并为一类,于是我们现在只剩了个类(每个单独的未合并的观测作为一个类)。
计算这个类两两之间的距离,找到离得最近的两个类将其合并,就只剩下了个类……直到剩下两个类,把它们合并为一个类为止。
当然,真的合并成一个类就失去了聚类的意义,所以上面的聚类过程应该在某个类水平数(即未合并的类数)停下来,最终的类就取这些未合并的类。
决定聚类个数是一个很复杂的问题。
设观测个数为,变量个数为,为在某一聚类水平上的类的个数,为第个观测,是当前(水平)的第类,为中的观测个数,为均值向量,为类中的均值向量(中心),为欧氏长度,为总离差平方和,为类的类内离差平方和,为聚类水平对应的各类的类内离差平方和的总和。
假设某一步聚类把类和类合并为下一水平的类,则定义为合并导致的类内离差平方和的增量。
用代表两个观测之间的距离或非相似性测度,为第水平的类和类之间的距离或非相似性测度。
进行谱系聚类时,类间距离可以直接计算,也可以从上一聚类水平的距离递推得到。
观测间的距离可以用欧氏距离或欧氏距离的平方,如果用其它距离或非相似性测度得到了一个观测间的距离矩阵也可以作为谱系聚类方法的输入。
根据类间距离的计算方法的不同,有多种不同的聚类方法。
实验二聚类与判别实验项目名称:利用Matlab进行聚类和判别分析实验项目性质:普通实验所属课程名称:数学建模实验参考资料:实验计划学时:4一、实验目的:1、利用MATLAB进行聚类分析和判别分析;2、通过实际例题学习用聚类和判别分析解决相关简单的实际问题;3、理解判别分析误判率含义,应用判别模型进行预测。
二、实验内容2.1 聚类分析1、工厂产品问题(教材220页例题9.3);2、工人身高体重问题(教材239页习题9.1);2.2 判别分析1、雨天非雨天问题(教材231页例9.5);2、蠓的分类(教材234页);三、实验方法、步骤及结果分析简要提示3.1 基础知识一、聚类在MATLAB中通过pdist、linkage、dendrogram、cluster等函数来完成此种方法。
层次聚类的过程如下:1、相似性度量确定对象(实际上就是数据集中的每个数据点)之间的相似性,实际上就是定义一个表征对象之间差异的距离,例如最简单的平面上点的聚类中,最经常使用的就是欧几里得距离。
使用pdist来实现,具体用法如下:Y = pdist(X,distance)根据距离distance来计算X中各点之间的距离Y。
其中X为数据集,distance可以取为欧氏距离,马氏距离,切比雪夫距离。
对于具有M个点的数据集X,pdist之后的Y将是具有M*(M-1)/2个元素的行向量。
例1-1:Y=pdist(X)举例。
>> X=randn(6,2)X =-0.4326 1.1892-1.6656 -0.03760.1253 0.32730.2877 0.1746-1.1465 -0.18671.1909 0.7258>>plot(X(:,1),X(:,2),'bo') %画出X的散点图(图1)图1>>Y=pdist(X) %计算X的第一个点与与2-6点、第2点与3-6点,......距离Y =Columns 1 through 151.7394 1.0267 1.2442 1.5501 1.6883 1.8277 1.9648 0.54012.9568 0.2228 1.3717 1.1377 1.4790 1.0581 2.5092例子中X数据集可以看作包含6个平面数据点,pdist之后的Y是一个行向量,15个元素分别代表XC个元素的行向量。
的第1点与2-6点、第2点与3-6点,......这样的距离。
则Y为具有26注:(1)Y这样的显示虽然节省了内存空间,但对用户来说不是很易懂,如果需要对这些距离进行特定操作的话,也不太好索引。
MATLAB中可以用squareform把Y转换成方阵形式,方阵中<i,j>位置的数值就是X中第i和第j点之间的距离,显然这个方阵应该是个对角元素为0的对称阵。
>> squareform(Y)ans =0 1.7394 1.0267 1.2442 1.5501 1.68831.7394 0 1.8277 1.9648 0.54012.95681.0267 1.8277 0 0.2228 1.3717 1.13771.2442 1.9648 0.2228 0 1.4790 1.05811.5501 0.5401 1.3717 1.4790 02.50921.68832.9568 1.1377 1.0581 2.5092 0注:(2)pdist可以使用多种参数,指定不同的距离算法。
另外,当数据规模很大时,可以想象pdist产生的Y占用内存将是很吓人的,比如X有10k个数据点,那么X占10k*8*2Bytes=160K,这看起来不算啥,但是pdist后的Y会有10k*10k/2*8Bytes=400M。
因此,使用MATLAB的层次聚类来处理大规模数据,大概是很不合适的。
2、聚类树的产生确定好了对象间的差异度(距离)后,就可以用Z=linkage(Y)产生层次聚类树。
>> Z=linkage(Y) Z =3.00004.0000 0.22288.0000 10.0000 1.3717对于6个元素的X , Y 是1行6*(6-1)/2的行向量,Z 则是(6-1)*3的矩阵。
Z 数组的前两列是索引下标列,最后一列是距离列。
如上例中表示在产生聚类树的计算过程中,第3和第4点先聚成一类,他们之间的距离是0.2228,以此类推。
要注意的是,为了标记每一个节点,需要给新产生的聚类也安排一个标识,MATLAB 中会将新产生的聚类依次用6+1,6+2,....依次来标识。
比如第3和第4点聚成的类以后就用7来标识,第2和第5点聚成的类用8来标识,依次类推。
通过linkage 函数计算之后,实际上二叉树式的聚类已经完成了。
Z 这个数据数组不太好看,可以用dendrogram(Z)来可视化聚类树。
dendrogram(Z)注:(3) dendrogram 默认最多画30个最底层节点,当然可是设置参数改变这个限制,比如dendrogram(Z,0)就会把所有数据点索引下标都标出来,但对于成千上万的数据集合,这样的结果必然是图形下方非常拥挤。
3、聚类树的检验(Verifying the Cluster Tree )*初步的聚类树画完后,还要做很多后期工作的,包括这样的聚类是不是可靠,是不是代表了实际的对象分化模式,对于具体的应用,应该怎样认识这个完全版的聚类树,产生具有较少分叉的可供决策参考的分类结果呢?这都是需要考虑的。
MATLAB 中提供了cluster, clusterdata, cophenet, inconsistent 等相关函数。
cluster 用于剪裁完全版的聚类树,产生具有一定cutoff 的可用于参考的树。
clusterdata 可以认为是pdist,linkage,cluster 的综合,当然更简易一点。
cophenet 和inconsistent 用来计算某些系数,前者用于检验一定算法下产生的二叉聚类树和实际情况的相符程度(就是检测二叉聚类树中各元素间的距离和pdist计算产生的实际的距离之间有多大的相关性),inconsistent则是量化某个层次的聚类上的节点间的差异性(可用于作为cluster的剪裁标准)。
后面这些的理解,大概需要对聚类有一个更深刻更数学的认识。
在一个层次聚类树中,在原数据集中任何两个对象最终是某种程度上联结在一起。
联结的高度代表了包含这两个对象两个组之间的距离。
这个高度就是两个对象间的分类距离。
对于由linkage函数产生的聚类树,一种衡量其优劣的方式就是比较由linkage和pdist产生的距离。
如果聚类有效,在分类树中,对象的联结与距离向量中的对象将会具有强关联性。
Cophenet函数比较了这些值所在的两个集合并且计算它们的相关性,返回值称为分类相关系数,此值越接近1,说明对数据聚类的结果越能精确。
例如:图4 将20工厂的值赋给16和21工厂的聚类结果根据图4可见,聚类结果为:第一次计算两个样品的最小距离是1,所以把距离为1的点合成一类:{17,18,19},{12,13},{5,6,11},{7,8,9},{1,2}第二次计算两个类间的最短距离为2。
把距离不大于2的类归为一类,则得5个扩大的新类:{20,17,18,19},{5,6,11,3},{7,8,9,10}第三次计算两个类间的最小距离为2,则有新类{12,13,15},{1,2,3,4}第四次计算两个类间的最小距离为2.2361,则将所有的点(除16和21),归在四类中:{12,13,15,14},{1,2,3,4,5,6,11},{7,8,9,10},{17,18,19,20}二、判别能将数据模型进行分类的特征曲线称作分类器。
对于一种已知的分类器而言,源于训练数据。
然后基于此分类器对新的样本进行分类。
两个总体的判别法参数化的方法,例如判别分析—根据训练数据拟合出参数模型,然后代入新的数据对其进行分类。
非参数化的方法,如分类树的方法—使用其它的方式去确定分类器。
判别分析使用训练数据去估计关于预测变量的判别函数。
在预测空间中,判别函数确定不同类之间的界限。
1、距离判别法以G 1和G 2分别表示两总体,设它们是取值于R p 中的随机变量,它们的数学期望和协方差矩阵分别为11EG μ=,22EG μ=,11VarG S =,22VarG S =问题:设有一个样本x ∈R p,问x 属于总体G 1还是属于总体G 2?距离判别法是根据x 与G 1、G 2的距离决定x 的归属。
其原则是:若x 与G 1距离小,则x 属于G 1;若x 与G 2的距离小,则x 属于G 2。
即(ⅰ)如果1(,G )d x ≤2(,G )d x ,则判断1G x ∈; (ⅱ)如果2(,G )d x <1(,G )d x ,则判断2G x ∈。
其中,(,G )i d x 为马氏距离,即2(,G )i d x =(T 1)()i i i x S x μμ---,2,1=i[class,err,POSTERIOR] = classify(sample,training,group,type) 说明:sample —样本数据;training —训练数据集。
Classify 将训练集training 中的每行样本sample 数据进行分类, sample与training 必须是具有相同列数的矩阵; group —训练数据所对应的类集合; type —判别函数的类型;可选以下类型:(1)'linear' — 线性分类器,为缺省时默认值。
(2)'diaglinear' — 对角线性分类器,类似于 'linear', 但其具有一对角协方差矩阵估计 (naiveBayes classifiers).(3)'quadratic' — Fits multivariate normal densities with covariance estimates stratified by group.(4)'diagquadratic' — 类似于'quadratic',但具有一个对角协方差矩阵估计。
Similar to 'quadratic', but with a diagonal covariance matrix estimate (naive Bayes classifiers).(5)'mahalanobis' — 使用马氏距离及协方差估计。
返回值class —对sample 的分类结果;err —基于训练数据的误判率估计;POSTERIOR —后验概率矩阵的估计值,即已知第i 个样本观察值条件下,其来源于第j 各类的概率Pr(group j|obs i)。