回归分析与因子分析之比较
- 格式:docx
- 大小:82.61 KB
- 文档页数:12
科研常用的实验数据分析与处理方法对于每个科研工作者而言,对实验数据进行处理是在开始论文写作之前十分常见的工作之一。
但是,常见的数据分析方法有哪些呢?常用的数据分析方法有:聚类分析、因子分析、相关分析、对应分析、回归分析、方差分析。
1、聚类分析(Cluster Analysis)聚类分析指将物理或抽象对象的集合分组成为由类似的对象组成的多个类的分析过程。
聚类是将数据分类到不同的类或者簇这样的一个过程,所以同一个簇中的对象有很大的相似性,而不同簇间的对象有很大的相异性。
聚类分析是一种探索性的分析,在分类的过程中,人们不必事先给出一个分类的标准,聚类分析能够从样本数据出发,自动进行分类。
聚类分析所使用方法的不同,常常会得到不同的结论。
不同研究者对于同一组数据进行聚类分析,所得到的聚类数未必一致。
2、因子分析(Factor Analysis)因子分析是指研究从变量群中提取共性因子的统计技术。
因子分析就是从大量的数据中寻找内在的联系,减少决策的困难。
因子分析的方法约有10多种,如重心法、影像分析法,最大似然解、最小平方法、阿尔发抽因法、拉奥典型抽因法等等。
这些方法本质上大都属近似方法,是以相关系数矩阵为基础的,所不同的是相关系数矩阵对角线上的值,采用不同的共同性□2估值。
在社会学研究中,因子分析常采用以主成分分析为基础的反覆法。
3、相关分析(Correlation Analysis)相关分析(correlation analysis),相关分析是研究现象之间是否存在某种依存关系,并对具体有依存关系的现象探讨其相关方向以及相关程度。
相关关系是一种非确定性的关系,例如,以X和Y 分别记一个人的身高和体重,或分别记每公顷施肥量与每公顷小麦产量,则X与Y显然有关系,而又没有确切到可由其中的一个去精确地决定另一个的程度,这就是相关关系。
4、对应分析(Correspondence Analysis)对应分析(Correspondence analysis)也称关联分析、R-Q 型因子分析,通过分析由定性变量构成的交互汇总表来揭示变量间的联系。
常用的8种数据分析方法1. 描述统计分析。
描述统计分析是对数据进行整体性描述的一种方法,它通过计算数据的均值、中位数、标准差等指标来揭示数据的一般特征。
这种方法适用于对数据的整体情况进行了解,但并不能深入挖掘数据背后的规律。
2. 统计推断分析。
统计推断分析是通过对样本数据进行统计推断,来对总体数据的特征进行估计和推断的方法。
通过统计推断分析,我们可以通过样本数据推断出总体数据的一些特征,例如总体均值、总体比例等。
3. 回归分析。
回归分析是研究自变量与因变量之间关系的一种方法,通过建立回归模型来描述两者之间的函数关系。
回归分析可以用于预测和探索自变量对因变量的影响程度,是一种常用的数据分析方法。
4. 方差分析。
方差分析是用来比较两个或多个样本均值是否有显著差异的一种方法。
通过方差分析,我们可以判断不同因素对总体均值是否有显著影响,是一种常用的比较分析方法。
5. 聚类分析。
聚类分析是将数据集中的对象划分为若干个类别的一种方法,目的是使得同一类别内的对象相似度高,不同类别之间的相似度低。
聚类分析可以帮助我们发现数据中的内在结构和规律,是一种常用的探索性分析方法。
6. 因子分析。
因子分析是一种用于研究多个变量之间关系的方法,通过找出共性因子和特殊因子来揭示变量之间的内在联系。
因子分析可以帮助我们理解变量之间的复杂关系,是一种常用的数据降维方法。
7. 时间序列分析。
时间序列分析是对时间序列数据进行建模和预测的一种方法,通过对时间序列数据的趋势、季节性和周期性进行分解,来揭示数据的规律和趋势。
时间序列分析可以用于预测未来的数据走向,是一种常用的预测分析方法。
8. 生存分析。
生存分析是研究个体从某一特定时间点到达特定事件的时间长度的一种方法,它可以用于研究生存率、生存曲线等生存相关的问题。
生存分析可以帮助我们了解个体生存时间的分布情况,是一种常用的生存数据分析方法。
总结,以上就是常用的8种数据分析方法,每种方法都有其特定的应用场景和优势,我们可以根据具体的问题和数据特点选择合适的方法进行分析,以期得到准确、有用的分析结果。
文献综述毕业论文中的数据分析方法探讨在撰写毕业论文时,文献综述是一个至关重要的部分,它不仅可以展示研究者对相关领域已有研究成果的了解,还可以为自己的研究提供理论支持和研究方法的指导。
而在文献综述中,数据分析方法的选择和运用更是至关重要的环节。
本文将探讨文献综述毕业论文中常用的数据分析方法,包括定性分析和定量分析,以及它们在不同研究领域中的应用情况。
一、定性分析方法定性分析方法是通过对研究对象的特征、现象进行描述和解释,而非通过统计分析来得出结论的一种研究方法。
在文献综述中,定性分析方法常常用于对文献内容进行总结和归纳,揭示研究现状和发展趋势。
常见的定性分析方法包括内容分析、文本分析、主题分析等。
1. 内容分析内容分析是一种定性研究方法,通过对文本、图像、音频等材料进行系统的分析和解释,揭示其中的模式、主题和趋势。
在文献综述中,内容分析常用于对大量文献进行分类、整理和总结,帮助研究者理清研究领域的发展脉络和热点问题。
2. 文本分析文本分析是对文本内容进行深入解读和分析的方法,通过对文献中的关键词、主题、观点等进行提取和比较,揭示其中的内在联系和规律。
在文献综述中,文本分析可以帮助研究者理解不同文献之间的异同之处,为自己的研究提供理论支持和启示。
3. 主题分析主题分析是一种通过对文献内容进行分类和归纳,提取其中的主题和核心概念的方法。
在文献综述中,主题分析可以帮助研究者理清文献中的研究热点和关键问题,为自己的研究提供方向和思路。
二、定量分析方法定量分析方法是通过对数据进行收集、整理、分析和解释,得出客观结论的一种研究方法。
在文献综述中,定量分析方法常用于对文献中的数据进行统计分析和比较,揭示其中的规律和趋势。
常见的定量分析方法包括统计分析、回归分析、因子分析等。
1. 统计分析统计分析是一种通过对数据进行整理和描述,运用统计方法进行推断和分析的方法。
在文献综述中,统计分析常用于对文献中的数据进行总结和比较,揭示其中的规律和关联性,为研究者提供客观的研究依据。
科研常用的实验数据分析与处理方法科研实验数据的分析和处理是科学研究的重要环节之一,合理的数据处理方法可以帮助研究者准确地获取信息并得出科学结论。
下面将介绍几种科研常用的实验数据分析与处理方法。
一、描述统计分析描述统计分析是对数据进行总结和描述的一种方法,常用的描述统计指标包括均值、中位数、众数、标准差、极差等。
这些指标可以帮助研究者了解数据的总体特征和分布情况,从而为后续的数据分析提供基础。
二、假设检验分析假设检验是通过对样本数据与假设模型进行比较,判断样本数据是否与假设模型相符的一种统计方法。
假设检验常用于判断两组样本数据之间是否存在显著差异,有助于验证科学研究的假设和研究结论的可靠性。
常见的假设检验方法包括t检验、方差分析、卡方检验等。
三、相关分析相关分析是研究两个或多个变量之间关系强度和方向的一种方法。
常见的相关分析方法有皮尔逊相关分析和斯皮尔曼相关分析。
皮尔逊相关分析适用于研究两个连续变量之间的关系,而斯皮尔曼相关分析适用于研究两个有序变量或非线性关系的变量之间的关系。
四、回归分析回归分析是研究自变量与因变量之间关系的一种方法,通过建立回归模型可以预测因变量的值。
常见的回归分析方法有线性回归分析、逻辑回归分析、多元回归分析等。
回归分析可以帮助研究者研究自变量与因变量之间的量化关系,从而更好地理解研究对象。
五、聚类分析聚类分析是将样本根据其相似性进行分组的一种方法,通过聚类分析可以将样本分为不同的群组,用于研究研究对象的分类和归类。
常见的聚类分析方法有层次聚类、K均值聚类、密度聚类等。
聚类分析可以帮助研究者发现研究对象的内在结构和特征。
六、因子分析因子分析是通过对多个变量的分析,找出它们背后共同的作用因子的一种方法,常用于研究价值评估、消费者需求等方面。
因子分析可以帮助研究者简化数据集,识别重要因素,从而更好地理解研究对象。
总之,上述几种科研常用的实验数据分析与处理方法可以帮助研究者对数据进行清晰地分析和解读,从而提出科学结论并给出具有实践意义的建议。
5种常用的统计学方法常用的统计学方法主要包括描述统计、推断统计、回归分析、方差分析和因子分析。
一、描述统计描述统计是对数据进行总结和展示的一种方法。
它可以通过计算数据的中心趋势和离散程度来揭示数据的特征。
常用的描述统计方法包括均值、中位数、众数、标准差、极差等。
均值是一组数据的平均值,可以用来表示数据的中心位置。
例如,在一组考试成绩中,计算出的均值为80分,说明这组数据整体上呈现出较高的水平。
中位数是将一组数据按照大小顺序排列后,处于中间位置的数值。
对于有偏态的数据,中位数比均值更能反映数据的中心位置。
例如,在一组工资数据中,工资水平差异较大,此时计算中位数更能反映数据的中心趋势。
众数是一组数据中出现次数最多的数值,可以反映数据的分布特征。
例如,在一组人口年龄数据中,出现最多的年龄段是30岁,说明这个年龄段的人口占比较大。
标准差是一组数据与其均值之间的差异程度的度量指标。
标准差越大,说明数据的离散程度越大,反之则说明数据的离散程度较小。
例如,在一组销售额数据中,标准差较大则说明销售额的波动性较大。
极差是一组数据中最大值与最小值之间的差异,可以反映数据的变动范围。
例如,在一组温度数据中,最高温度与最低温度之间的差异较大,则说明温度变动范围较大。
二、推断统计推断统计是通过从样本中获取信息来推断总体特征的一种方法。
它可以通过对样本进行抽样和假设检验来进行推断。
常用的推断统计方法包括置信区间估计和假设检验。
置信区间估计是一种通过样本估计总体参数的方法。
它可以用来估计总体均值、总体比例等参数,并给出一个置信水平的区间估计。
例如,通过对一组产品质量进行抽样,可以计算出产品的平均质量在95%的置信水平下落在某个区间内。
假设检验是一种用来验证关于总体参数的假设的方法。
它可以判断样本观测结果与假设之间是否存在显著差异。
例如,在一组学生考试成绩中,通过假设检验可以判断是否存在某个因素对学生成绩的影响。
三、回归分析回归分析是一种用来研究变量之间关系的方法。
因子分析与其他统计方法的比较与应用统计方法在科学研究、市场调查、心理学等领域有着广泛的应用。
其中,因子分析是一种常用的多变量分析方法,用于发现变量之间的内在关系。
除了因子分析,还有许多其他统计方法,如相关分析、聚类分析、回归分析等。
本文将围绕因子分析与其他统计方法展开比较与应用的讨论。
一、因子分析与相关分析因子分析和相关分析都是用来研究变量之间的关系的统计方法。
但它们的研究对象有所不同。
相关分析是研究变量之间的线性相关性,而因子分析则是研究多个变量之间的内在结构和相关性。
在实际应用中,可以通过相关分析初步了解变量之间的线性相关性,然后使用因子分析来深入探究变量之间的内在结构和联系。
二、因子分析与聚类分析聚类分析是一种用于将样本或变量分成相似群体的统计方法。
与因子分析相比,聚类分析更侧重于寻找相似性,而因子分析更侧重于寻找内在结构。
在实际应用中,可以先使用聚类分析将变量或样本进行分类,然后再使用因子分析来探究各个分类中的内在结构和关系。
三、因子分析与回归分析回归分析是一种用于研究自变量和因变量之间关系的统计方法。
与因子分析相比,回归分析更侧重于探究特定变量之间的因果关系。
在实际应用中,可以先通过因子分析找出变量之间的内在结构和联系,然后再使用回归分析来研究其中的因果关系。
四、因子分析的应用因子分析在实际应用中有着广泛的用途。
在心理学领域,可以使用因子分析来研究人格特质、心理特征等方面的内在结构。
在市场调查中,可以使用因子分析来分析消费者对产品特征的偏好和重要性。
在医学研究中,可以使用因子分析来研究疾病的症状和病因之间的内在关系。
总之,因子分析在各个领域都有着重要的应用价值。
五、其他统计方法的应用除了因子分析,其他统计方法也有着广泛的应用价值。
相关分析可以用于研究变量之间的线性相关性,聚类分析可以用于将样本或变量进行分类,回归分析可以用于研究自变量和因变量之间的因果关系。
这些统计方法在实际应用中各有其特点和优势,可以根据具体问题的需求选择合适的方法进行分析。
经济学技巧分析经济数据的方法经济学作为一门社会科学,研究着人类社会中生产、分配和消费等经济活动的规律。
经济数据是经济学研究中不可或缺的重要资源,它们反映了经济现象的发展和变化。
如何准确分析经济数据,发现其中的规律与趋势,是经济学者和决策者必须具备的关键能力。
本文将介绍几种经济学技巧,帮助读者更好地分析经济数据。
一、时间序列分析时间序列分析是一种常用的经济学技巧,用于研究同一经济变量在时间上的演变规律。
通过构建数学模型,分析历史数据的趋势、周期性和季节性等特征,可以预测未来的经济走势。
时间序列分析常用的工具包括移动平均法、指数平滑法、趋势分析法等。
1. 移动平均法移动平均法是一种平滑时间序列数据的方法,通过计算一定时间段内的均值来消除随机波动,关注数据的长期趋势。
常用的移动平均法包括简单移动平均法和加权移动平均法。
简单移动平均法适用于数据波动较小的情况,而加权移动平均法则能更好地反映数据的变动趋势。
2. 指数平滑法指数平滑法是一种较为简单有效的时间序列分析方法,它基于最近数据的权重较大,随着时间的推移,旧数据的权重逐渐减小。
通常采用的指数平滑法包括简单指数平滑法和双指数平滑法,可以灵活地预测未来的数据走势。
3. 趋势分析法趋势分析法是一种通过拟合趋势线来判断时间序列数据变化趋势的方法。
常用的趋势线包括线性趋势线、指数趋势线和多项式趋势线等。
趋势分析法能够揭示出数据的长期变动趋势,并对趋势进行预测。
二、横截面分析横截面分析是一种通过搜集和比较不同个体在同一时间点上的数据来研究经济问题的方法。
横截面数据一般反映了某一时期内各个经济个体的特征和状况。
横截面分析常用的方法包括相关分析、回归分析和因子分析等。
1. 相关分析相关分析是一种用来研究两个或多个变量之间相关关系的统计方法。
通过计算相关系数,可以判断变量之间的线性关系强度和方向。
相关分析能够帮助经济学家发现变量之间的关联性和影响。
2. 回归分析回归分析是一种通过建立经济模型,研究因变量与自变量之间的关系的方法。
回归分析与因子分析之比较刘婷玉数学与统计学院 06 级【摘要】回归分析与因子分析是数理统计中常用的两种数据处理方法,本文对他们进行比较,分析了两种方法的区别与联系,各自的使用和适用范围,对教学质量的提高及在实际中对于有效选择此两种统计方法提供了依据。
【关键词】回归分析因子分析比较一、问题提出回归分析和因子分析都是研究因变量与因子间关系的一种数据处理方法,在模型上看,只是因子结构不一样,他们之间到底有什么内在联系,值得我们研究并加以利用。
二、问题分析1、统计模型和类型多元线性回归模型表示方法为Y b0b1 X 1b2 X 2b k X k un 个样本观测值(Y,X1i , X2 i,, Xki)i 1,2, , ni得: Y b0b X1 ib X2 ib Xkiuii12k 其解析表达式为 :Y 1 b 0 b 1 X11b 2 X21b k X Y 2b 0b 1X12b 2X22b k Xk 1 u1k 2u2Ynbb 1X1nb 2X2 nb kXknun多元模型的矩阵表达式为Y11 X Y 21X Yn1XYXBU11121 nXXX21 22 2 nXXXk1b 0u 1b 1k 2u2b2knbkunY 11 X 11 X YY 21X 12X XY n1X1 nXb 0u 1b 1U u 2Bb221222 nX XXk 1k 2knb ku n一般地,设 X=(x1 , x2, ⋯,xp) ’为可观测的随机变量,且有X iia i 1 f 1 a i 2 f 2 a im f m e i。
在因子分析中, p 维的变量向量 x 被赋予一个随机结构, x = α+Af+ε具体也可以写成以下形式:x 1a 11 f1a 12 f2a 1m fm1x 2 a 21 f1a 22 f2a 2 m fm2x pa p1 f 1a p 2f2a pm fmp(1)其中 α是 p 维向量, A 是 p ×r 参数矩阵, f 是 r 维潜变量向量,称为公共因子 (Common factors),而ε是 p 维的变量向量,称为特殊因子(Specific factors),满足下列假定:E(ε) =0,cov(ε) = (对角矩阵 )E(f) =0,cov (f,ε)=0,cov(f) =I(2)它把每个变量分解为两部分,一部分是由这些变量内含的公共因子所构成的,即公共因子部分,另一部分是每个变量各自独有的因子,即所谓特殊因子部分。
应当注意,因子模型不具有唯一性,设T 是一个正交矩阵,由TT 'I 可知,因子模型x =α+Af+ε与模型x =α+(AT)(T ′f)+ ε等价。
后者载荷矩阵为 AT ,新的公共因子 T′f 。
正是由于因子模型的不唯一性,所以当原模型不适合专业解释时,则作一个正交变换 T ,把原模型改变为新模型,在新模型中再去寻找因子的专业解释,这就为因子旋转提供了理论的基础。
由两者的比较可知,两种模型都是用某几个因子来解释变量的,只是因子构成不一样,回归分析的因子之间可能存在相关关系,但是后者却是独立的。
回归分析模型写成了原观测变量的线性组合,因子分析是描述原指标X 协方差阵结构的一种模型,对原观测变量分解成公共因子和特殊因子两部分,当公共因子的个数 m=原变量个数 p 时,就不能考虑特殊因子了,此时因子分析也对应于一种线性组合了,饿而且因子模型的系数矩阵表明了原变量和公共因子的相关程度。
2、目的和作用回归分析是为了分析一个变量如何依赖其它变量而提出的一种统计分析方法,它的目的是要确定引起因变量变化的各个因素,多元线性回归是研究一个因变量(Y)和多个自变量( Xi)之间数量上相互依存的线性关系。
利用回归分析可以进行因素分析、调整混杂因素和统计预测。
因子分析是用于研究个体测量指标的协方差 (或相关 )结构的探索性数据分析的多元技术。
它找出若干可以解释可观测指标之间的变差或者联系的潜变量从而简化高维数据,并对相似指标进行分组及检测多重共线性,将高维数据在低维空间中图示以利于直观考察数据的分布情况及检测异常值。
目标是通过减少变量的个数来了解数据的结构,在某种意义上可以取代原始数据,而且通过图示和多元推断技术更容易进行研究。
它就是用少数几个有意义因子来描述多个指标或因素之间的联系,与此同时,又能保存住原有数据结构所提供的大部分信息,这样就可以找出潜在的特征。
其目的为化简数据、浓缩信息、探讨内在结构,也就是说将分散在多个变量中的同类信息集中起来、提纯,从而便于分析、解释和利用。
同样是因变量和因子之间的关系,但是回归分析却能得出确切的数值关系,而且通常是定量的(不过对定性因素可以采用虚拟变数的处理方法)。
但因子分析一般适用于定性的,不可观测的数据。
不过,回归分析的关系不精简明了,而且确定的因子也是根据人为经验事先定好的,不如因子分析的全面,可能还得做逐步回归等才能剔除或增加变量。
3、适用原则首先,回归分析和因子分析使用的数据不一样。
回归分析同时需要因子和因变量的数据,数据结构为因变量和因子对应的顺序数据,即{Yi, Xii 1,2, , n} 。
而因子分析只需要在不同情况下对应的因变量的值,无需知道 X 的确切数值,只要根据调的数值就行了,也即这种方法可以揭示因子内部的关系。
其次,样本容量的要求也不同。
回归分析最小样本容量n ≥?(XX)1X Y,有 (X`X)-1 存在 | X`X | 0X`X 为 k+1k+1。
对B阶的满秩阵, R(AB) ≤ min(R(A),R(B)) ,R(X) ≥ k+1,因此,必须有n≥k+1。
根据经验,有① n ≥ 30 或者 n ≥ 3(k+1)才能满足模型估计的基本要求。
② n ≥ 3(k+1)时,t 分布才稳定,检验才较为有效。
根据Gromuch(1983)的观点,因子分析的样本量要求如下 :一般原则是要求样本数目至少是变量个数的五倍,能有一比十的比例是较可被接受的,有些研究建议观察值个数为变量个数的二十倍 ;总样本最好应有 100 个或以上的观察值,通常不要少于 50 个观察值。
最后,模型假设也有不同之处:在回归分析中,有如下假设:①解释变量 Xi 是确定性变量,不是随机变量;解释变量之间互不相关,即无多重共线性。
②随机误差项具有0 均值和同方差。
③ 随机误差项不存在序列相关关系。
④ 随机误差项与解释变量之间不相关。
⑤随机误差项服从0 均值、同方差的正态分布。
在因子分析中,假定:① 公共因子的均数为0,方差为1。
②特殊因子的均数为0,方差为δi ,且特殊因子互不相关。
③公共因子与特殊因子相互独立。
由比较可知,两种分析方法在两类因子的相关性上有相似之处,差别主要在于回归分析中的随机误差项要求服从0 均值、同方差的正态分布。
4、 模型的解Rij回归分析应用最小二乘估计,其矩阵表示如下:? ? YXBUU ~ N(0,2Y X B)n 2n2??QeiEy i?iY YY X Bi 1i 1y? ?e e (Y X B ) (Y X B )Q(Y ? )( Y ?B X X B )( Y Y? ? ? ? 为什么 ??Y X B B X Y BXXB)Y X BBXY ?Y Y ?? ?2BXY BXXBQ 0??XY XXBB?12e e BX XX Y?n k 1它具有①线性 (估计量都是被解释变量观测值的线性组合) ②无偏性(估计量的数学期望 =被估计的真值)③有效性(估计量的方差是所有线性无偏估计中最小的)而因子分析有若干种方法① 主成分法( principal component factor )a ijj l ji , i1,2, , p; j 1, 2,, m每一个公共因子的载荷系数之平方和等于对应的特征根,即该p22公共因子的方差。
ja ijgi 。
i 1② 主因子法( principal factor )设原变量的相关矩阵为 R=( rij ),其逆矩阵为 R-1=( rij )。
各变量'特征方差的初始值取为逆相关矩阵对角线元素的倒数,i1 / r ii 。
m则共同度的初始值为 h 12a ij 2 。
j 1③ 极大似然法( maximum likelihood factor )假定原变量服从正态分布,公共因子和特殊因子也服从正态分布,构造因子负荷和特殊方差的似然函数,求其极大,得到唯一解。
由上可知,因子载荷的统计意义是第i个变量与第j个公共因子的相关系数,表示 X i 依赖巧的份量 (比重 )。
统计中应称为权。
现称载荷,表示第 i 个变量在第 j 个因子上的负荷,反映了第i 个变量在第 j 个因子上的相对重要性。
另外, 回归的系数是唯一确定的, 而因子模型的系数矩阵不唯一, 且该矩阵表明了原变量和公共因子的相关程度。
差阵的特征值所对应的特征向量。
某解释变量前回归系数的含义是,在其他解释变量保持不变的条件下, 该变量变化一个单位,被解释变量将平均发生偏回归系数大小的变动。
另外,因子分析中的载荷矩阵是不可逆的, 只能通过可观测的原变量去估计不可观测的公共因子,bij是因子载荷矩阵中的元素,是第 i 变量 Xi 与第 j 个公共因子Zj的相关系数,即表示 X i 依赖Zj的份量,是第 i 变量在第 j 个公共因子上的负荷,它反映了第 i 变量在第 j 个公共因子上的相对重要性。
j 是第j 个原观测变量的特殊因子,且此处的X i与Zj的均值都为 0,方差都为 1。
5、效果检验对多元线性回归可作如下平方和分解:(Y Y)2(Y Y)2(Yi Y ) 2i iiTSS RSS ESS总离差平方和=回归平方和+残差平方和自由度: n-1k-1n-k回归方程的总体检验:①:12k0H 0H1 :并非所有的都为零②据给定的F③根据样本资料计算统计量 F2y y k MSR SSR kF =2MSE SSE n 1 k y y n 1 k④如果FF则拒绝H0,否则接收 H 0回归系数的检验:①: k 0 H 0 H 1: k②据给定的 F③计算统计量FF =SSRX 1,X 2,X kSSRX 1,X 2,Xk 1/ 1SSE X 1,X 2, X k / n1k④如果F F则拒绝H 0 , 否则接收H 0而对于因子分析而言, 是没有统计检验的, 只是在模型中各个量的统计意义上有所表现:(1)特征根 (Eigenvalue), (H.Kaiser)所谓特征值, 是指每一行因子负荷量平方加总后之总和,表示该因子能解释全体变异的能力。
每一个公共因子的载荷系数之平方和等于对应的特征根, 即该公共因子的方差。
它可以被看成是主成分影响度的指标,代表引入因子、主成分后可解释平均多少原始变量的信息。