SPSS数据分析—混合线性模型
- 格式:docx
- 大小:37.86 KB
- 文档页数:3
SPSS多元线性回归分析实例操作步骤在数据分析领域,多元线性回归分析是一种强大且常用的工具,它能够帮助我们理解多个自变量与一个因变量之间的线性关系。
接下来,我将为您详细介绍使用 SPSS 进行多元线性回归分析的具体操作步骤。
首先,准备好您的数据。
数据应该以特定的格式整理,通常包括自变量和因变量的列。
确保数据的准确性和完整性,因为这将直接影响分析结果的可靠性。
打开 SPSS 软件,在菜单栏中选择“文件”,然后点击“打开”,找到您存放数据的文件并导入。
在导入数据后,点击“分析”菜单,选择“回归”,再点击“线性”。
这将打开多元线性回归的对话框。
在“线性回归”对话框中,将您的因变量拖放到“因变量”框中,将自变量拖放到“自变量”框中。
接下来,点击“统计”按钮。
在“统计”对话框中,您可以选择一些常用的统计量。
例如,勾选“估计”可以得到回归系数的估计值;勾选“置信区间”可以得到回归系数的置信区间;勾选“模型拟合度”可以评估模型的拟合效果等。
根据您的具体需求选择合适的统计量,然后点击“继续”。
再点击“图”按钮。
在这里,您可以选择生成一些有助于直观理解回归结果的图形。
比如,勾选“正态概率图”可以检查残差的正态性;勾选“残差图”可以观察残差的分布情况等。
选择完毕后点击“继续”。
然后点击“保存”按钮。
您可以选择保存预测值、残差等变量,以便后续进一步分析。
完成上述设置后,点击“确定”按钮,SPSS 将开始进行多元线性回归分析,并输出结果。
结果通常包括多个部分。
首先是模型摘要,它提供了一些关于模型拟合度的指标,如 R 方、调整 R 方等。
R 方表示自变量能够解释因变量变异的比例,越接近 1 说明模型拟合效果越好。
其次是方差分析表,用于检验整个回归模型是否显著。
如果对应的p 值小于给定的显著性水平(通常为 005),则说明模型是显著的。
最重要的是系数表,它给出了每个自变量的回归系数、标准误差、t 值和 p 值。
回归系数表示自变量对因变量的影响程度,p 值用于判断该系数是否显著不为 0。
之前介绍过的基于线性模型的方差分析,虽然扩展了方差分析的领域,但是并没有突破方差分析三个原有的假设条件,即正态性、方差齐性和独立性,这其中独立性要求较严格,我们知道方差分析的基本思想其实就是细分,将所有对因变量产生影响的因素逐一摘出,但是如果各观测值之间相互影响,这样在细分影响因素的时候,是很难分出到底是自变量的影响还是观测值之间自己的影响。
虽然随机抽样会最大程度的使数据满足独立性,但是有时候这种方法并不奏效,比如随机抽取受访者分析其消费特征,这里就假定所有受访者的之间是相互独立的,然而仔细想想,这其中存在问题,如果某些受访者来自同一个城市或地区,从个体角度讲,他们确实是独立的人,之间没有任何联系,但是如果从分析目的角度讲,由于区域因素他们之间的消费特征是趋于相似的,而产生这种相似性,正是由于相互作用导致,这些人是存在相互影响关系的,也就类以于相关样本,与此同时,这种相互作用也使得不同城市间的消费特征产生差异,我们称这种数据为具有层次聚集性的数据。
数据的聚集性除了表现在聚集因素间指标的均值水平不同外,还表现在不同城市间的指标离散度上。
从层次聚集性数据也可以看出,随机抽样只能保证数据被抽到的概率相同,但是对于抽到的是什么样的数据,却无法控制了。
对于这种具有层次结构的数据,如果分析目的仅限于这几种层次,比如就分析这几个城市,那么可以把它当做一种固定因子,只分析固定效应而不用考虑这种聚集性,但是如果想把结果推广到所有城市,那就不能忽略这种特征,否则会降低结果的准确性,因此还要加入随机效应。
混合线性模型就是同时包含固定效应和随机效应的线性模型,是解决此类层次聚集性数据的方法之一,对于具有层次结构的数据,我们需要将使观测值之间产生相互影响的层次因素也摘出来,比如上述中的城市因素,传统的方差分析模型中,将所有无法解释的因素都归在随机误差中,而随着我们对传统方差模型的不断拓展,对随机误差的分解也越来越精细,结果也越来越准确。
SPSS数据分析—混合线性模型之前介绍过的基于线性模型的方差分析,虽然扩展了方差分析的领域,但是并没有突破方差分析三个原有的假设条件,即正态性、方差齐性和独立性,这其中独立性要求较严格,我们知道方差分析的基本思想其实就是细分,将所有对因变量产生影响的因素逐一摘出,但是如果各观测值之间相互影响,这样在细分影响因素的时候,是很难分出到底是自变量的影响还是观测值之间自己的影响。
虽然随机抽样会最大程度的使数据满足独立性,但是有时候这种方法并不奏效,比如随机抽取受访者分析其消费特征,这里就假定所有受访者的之间是相互独立的,然而仔细想想,这其中存在问题,如果某些受访者来自同一个城市或地区,从个体角度讲,他们确实是独立的人,之间没有任何联系,但是如果从分析目的角度讲,于区域因素他们之间的消费特征是趋于相似的,而产生这种相似性,正是于相互作用导致,这些人是存在相互影响关系的,也就类以于相关样本,与此同时,这种相互作用也使得不同城市间的消费特征产生差异,我们称这种数据为具有层次聚集性的数据。
数据的聚集性除了表现在聚集因素间指标的均值水平不同外,还表现在不同城市间的指标离散度上。
从层次聚集性数据也可以看出,随机抽样只能保证数据被抽到的概率相同,但是对于抽到的是什么样的数据,却无法控制了。
对于这种具有层次结构的数据,如果分析目的仅限于这几种层次,比如就分析这几个城市,那么可以把它当做一种固定因子,只分析固定效应而不用考虑这种聚集性,但是如果想把结果推广到所有城市,那就不能忽略这种特征,否则会降低结果的准确性,因此还要加入随机效应。
混合线性模型就是同时包含固定效应和随机效应的线性模型,是解决此类层次聚集性数据的方法之一,对于具有层次结构的数据,我们需要将使观测值之间产生相互影响的层次因素也摘出来,比如上述中的城市因素,传统的方差分析模型中,将所有无法解释的因素都归在随机误差中,而随着我们对传统方差模型的不断拓展,对随机误差的分解也越来越精细,结果也越来越准确。
线性混合模型与统计学中的多层次数据分析统计学中的多层次数据分析是一种重要的研究方法,它能够帮助我们更好地理解和解释数据中的变异性。
而线性混合模型则是多层次数据分析中常用的一种模型。
本文将介绍线性混合模型的基本原理和应用,并探讨其在统计学中的意义。
一、线性混合模型的基本原理线性混合模型是一种统计模型,用于分析多层次数据中的变异性。
它结合了固定效应和随机效应,能够同时考虑个体间和个体内的变异。
线性混合模型的基本形式为:Y = Xβ + Zγ + ε其中,Y是观测变量的向量,X和Z是设计矩阵,β和γ是固定效应和随机效应的系数向量,ε是误差项。
线性混合模型的关键在于随机效应的引入,它能够捕捉到多层次数据中个体间的相关性,从而更准确地估计参数。
二、线性混合模型的应用线性混合模型在统计学中有广泛的应用,下面我们将介绍几个常见的应用场景。
1. 教育研究在教育研究中,学生的学习成绩往往受到多个因素的影响,如学校的教学质量、家庭背景等。
线性混合模型可以帮助研究者同时考虑这些因素的影响,并估计每个因素的效应大小。
通过这种方式,我们可以更好地理解学生的学习成绩变异性,并提出相应的改进措施。
2. 医学研究在医学研究中,往往需要考虑患者的个体差异和医院的影响。
线性混合模型可以帮助研究者同时考虑这些因素,并估计它们的效应。
例如,在研究新药的疗效时,线性混合模型可以帮助我们区分药物的效应和个体差异的影响,从而更准确地评估药物的疗效。
3. 经济学研究在经济学研究中,往往需要考虑个体的特征和地区的影响。
线性混合模型可以帮助研究者同时考虑这些因素,并估计它们的效应。
例如,在研究收入水平时,线性混合模型可以帮助我们区分个体的特征和地区的影响,从而更准确地评估收入的差异。
三、线性混合模型的意义线性混合模型在统计学中的应用具有重要的意义。
首先,它能够更准确地估计参数,提高统计推断的准确性。
其次,它能够考虑个体间和个体内的变异,从而更好地理解和解释数据中的变异性。
SPSS多元线性回归分析教程多元线性回归是一种广泛应用于统计分析和预测的方法,它可以用于处理多个自变量和一个因变量之间的关系。
SPSS是一种流行的统计软件,提供了强大的多元线性回归分析功能。
以下是一个关于如何使用SPSS进行多元线性回归分析的教程。
本文将涵盖数据准备、模型建立、结果解读等内容。
第一步是数据的准备。
首先,打开SPSS软件并导入所需的数据文件。
数据文件可以是Excel、CSV等格式。
导入数据后,确保数据的变量类型正确,如将分类变量设置为标称变量,数值变量设置为数值变量。
还可以对数据进行必要的数据清洗和变换,如删除缺失值、处理离群值等。
数据准备完成后,可以开始建立多元线性回归模型。
打开“回归”菜单,选择“线性”选项。
然后,将因变量和自变量添加到模型中。
可以一次添加多个自变量,并选择不同的方法来指定自变量的顺序,如逐步回归或全部因素回归。
此外,还可以添加交互项和多项式项,以处理可能存在的非线性关系。
在建立好模型后,点击“统计”按钮可以进行更多的统计分析。
可以选择输出相关系数矩阵、残差分析、变量的显著性检验等。
此外,还可以进行回归方程的诊断,以检查模型是否符合多元线性回归的假设。
完成模型设置后,点击“确定”按钮运行回归分析。
SPSS将输出多个结果表,包括回归系数、显著性检验、模型拟合度和预测结果等。
对于每个自变量,回归系数表示自变量单位变化对因变量的影响;显著性检验则用于判断自变量是否对因变量有显著影响;模型拟合度则表示模型的解释力如何。
在解读结果时,需要关注以下几个方面。
首先,回归系数的正负号表示因变量随自变量的增加而增加或减少。
其次,显著性检验结果应该关注到p值,当p值小于显著性水平(如0.05)时,可以认为自变量对因变量有显著影响。
最后,要关注模型拟合度的指标,如R方值、调整R方值和残差分析。
如果模型结果不满足多元线性回归的假设,可以尝试进行模型修正。
可以尝试剔除不显著的自变量、添加其他自变量、转换自变量或因变量等方法来改善模型的拟合度。
SPSS--回归-多元线性回归模型案例解析多元线性回归,主要是研究⼀个因变量与多个⾃变量之间的相关关系,跟⼀元回归原理差不多,区别在于影响因素(⾃变量)更多些⽽已,例如:⼀元线性回归⽅程为:毫⽆疑问,多元线性回归⽅程应该为:上图中的 x1, x2, xp分别代表“⾃变量”Xp截⽌,代表有P个⾃变量,如果有“N组样本,那么这个多元线性回归,将会组成⼀个矩阵,如下图所⽰:那么,多元线性回归⽅程矩阵形式为:其中:代表随机误差,其中随机误差分为:可解释的误差和不可解释的误差,随机误差必须满⾜以下四个条件,多元线性⽅程才有意义(⼀元线性⽅程也⼀样)1:服成正太分布,即指:随机误差必须是服成正太分别的随机变量。
2:⽆偏性假设,即指:期望值为03:同共⽅差性假设,即指,所有的随机误差变量⽅差都相等4:独⽴性假设,即指:所有的随机误差变量都相互独⽴,可以⽤协⽅差解释。
今天跟⼤家⼀起讨论⼀下,SPSS---多元线性回归的具体操作过程,下⾯以教程教程数据为例,分析汽车特征与汽车销售量之间的关系。
通过分析汽车特征跟汽车销售量的关系,建⽴拟合多元线性回归模型。
数据如下图所⽰:点击“分析”——回归——线性——进⼊如下图所⽰的界⾯:将“销售量”作为“因变量”拖⼊因变量框内,将“车长,车宽,耗油率,车净重等10个⾃变量拖⼊⾃变量框内,如上图所⽰,在“⽅法”旁边,选择“逐步”,当然,你也可以选择其它的⽅式,如果你选择“进⼊”默认的⽅式,在分析结果中,将会得到如下图所⽰的结果:(所有的⾃变量,都会强⾏进⼊)如果你选择“逐步”这个⽅法,将会得到如下图所⽰的结果:(将会根据预先设定的“F统计量的概率值进⾏筛选,最先进⼊回归⽅程的“⾃变量”应该是跟“因变量”关系最为密切,贡献最⼤的,如下图可以看出,车的价格和车轴跟因变量关系最为密切,符合判断条件的概率值必须⼩于0.05,当概率值⼤于等于0.1时将会被剔除)“选择变量(E)" 框内,我并没有输⼊数据,如果你需要对某个“⾃变量”进⾏条件筛选,可以将那个⾃变量,移⼊“选择变量框”内,有⼀个前提就是:该变量从未在另⼀个⽬标列表中出现!,再点击“规则”设定相应的“筛选条件”即可,如下图所⽰:点击“统计量”弹出如下所⽰的框,如下所⽰:在“回归系数”下⾯勾选“估计,在右侧勾选”模型拟合度“ 和”共线性诊断“ 两个选项,再勾选“个案诊断”再点击“离群值”⼀般默认值为“3”,(设定异常值的依据,只有当残差超过3倍标准差的观测才会被当做异常值)点击继续。
SPSS多元线性回归分析实例操作步骤在数据分析领域,多元线性回归分析是一种非常实用且强大的工具,它可以帮助我们探究多个自变量与一个因变量之间的线性关系。
下面,我将为您详细介绍使用 SPSS 进行多元线性回归分析的实例操作步骤。
首先,打开 SPSS 软件,我们需要准备好数据。
假设我们有一组关于房屋价格的数据集,其中包含房屋面积、房间数量、地理位置等自变量,以及房屋的销售价格作为因变量。
在 SPSS 中,通过“文件”菜单中的“打开”选项,找到并导入我们的数据文件。
确保数据的格式正确,并且变量的名称和类型都符合我们的预期。
接下来,选择“分析”菜单中的“回归”,然后点击“线性”选项,这就开启了多元线性回归分析的设置窗口。
在“线性回归”窗口中,将我们的因变量(房屋销售价格)放入“因变量”框中,将自变量(房屋面积、房间数量、地理位置等)放入“自变量”框中。
然后,我们可以点击“统计”按钮,在弹出的“线性回归:统计”窗口中,根据我们的需求选择合适的统计量。
通常,我们会勾选“估计”“置信区间”“模型拟合度”等选项,以获取回归系数的估计值、置信区间以及模型的拟合优度等信息。
接着,点击“图”按钮,在“线性回归:图”窗口中,我们可以选择绘制一些有助于分析的图形,比如“标准化残差图”,用于检查残差的正态性;“残差与预测值”图,用于观察残差的分布是否均匀。
再点击“保存”按钮,在这里我们可以选择保存一些额外的变量,比如预测值、残差等,以便后续的进一步分析。
设置完成后,点击“确定”按钮,SPSS 就会开始进行多元线性回归分析,并输出相应的结果。
结果中首先会给出模型的汇总信息,包括 R 方(决定系数)、调整后的 R 方等。
R 方表示模型对因变量的解释程度,越接近 1 说明模型的拟合效果越好。
调整后的 R 方则考虑了自变量的个数,对模型的拟合优度进行了更合理的修正。
接着是方差分析表,用于检验整个回归模型是否显著。
如果 F 值对应的显著性水平小于设定的阈值(通常为 005),则说明回归模型是显著的,即自变量整体上对因变量有显著的影响。
SPSS多元线性回归分析实例操作步骤SPSS(Statistical Package for the Social Sciences)是一种统计分析软件,广泛应用于社会科学研究领域。
其中,多元线性回归分析是SPSS中常用的一种统计方法,用于探讨多个自变量与一个因变量之间的关系。
本文将演示SPSS中进行多元线性回归分析的操作步骤,帮助读者了解和掌握该方法。
一、数据准备在进行多元线性回归分析之前,首先需要准备好数据。
数据应包含一个或多个因变量和多个自变量,以及相应的观测值。
这些数据可以通过调查问卷、实验设计、观察等方式获得。
确保数据的准确性和完整性对于获得可靠的分析结果至关重要。
二、打开SPSS软件并导入数据1. 启动SPSS软件,点击菜单栏中的“文件(File)”选项;2. 在下拉菜单中选择“打开(Open)”选项;3. 导航到保存数据的文件位置,并选择要导入的数据文件;4. 确保所选的文件类型与数据文件的格式相匹配,点击“打开”按钮;5. 数据文件将被导入到SPSS软件中,显示在数据编辑器窗口中。
三、创建多元线性回归模型1. 点击菜单栏中的“分析(Analyse)”选项;2. 在下拉菜单中选择“回归(Regression)”选项;3. 在弹出的子菜单中选择“线性(Linear)”选项;4. 在“因变量”框中,选中要作为因变量的变量;5. 在“自变量”框中,选中要作为自变量的变量;6. 点击“添加(Add)”按钮,将自变量添加到回归模型中;7. 可以通过“移除(Remove)”按钮来删除已添加的自变量;8. 点击“确定(OK)”按钮,创建多元线性回归模型。
四、进行多元线性回归分析1. 多元线性回归模型创建完成后,SPSS将自动进行回归分析并生成结果;2. 回归结果将显示在“回归系数”、“模型总结”和“模型拟合优度”等不同的输出表中;3. “回归系数”表显示各个自变量的回归系数、标准误差、显著性水平等信息;4. “模型总结”表提供模型中方程的相关统计信息,包括R方值、F 统计量等;5. “模型拟合优度”表显示模型的拟合优度指标,如调整后R方、残差平方和等;6. 可以通过菜单栏中的“图形(Graphs)”选项,绘制回归模型的拟合曲线图、残差图等。
线性混合效应模型
线性混合效应模型(Linear Mixed Effects Model, LME)是一类统计模型,用于描述一个随机变量如何受多个不同因素影响的情况。
它是一种统计分析方法,用于处理复杂的数据结构,如多个组的数据或多维数据。
线性混合效应模型分为两类:固定效应模型和随机效应模型。
固定效应模型是一种线性回归模型,旨在描述一个变量(正因变量)如何受多个解释变量(自变量)影响的情况。
它假设每一组观测数据都服从相同的线性关系,并且假设解释变量和正因变量之间存在一个固定的关系。
随机效应模型是一种更加灵活多变的模型,旨在描述一个变量(正因变量)如何受多个解释变量(自变量)影响的情况,同时也考虑了不同组之间的差异。
它假设每一组观测数据的线性关系存在一定的变化,并且假设解释变量和正因变量之间存在一个可变的关系。
线性混合效应模型可以用来比较不同组的数据,从而获得更准确的结果。
例如,可以用它来研究不同年龄段的人群对某个产品的反应,或者可以用它来研究不同地区的人们对某个事件的反应。
LME模型可以帮助研究人员比较不同组之间的数据,发现数据之间的差异,从而更加准确地了解数据的意义。
线性混合效应模型可以用来分析多维数据,用于研究复杂的结构。
它可以帮助研究人员更好地理解数据,从而更准确地推断结果。
使用LME模型,可以更加精确地了解不同组之间的数据,从而发现数据之间的差异,从而更准确地分析数据。
如何用SPSS检验多重共线性如何用SPSS检验多重共线性在SPSS中有专门的选项的。
例如在回归分析中,线性回归-统计量-有共线性诊断。
多重共线性:自变量间存在近似的线性关系,即某个自变量能近似的用其他自变量的线性函数来描述。
多重共线性的后果:整个回归方程的统计检验P<a,但所有偏回归系数的检验均无统计学意义。
偏回归系数的估计值大小明显与常识不符,甚至连符号都是相反的。
比如拟合结果表明累计吸烟量越多,个体的寿命就越长。
在专业知识上可以肯定对应变量有影响的因素,在多元回归分析中却P>a,不能纳入方程去掉一两个变量或记录,方程的回归系数值发生剧烈抖动,非常不稳定。
多重共线性的确认:做出自变量间的相关系数矩阵:如果相关系数超过0.9的变量在分析时将会存在共线性问题。
在0.8以上可能会有问题。
但这种方法只能对共线性作初步的判断,并不全面。
容忍度(Tolerance):有Norusis 提出,即以每个自变量作为应变量对其他自变量进行回归分析时得到的残差比例,大小用1减决定系数来表示。
该指标越小,则说明该自变量被其余变量预测的越精确,共线性可能就越严重。
陈希孺等根据经验得出:如果某个自变量的容忍度小于0.1,则可能存在共线性问题。
方差膨胀因子(Variance inflation factor, VIF): 由Marquardt 于1960年提出,实际上就是容忍度的倒数。
特征根(Eigenvalue):该方法实际上就是对自变量进行主成分分析,如果相当多维度的特征根等于0,则可能有比较严重的共线性。
条件指数(Condition Idex):由Stewart等提出,当某些维度的该指标数值大于30时,则能存在共线性。
多重共线性的对策:增大样本量,可部分的解决共线性问题采用多种自变量筛选方法相结合的方式,建立一个最优的逐步回归方程。
从专业的角度加以判断,人为的去除在专业上比较次要的,或者缺失值比较多,测量误差比较大的共线性因子。
SPSS混合线性模型介绍过的基于线性模型的方差分析,虽然扩展了方差分析的领域,但是并没有突破方差分析三个原有的假设条件,即正态性、方差齐性和独立性,这其中独立性要求较严格,我们知道方差分析的基本思想其实就是细分,将所有对因变量产生影响的因素逐一摘出,但是如果各观测值之间相互影响,这样在细分影响因素的时候,是很难分出到底是自变量的影响还是观测值之间自己的影响。
虽然随机抽样会最大程度的使数据满足独立性,但是有时候这种方法并不奏效,比如随机抽取受访者分析其消费特征,这里就假定所有受访者的之间是相互独立的,然而仔细想想,这其中存在问题,如果某些受访者来自同一个城市或地区,从个体角度讲,他们确实是独立的人,之间没有任何联系,但是如果从分析目的角度讲,由于区域因素他们之间的消费特征是趋于相似的,而产生这种相似性,正是由于相互作用导致,这些人是存在相互影响关系的,也就类以于相关样本,与此同时,这种相互作用也使得不同城市间的消费特征产生差异,我们称这种数据为具有层次聚集性的数据。
数据的聚集性除了表现在聚集因素间指标的均值水平不同外,还表现在不同城市间的指标离散度上。
从层次聚集性数据也可以看出,随机抽样只能保证数据被抽到的概率相同,但是对于抽到的是什么样的数据,却无法控制了。
对于这种具有层次结构的数据,如果分析目的仅限于这几种层次,比如就分析这几个城市,那么可以把它当做一种固定因子,只分析固定效应而不用考虑这种聚集性,但是如果想把结果推广到所有城市,那就不能忽略这种特征,否则会降低结果的准确性,因此还要加入随机效应。
混合线性模型就是同时包含固定效应和随机效应的线性模型,是解决此类层次聚集性数据的方法之一,对于具有层次结构的数据,我们需要将使观测值之间产生相互影响的层次因素也摘出来,比如上述中的城市因素,传统的方差分析模型中,将所有无法解释的因素都归在随机误差中,而随着我们对传统方差模型的不断拓展,对随机误差的分解也越来越精细,结果也越来越准确。
SPSS数据分析—混合线性模型之前介绍过的基于线性模型的方差分析,虽然扩展了方差分析的领域,但是并没有突破方差分析三个原有的假设条件,即正态性、方差齐性和独立性,这其中独立性要求较严格,我们知道方差分析的基本思想其实就是细分,将所有对因变量产生影响的因素逐一摘出,但是如果各观测值之间相互影响,这样在细分影响因素的时候,是很难分出到底是自变量的影响还是观测值之间自己的影响。
虽然随机抽样会最大程度的使数据满足独立性,但是有时候这种方法并不奏效,比如随机抽取受访者分析其消费特征,这里就假定所有受访者的之间是相互独立的,然而仔细想想,这其中存在问题,如果某些受访者来自同一个城市或地区,从个体角度讲,他们确实是独立的人,之间没有任何联系,但是如果从分析目的角度讲,由于区域因素他们之间的消费特征是趋于相似的,而产生这种相似性,正是由于相互作用导致,这些人是存在相互影响关系的,也就类以于相关样本,与此同时,这种相互作用也使得不同城市间的消费特征产生差异,我们称这种数据为具有层次聚集性的数据。
数据的聚集性除了表现在聚集因素间指标的均值水平不同外,还表现在不同城市间的指标离散度上。
从层次堆积性数据也可以看出,随机抽样只能保证数据被抽到的几率相同,但是对于抽到的是什么样的数据,却无法控制了。
对于这种具有层次结构的数据,如果阐发目的仅限于这几种层次,比如就阐发这几个城市,那么可以把它当做一种固定因子,只阐发固定效应而不用考虑这种堆积性,但是如果想把结果推广到所有城市,那就不能忽略这种特征,否则会降低结果的准确性,因而还要加入随机效应。
混合线性模型就是同时包含固定效应和随机效应的线性模型,是解决此类层次聚集性数据的方法之一,对于具有层次结构的数据,我们需要将使观测值之间产生相互影响的层次因素也摘出来,比如上述中的城市因素,传统的方差分析模型中,将所有无法解释的因素都归在随机误差中,而随着我们对传统方差模型的不断拓展,对随机误差的分解也越来越精细,结果也越来越准确。
【例】我们想分析哪些因素会对16岁时毕业成绩的影响,显然毕业成绩和学校有关,好学校的学生成绩会好一些,而差学校的学生成绩会差一些,那么学校这个因素就是上述的层次因素,它使得因变量产生相关性,而且我们是想把结果推广到所有学校,因此学校这个变量应该被定为随机变量,我们首先按照一般线性模型来分析,不考虑层次因素
阐发—一般线性模型—单变量
在按照一般线性模型分析之后,我们再来看看按照混合线性模型分析的结果会有什么不同
分析—混合模型—线性
经过以上阐发,我们知道学校确实是一个层次堆积因素,不能按照一般线性模型举行阐发,那么影响16岁考试成绩的原因有很多,我们继续加入变量举行阐发。
第一加入11岁时的入学成绩,先将其加入固定因素,并观测和之前不加人任何因子相比有何变化
经由过程以上阐发,我们看到,在固定因素中加入入学成绩这个变量当前,对于层次堆积性起到了减弱的效果,但是该影响仍然存在,说明还需要引入其他变量以完善模型,之前讲过,数据堆积性除了表现在堆积因素间指标的均值水平不同外,还表现在不同堆积因素间的指标离散度上,我们现在将11岁时的入学成绩这个变量加入随机因素中。
在将11岁卒业成绩引入到随机效应以后,层次堆积性又进一步减弱了,实践上我们可以不断的引入变量,这样最终层次堆积性就会消失,下面我们再来引入性别、学校类型、各学校学生在11岁入学时的平均成这三个变量。