当前位置:文档之家› 教育和心理研究中的多层线性模型

教育和心理研究中的多层线性模型

教育和心理研究中的多层线性模型

刘红云孟庆茂

北京师范大学心理系(北京 100875)

摘要多层线性模型是分析具有层次结构数据的一种新型统计分析技术,与传统统计方法相比,具有模型假设与实际更吻合、结果解释更合理等特点。近年来这一方法的应用逐渐在社会科学的研究中受到重视。文章从多层线性模型的基本假设入手,较系统地介绍了模型参数估计和假设检验的方法,并通过一个具体例子将这一方法与传统回归分析方法相比,进一步说明了多层线性模型在分析具有层次结构数据时的优点。

关键词多层线性模型,回归分析,最小二乘估计,迭代最小二乘估计。

分类号B841.2

1 问题提出

教育和心理研究中,调查得来的数据往往具有层次性,如关于学业成绩影响因素的研究中,我们可以考虑的预测变量有学生的入学成绩、学生性别、学生的社会经济地位、班级人数、班主任和教师、教室环境等,这些变量中有的是学生个体变量,有的是班级整体变量。这样的数据具有两个水平,第一水平是学生,第二水平是班级,学生嵌套于班级之中,称之为分层数据。如果观测涉及不同的学校,同时考虑不同的学校变量,则构成一个三水平模型。学生水平嵌套于班级水平,班级水平嵌套于学校水平。对于多层数据,传统的回归分析有两种处理方法:

(1)将所有的更高一层的变量都看作是第一水平的变量,直接在学生个体水平上对数据进行分析。这种方法的问题是,班级变量对同一个班级内的学生有相同的影响,而不区分班级对学生的影响,假设同一班级的学生间相互独立是不合理的,同样对不同班级的学生和同一班级的学生作同一假设也是不合理的。

(2)将第一水平的观测直接合并为第二水平的观测,然后直接对班级作分析,这样做的主要问题是丢失了班级内学生个体间的差异的信息,而在实际中,这一部分的变异有可能占总变异中很大的一部分。

上述两种方法有可能得到不同的结果,在对结果的解释上也很不一致。基于上述的讨论,这两种分析数据的方法有一个共同点,它们都没有考虑数据间分层的特点,有可能对数据结果作出不合理的甚至是错误的解释。这就是传统回归分析方法在分析具有结构层次特点数据时的局限性。

传统的线性回归模型假设变量间存在直线关系,变量总体上服从正态分布,方差齐性,

个体间随机误差相互独立。前两个假设较易保证,但方差齐性,尤其是个体间随机误差相互独立的假设却很难满足。即不同班级的学生可以假设相互独立,但是同一班级的学生由于受相同班级变量的影响,很难保证相互独立。因此在分析时,要将传统回归分析中的误差分解为两部分,其一是第一水平个体间差异带来的误差,另一个是第二水平班级的差异带来的误差。可以假设第一水平个体间的测量误差相互独立,第二水平班级带来的误差在不同班级之间相互独立。这就是层次分析法的核心。

2 多层线性模型的发展

多层线性模型在不同的学科领域有不同的名称[1],常用的名称有多水平线性模型(multilevel linear model )、混合效应模型(mixed-effects model )、随机效应模型(random-effect model )、随机系数回归模型(random-coefficient regression model )和协方差成分模型(covariance components model )等,但在实际应用中只是名称上的不同。

多层线性模型这一术语最早是由Lindley 和Smith 于1972年提出,但是由于该模型参数估计的方法较传统的回归方法不同,所以在很长一段时间,它的应用受到了计算技术的限制。直到1977年,Dempster 、Laird 和Rubin 等人提出了EM 算法,1981年,Dempster 等人将EM 算法应用于解决多层线性模型的参数估计,使得这一方法的应用成为可能。1983年,Strenio 、Weisberg 和Bryk 等相继将这一方法应用于社会学的研究。随后,1986年Goldstein 应用迭代加权广义最小二乘法(iteratively reweighted generalized least squares )估计参数,1987年,Longford 应用费歇得分算法(Fisher scoring algorithm )对模型参数进行了估计。随着参数估计问题的解决和算法的程序化,相继出现了一些相应的软件,目前较常用的有HLM ,Mlwin 和V ARCL 。

3 层次分析法数学模型

我们以两水平模型为例,可以假设第一水平为学生,第二水平为班级,水平1的模型与传统的回归模型类似,所不同的是,回归方程的截距和斜率不再假设为一个常数,而是不同的班级回归方程的截距和斜率都不同,是一个随机变量。每个班级回归方程的截距和斜率都直线依赖于第二水平变量(如教师的教学方法),这样就构成了一个两水平模型。两水平分层模型可表示如下[1]-[2]:

水平1(如:学生) Y ij ij j j ij e X ++=

10ββ

水平2(如:班级) j j j u W 001000++=γγβ

j j j u W 111101++=γγβ 合并的模型表示为:

Y ij ij j j j ij j ij ij e X u u W X W X ++++++=1011011000γγγγ

其中:Y 表示第j 个班级第i 个学生因变量的观测值(如:学生的期末考试成绩),X 表示第j 个班级第i 个学生自变量的观测值(如:学生的入学考试成绩),W 表示第j 个班级的班级特征变量(班主任的管理风格)。对于第一水平模型,ij ij j j j 10,ββ分别表示第j 个班级

入学成绩对期末成绩回归直线的截距和斜率,e 表示第j 个班级第i 个学生的测量误差。对于第二水平模型,ij 0100,γγ分别表示截距j 0β对于班级变量W 的回归直线的截距和斜率,表示由第j 个班级的班级变量带来的截距上的误差。j 1110,j u 0γγ分别表示截距j 1β对于班级

变量W 的回归直线的截距和斜率,表示由第j 个班级的班级变量带来的斜率上的误差。

j j u 1=,1,0(σN

,0(N ),0 1101 10j u u 1000ττVar 0)=ij j e ij j e u 00,,γΛij e ij j X u 100,γΛu +1ij j u 0j u 0j 0,j j W u 1+j u 0模型的假设条件为:

(1) ~,间相互独立; ij e )2

ij e (2) ~ , Σ j j u u 10)Σ = ττj (3)((=u Cov Cov

在上述模型中,11γ称为水平2的固定系数;称为水平1的预测变量,W 称为水平2的预测变量;称为水平1的随机效应,u 称为水平2的随机效应;为水平1随机效应的方差,Σ为水平2随机效应的协方差矩阵。 j 2

σj 0,4 层次线性模型的参数估计和假设检验

4.1 参数估计

在层次线性模型中,要估计的参数除了传统回归中的参数(对应于多层分析中的固定参数11,γ和水平1的随机效应)外,还有更加复杂的水平2的随机效应。而传统回归分析所用的最小二乘法,要求随机误差之间相互独立和方差齐性,只有在这些条件下,传统的回归系数的估计才是有效估计,检验才是精确检验。而多层线性模型的误差项中,u 对于第j 个班级的学生是相同的,因此在每一个班级内误差项之间是相关的。同样由于误差项中e ij e j j W +j u 1的方差依赖于,对于不同的班级它们并不一定相同,所以误差项的方差也不满足方差齐性的假设。可见传统回归分析的参数估计方法对于层次线性模型并不适用。

j u 1和一般常用的层次模型的参数估计方法有:迭代广义最小二乘法、限制性的广义最小二乘估计和马尔科夫链蒙特卡罗法[2]。

迭代广义最小二乘法(iterative generalized least squared ,IGLS ),这种方法的基本步骤是迭代,通常从“合理”的参数估计值开始(一般来自初始的二乘估计(OLS )),用广义最小二乘法,然后逐步迭代估计参数。在正态分布的假设下,收敛时的估计与极大似然估计结果相同。一般来说,IGLS 产生的参数估计为有偏估计。主要是因为迭代广义最小二乘法和极大似然估计法没有考虑固定参数的抽样变动,所以对随机参数产生有偏估计。在小样本中偏度较大,可用限制性极大似然估计法(restricted maximum likelihood ,REML )来修正以获得无偏估计。IGLS 算法依据限制性极大似然估计的原理,进行进一步修正,产生所谓的限制性的广义最小二乘估计(RIGLS ),可以得到参数的无偏估计。

近年来随着马尔科夫链蒙特卡罗(Markov Chain Monte Carlo ,MCMC )方法,尤其是吉布斯抽样的发展,完全贝叶斯技术在计算上变得可行,由于这种方法考虑了与随机参数有关的不确定性,在小样本分析中用这一方法更为合理有效。

多层分析软件Mlwin 采用了这三种(IGLS 、RIGLS 和MCMC )估计方法。除了上述几种参数估计的方法,还有期望最小二乘法(EGLS ),广义估计方程法(GEE ),经验贝叶斯估计等。这些方法在正态性假设成立,样本容量较大时,得到参数的一致有效的估计。

4.2 假设检验

在上面描述的层次模型中,对每个水平都只涉及一个预测变量,实际应用中可以涉及多个预测变量。在大样本的情况下,正态分布的假设一般可以保证,这种情况下的假设检验近似用Z 检验。小样本情况下,对于不同的参数类型方法有所不同[1]。下面对于不同的三种类型的参数分别给出参数检验的方法。

4.2.1 固定参数的假设检验

固定参数对应的原假设为:0:10=q H γ,即水平2的预测变量对水平2的参数1q β的

影响为零(假设为标准化的回归系数)。检验所用的统计量为:Z )?(/?11q q std γγ

=,?1q γ为1q γ的极大似然估计,)?(1q std γ

表示1?q γ估计的标准差。这种情况下的检验是一种近似的检验,在样本容量较大时,可以采用这种检验。在样本容量较小时,可用精确的检验方法,统计量

为t )1?(/?1q q std γγ=,服从自由度为j-2的t 分布。(如果模型中水平2的预测变量个数为p ,则自由度为j-p-1,j 为第二水平所含样本数,如班级个数。

对于固定参数0q γ的检验,在实际中用处不大,它相当于传统回归分析中对于截距作检验。这里不讨论它们的检验方法。

4.2.2 水平1的随机系数的假设检验

水平1的随机系数的假设检验对应的原假设为:0:0=qj H β,检验方法类似于固定系

数的检验,统计量为:。所不同的是表示由经验贝叶斯估计得到

的参数估计值。)表示估计参数的标准差。在正态分布的假设下,经验贝叶斯估计的结果与IGLS 和RIGLS 相同。

)(/**qj qj std Z ββ=

qj *βqj *βstd (βqj *4.2.3 协方差矩阵中方差与协方差成分的假设检验

在所有的分层线性模型中,检验是否存在水平2的随机变异对于模型本身假设的合理性和必要性都是非常有用的。对于协方差矩阵中元素的方差进行检验的方法,有χ2检验和Z 检验两种,在大样本时,两种检验方法在统计上检验结果一致。

检验所对应的原假设为:0:0=qq H τ,在原假设成立的条件下,统计量 近似服从于自由度为1的χ)var(/22qj qj u u =χ2分布,在给定的显著性水平下,查自由度为1的χ2分布表,可以判断水平2的随机变异是否显著。对于这一假设,还可以直接利用

估计得到的协方差矩阵,计算临界比率:Z )?(/qq std ?qq ττ

=,通过查正态分布表,直接判断原假设是否成立。

对于分层线性模型中,水平2随机效应的检验,还可以通过比较两个模型(如果这两个

模型只差一个水平2的随机项)估计计算得到的-2log-likelihood 值的差异,通过查自由度为1的来χ2分布表检验这一水平2的随机项的差异是否显著。同样用这种方法可以从整体上比较所定义的两个模型是否存在显著差异或两个模型中差异项的效应是否显著。

上面所介绍的只涉及单参数的假设检验的问题,多层线性分析中,还可同时对多个参数进行检验,即多参数的假设检验,详细的检验统计量可以参考Bryk (1989)的有关论述。 5 应用举例

用《大学生教师教学效果评价问卷》,对某高校3824名学生中进行测试,对99名教师的评价结果。问卷分为七个维度,经过分析有较高的信度和效度[4]。

作为例子这里主要考虑群体互动和学习价值感两个维度,根据一般教学理论,学习价值感为结果变量,考虑群体互动对学习价值感的影响。学生嵌套在班级,考虑学生(第一水平)和班级(第二水平)两个水平的变量。采用Mlwin 软件对数据进行统计分析[3],用层次分析法分别考虑方差成分模型(截距随机而斜率固定)和随机斜率模型,并与传统回归中的OLS 估计结果比较,结果如表1。

表1 群体互动对学生学习价值感的影响

估计值(标准差) 估计值(标准差) 估计值(标准差)

OLS GILS (随机截距) GILS (随机截距、斜率)

固定部分:

常数 1.204(0.039) 1.331(0.046) 1.340(0.060)

群体互动 0.606(0.011) 0.640(0.011) 0.604(0.016)

随机部分:

2e σ2 0.331(0.008) 0.291(0.001) 0.286(0.007)

1u σ2 0.043(0.007) 0.155(0.047)

2u σ 0.01(0.003)

12u σ -0.035(0.012)

-2log-likelihood 6649.820 6347.000 6320.119

从上面的结果可以看出,用多层线性分析方法与传统的回归分析的方法相比,除了分析学生水平的变异外,同时对于教师水平引起的变异进行分析,在固定参数部分,几个模型的估计结果没有太大的差异,群体互动对于学习价值感都有显著的影响(平均值与标准差的比值均大于2),但是在随机参数部分,随机截距模型估计出不同的教师,群体互动对于学习价值感回归方程的截距之间存在显著差异(0.043/0.007>2),同样随机截距模型与传统回归模型整体比较的结果也显示,不同教师群体互动对于学习价值感回归方程的截距之间存在显著差异(6649.820-6347.000=302.820大于自由度为1的卡方检验的临界值),同时也说明两

水平随机截距模型比传统回归模型更合理解释数据间的关系。教师内相关为:0.043/(0.043+0.291)=0.129,说明学生评价群体互动对学习价值感的影响有12.9%是由于教师个体之间的差异引起。

随机截距和斜率模型检验结果表明,不同教师学生评价的群体互动对于学习价值感影响的重要性差异显著(0.01/0.003>2)。随机截距模型与随机斜率模型比较的结果6347-6320.119=26.891,大于自由度为2的卡方检验的临界值,进一步表明,对于不同教师学生评价的群体互动对学习价值感影响的重要性存在显著差异。

从上面所举例子的分析过程可以看出,多层线性分析在更合理的假设基础上分析数据,对数据的解释更切合实际。

6 多层线性模型在教育与心理研究中的应用

多层线性模型在处理教育与心理研究中具有层次结构特点数据时,与传统方法相比有以下几方面的优点:

(1)由于多层线性模型建立在更合理的假设之上,考虑了不同层次的随机误差和变量信息,因此能提供正确的标准误估计、更有效的区间估计和假设检验。

(2)多层线性模型可以分析计算任何水平上测量的协方差,使得研究者可以探讨诸如班级和学生的其他特征对因变量的差异到底起多大的作用。如可以通过计算不同水平变异在总变异中所占的比率来确定不同水平对因变量的影响程度。

(3)用多层分析的方法可以发现所得到的回归方程中的截距和斜率之间的相关关系,以便更好解释自变量与因变量间变化的规律;

(4)多层次分析不仅可以用于分析观测变量之间的因果关系,而且作为协方差结构模型的拓展,可以分析具有多层结构的潜变量之间的因果关系,即建立多水平结构方程模型;

(5)多层分析不仅可以用来分析具有层次结构的数据,而且可以分析重复测量的数据,在此情况下,可以将测量看作第一水平,将测试个体看作第二水平;

(6)多层分析模型不仅可以对服从正态分布的连续型测量数据进行分析,而且可以分析离散型的数据资料,如二项分布和泊松分布的数据等。

另外,多层线性模型在教育和心理学的研究中,使用范围较广,许多传统统计方法都是它的特例。如假设在两个水平模型中有一个水平的变量为常数,则多层模型简化为传统的回归分析;此外,单因素方差分析、单因素协方差分析也可以看成是多层分析模型的简化。

在教育和心理学中应用层次分析的方法,可以对许多问题产生新的更重要的洞察与理解,可以更加合理的解释某些教育和心理学现象。但是作为一种统计分析的方法,和以往任何一种方法一样,并不能解决所有的问题,如果数据不具有结构性,则不必要用层次分析法,用传统的单水平模型分析就可以得到很好的解释。另外,虽然用多层分析可以更准确地描述事物之间的因果关系,但这一方法并不能用来建立理论,不能代替专业理论方面的分析。

参考文献

[1] Anthony S B, Stephen W R. Hierarchical Linear Models:Applications and Data Analysis Methods,Sage Publication, 1992.

3-8, 30-50

[2] 李小松等译. 多水平分析模型. 四川科学技术出版社,2000. 24-30

[3] Rasbash J, Browne W G H, Yang M P I, Healy et al. Reference of Users Guide: Mlwin , London, Institute of Education, 1999. 1-150

[4] 赵增梅.大学生评价教师教学效果的多维性研究.北京师范大学心理系硕士论文, 1996

HIERARCHICAL LINEAR MODEL

IN THE STUDY OF EDUCATION AND PSYCHOLOGY

Liu Hongyun, Meng Qingmao

(Department of Psychology, Beijing Normal University, Beijing 100875)

Abstract:Hierarchical Linear Model (HLM) is a new tool for analyzing hierarchical structure data. It is superior to traditional statistical methods in that HLM based hypothesis is more compatible with facts and that the results generated from the model are reasonable. Therefore, HLM has been applied more and more wildly in social science. This paper is an introduce to HLM which introduces the fundamental hypothesis of the model, parameter estimator and hypothesis testing methods, as well as its advantages over the traditional regression method in dealing with hierarchical structure data.

Key words: hierarchical linear model, regression analysis, least square estimation, iterative least square estimation.

相关主题
相关文档 最新文档