spss简单回归与多重回归分析
- 格式:ppt
- 大小:1.71 MB
- 文档页数:5
实验二多重回归分析一、实验目的研究样本数据离差阵、样本协方差阵,以及变量之间的相关系数(包括偏相关)并作相关性分析。
二、实验要求为研究高等院校人文社会科学研究中立项课题数受那些因素的影响,收集到某年31个地区部分高校有关社科研究方面的数据(见SPSS数据),利用此的数据,设定立项课题数X5为因变量(被解释变量),X2,X3,X4,X6,X7,X8为解释变量,作多重回归分析。
三、实验内容1.依次点击“分析→回归→线性回归”,得到如下图一所示:【图一】2.点击“统计量”,得到如下图二所示:【图二】3.点击“继续”,得到如下图三所示:【图三】4.点击“继续→确定”,得到如下表一所示:【表一】回归其中,容差(容忍度):21i i Tol R =- 2i R 是解释变量i X 与其他解释变量间的复相关系数的平方。
容忍度取值范围为0-1,越接近0表示多重共线性越强,容忍度越接近于1表示多重共线性越弱。
方差膨胀因子(VIF ):1iiV I F T o l =即为容忍度的倒数。
i VIF 的值大于等于1,i VIF 越小,说明多重共线性越弱。
可见,投入高级职称的人年数的容差最小,为0.007,多重共线性是最弱的,其次是投入人年数;获奖数的容差最大,为0.358,多重共线性最强。
其中,解释变量相关阵的特征根和方差比:如果解释变量有较强的相关性,则它们之间必然存在信息重叠。
可通过解释变量相关阵的特征值来反映。
解释变量相关阵的最大特征根能够解释说明解释变量信息的比例是最高的,其他特征根随其特征值的减小对解释变量方差的的解释能力依次减弱。
如果这些特征根中,最大特征根远远大于其他特征根,说明这些解释变量间具有相当多的重叠信息。
条件指数:是在特征值基础上的定义的能反映解释变量间多重共线性的指标mi ik λλ=i k 为第i 个条件指数,m λ是最大特征根。
通常当010i k ≤<时,认为多重共线性弱;当10100i k ≤<时,认为多重共线性较强;当是100i k ≥,认为多重共线性很严重。
简单易懂的SPSS回归分析基础教程章节一:SPSS回归分析基础概述SPSS(Statistical Package for the Social Sciences,社会科学统计软件包)回归分析是一种常用的统计方法,用于研究自变量对因变量的影响程度以及变量之间的关系。
本章将介绍SPSS回归分析的基本概念和目的,以及相关的统计指标。
SPSS回归分析的目的是建立一个数学模型,描述自变量与因变量之间的关系。
通过这个模型,我们可以预测因变量的变化,以及各个自变量对因变量的贡献程度。
回归分析包括简单回归分析和多元回归分析,本教程主要讲解简单回归分析。
在SPSS回归分析中,我们需要了解一些统计指标。
其中,相关系数(correlation coefficient)用于衡量自变量与因变量之间的线性关系强度。
回归系数(regression coefficient)描述自变量对因变量的影响程度,可用于建立回归方程。
残差(residual)表示实际观测值与回归模型预测值之间的差异。
下面我们将详细介绍SPSS回归分析的步骤。
章节二:数据准备和导入在进行SPSS回归分析之前,我们需要准备好数据集,并将数据导入SPSS软件。
首先,我们需要确定因变量和自变量的测量水平。
因变量可以是连续型数据,如身高、体重等,也可以是分类数据,如满意度水平等。
自变量可以是任何与因变量相关的变量,包括连续型、分类型或二元变量。
其次,我们需要收集足够的样本量,以获取准确和可靠的结果。
在选择样本时,应该遵循随机抽样的原则,以保证样本的代表性。
最后,我们将数据导入SPSS软件。
通过依次点击“File”、“Open”、“Data”,选择数据文件,并设置变量类型、名称和标签等信息。
完成数据导入后,我们就可以开始进行回归分析了。
章节三:简单回归分析步骤简单回归分析是一种研究一个自变量与一个因变量之间关系的方法。
下面将介绍简单回归分析的步骤。
第一步,我们需要确定自变量和因变量。
回归分析spss回归分析是一种常用的统计方法,用于探究变量之间的关系。
它通过建立一个数学模型,通过观察和分析实际数据,预测因变量与自变量之间的关联。
回归分析可以帮助研究者得出结论,并且在决策制定和问题解决过程中提供指导。
在SPSS(统计包括在社会科学中的应用)中,回归分析是最常用的功能之一。
它是一个强大的工具,用于解释因变量与自变量之间的关系。
在进行回归分析之前,我们需要收集一些数据,并确保数据的准确性和可靠性。
首先,我们需要了解回归分析的基本概念和原理。
回归分析基于统计学原理,旨在寻找自变量与因变量之间的关系。
在回归分析中,我们分为两种情况:简单回归和多元回归。
简单回归适用于只有一个自变量和一个因变量的情况,多元回归适用于多个自变量和一个因变量的情况。
在进行回归分析之前,我们需要确定回归模型的适用性。
为此,我们可以使用多种统计性检验,例如检验线性关系、相关性检验、多重共线性检验等。
这些检验可以帮助我们判断回归模型是否适用于收集到的数据。
在SPSS中进行回归分析非常简单。
首先,我们需要打开数据文件,然后选择“回归”功能。
接下来,我们需要指定自变量和因变量,并选择适当的回归模型(简单回归或多元回归)。
之后,SPSS将自动计算结果,并显示出回归方程的参数、标准误差、显著性水平等。
在进行回归分析时,我们需要关注一些重要的统计指标,例如R方值、F值和P值。
R方值表示自变量对因变量的解释程度,它的取值范围在0到1之间,越接近1表示模型的拟合效果越好。
F值表示回归模型的显著性,P值则表示自变量对因变量的影响是否显著。
我们通常会将P值设定为0.05作为显著性水平,如果P值小于0.05,则我们可以认为自变量对因变量有显著影响。
此外,在回归分析中,我们还可以进行一些额外的检验和分析。
比如,我们可以利用残差分析来检查回归模型的拟合优度,以及发现可能存在的异常值和离群点。
此外,我们还可以进行变量选择和交互效应的分析。
如何使用统计软件SPSS进行回归分析如何使用统计软件SPSS进行回归分析引言:回归分析是一种广泛应用于统计学和数据分析领域的方法,用于研究变量之间的关系和预测未来的趋势。
SPSS作为一款功能强大的统计软件,在进行回归分析方面提供了很多便捷的工具和功能。
本文将介绍如何使用SPSS进行回归分析,包括数据准备、模型建立和结果解释等方面的内容。
一、数据准备在进行回归分析前,首先需要准备好需要分析的数据。
将数据保存为SPSS支持的格式(.sav),然后打开SPSS软件。
1. 导入数据:在SPSS软件中选择“文件”-“导入”-“数据”命令,找到数据文件并选择打开。
此时数据文件将被导入到SPSS的数据编辑器中。
2. 数据清洗:在进行回归分析之前,需要对数据进行清洗,包括处理缺失值、异常值和离群值等。
可以使用SPSS中的“转换”-“计算变量”功能来对数据进行处理。
3. 变量选择:根据回归分析的目的,选择合适的自变量和因变量。
可以使用SPSS的“变量视图”或“数据视图”来查看和选择变量。
二、模型建立在进行回归分析时,需要建立合适的模型来描述变量之间的关系。
1. 确定回归模型类型:根据研究目的和数据类型,选择适合的回归模型,如线性回归、多项式回归、对数回归等。
2. 自变量的选择:根据自变量与因变量的相关性和理论基础,选择合适的自变量。
可以使用SPSS的“逐步回归”功能来进行自动选择变量。
3. 建立回归模型:在SPSS软件中选择“回归”-“线性”命令,然后将因变量和自变量添加到相应的框中。
点击“确定”即可建立回归模型。
三、结果解释在进行回归分析后,需要对结果进行解释和验证。
1. 检验模型拟合度:可以使用SPSS的“模型拟合度”命令来检验模型的拟合度,包括R方值、调整R方值和显著性水平等指标。
2. 检验回归系数:回归系数表示自变量对因变量的影响程度。
通过检验回归系数的显著性,可以判断自变量是否对因变量有统计上显著的影响。
相关分析和回归分析SPSS实现SPSS(统计包统计分析软件)是一种广泛使用的数据分析工具,在相关分析和回归分析方面具有强大的功能。
本文将介绍如何使用SPSS进行相关分析和回归分析。
相关分析(Correlation Analysis)用于探索两个或多个变量之间的关系。
在SPSS中,可以通过如下步骤进行相关分析:1.打开SPSS软件并导入数据集。
2.选择“分析”菜单,然后选择“相关”子菜单。
3.在“相关”对话框中,选择将要分析的变量,然后单击“箭头”将其添加到“变量”框中。
4.选择相关系数的计算方法(如皮尔逊相关系数、斯皮尔曼等级相关系数)。
5.单击“确定”按钮,SPSS将计算相关系数并将结果显示在输出窗口中。
回归分析(Regression Analysis)用于建立一个预测模型,来预测因变量在自变量影响下的变化。
在SPSS中,可以通过如下步骤进行回归分析:1.打开SPSS软件并导入数据集。
2.选择“分析”菜单,然后选择“回归”子菜单。
3.在“回归”对话框中,选择要分析的因变量和自变量,然后单击“箭头”将其添加到“因变量”和“自变量”框中。
4.选择回归模型的方法(如线性回归、多项式回归等)。
5.单击“统计”按钮,选择要计算的统计量(如参数估计、拟合优度等)。
6.单击“确定”按钮,SPSS将计算回归模型并将结果显示在输出窗口中。
在分析结果中,相关分析会显示相关系数的数值和统计显著性水平,以评估变量之间的关系强度和统计显著性。
回归分析会显示回归系数的数值和显著性水平,以评估自变量对因变量的影响。
值得注意的是,相关分析和回归分析在使用前需要考虑数据的要求和前提条件。
例如,相关分析要求变量间的关系是线性的,回归分析要求自变量与因变量之间存在一定的关联关系。
总结起来,SPSS提供了强大的功能和工具,便于进行相关分析和回归分析。
通过上述步骤,用户可以轻松地完成数据分析和结果呈现。
然而,分析结果的解释和应用需要结合具体的研究背景和目的进行综合考虑。
只有一个自变量和因变量的线性回归称为简单线性回归,但是实际上,这样单纯的关系在现实世界中几乎不存在,万事万物都是互相联系的,一个问题的产生必定多种因素共同作用的结果。
对于有多个自变量和一个因变量的线性回归称为多重线性回归,有的资料上称为多元线性回归,但我认为多元的意思应该是真的因变量而非自变量的,而且多重共线性这个说法,也是针对多个自变量产生的,因此我还是赞同叫做多重线性回归。
多重线性回归是适用条件和简单线性回归类似,也是自变量与因变量之间存在线性关系、残差相互独立、残差方差齐性,残差呈正态分布,但是由于自变量多于1个,因此还需要要求自变量之间不存在相关性,即不存在多重共线性,但是完全不存在相关的两个变量是不存在的,因此条件放宽为只要不是强相关性,都可以接受。
多重线性回归在SPSS中的操作过程和简单线性回归一样,只是设置的内容多了一些,并且由于考察的信息较多,建议设定分析步骤,常用的步骤为
1.绘制散点图,判断是否存在线性趋势
2.初步建模,包括设定变量筛选方法
3.残差分析,分析建模之后的残差的正态性,独立性,方差齐性等问题
4.强影响点和多重共线性的判断
5.根据以上分析结果修正模型,并重复3-4,直到模型达到最优效果
分析—回归—线性。
SPSS操作:简单线性回归(史上最详尽的手把手教程)1、问题与数据研究表明,运动有助于预防心脏病。
一般来说,运动越多,心脏病的患病风险越小。
其原因之一在于,运动可以降低血胆固醇浓度。
近期研究显示,一项久坐的生活指标—看电视时间,可能是罹患心脏病的预测因素。
即看电视时间越长,心脏病的患病风险越大。
研究者拟在45-65岁健康男性人群中分析胆固醇浓度与看电视时间的关系。
他们猜测可能存在正向相关,即看电视时间越长,胆固醇浓度越高。
同时,他们也希望预测胆固醇浓度,并计算看电视时间对胆固醇浓度的解释能力。
研究者收集了受试者每天看电视时间(time_tv)和胆固醇浓度(cholesterol)等变量信息,部分数据如下:2、对问题的分析研究者想判断两个变量之间的关系,同时用其中一个变量(看电视时间)预测另一个变量(胆固醇浓度),并计算其中一个变量(看电视时间)对另一个变量(胆固醇浓度)变异的解释程度。
针对这种情况,我们可以使用简单线性回归分析,但需要先满足7项假设:假设1:因变量是连续变量假设2:自变量可以被定义为连续变量假设3:因变量和自变量之间存在线性关系假设4:具有相互独立的观测值假设5:不存在显著的异常值假设6:等方差性假设7:回归残差近似正态分布那么,进行简单线性回归分析时,如何考虑和处理这7项假设呢?3、思维导图(点击图片可查看清晰大图)4、对假设的判断4.1 假设1和假设2因变量是连续变量,自变量可以被定义为连续变量。
举例来说,我们平时测量的反应时间(小时)、智力水平(IQ分数)、考试成绩(0到100分)以及体重(千克)都是连续变量。
在线性回归中,因变量(dependent variable)一般是指研究的成果、目标或者标准值;自变量(independent variable)一般被看作预测、解释或者回归变量。
假设1和假设2与研究设计有关,需要根据实际情况判断。
4.2 假设3简单线性回归要求自变量和因变量之间存在线性关系,如要求看电视时间(time_tv)和胆固醇浓度(cholesterol)存在线性关系。
用SPSS做回归分析回归分析是一种统计方法,用于研究两个或多个变量之间的关系,并预测一个或多个因变量如何随着一个或多个自变量的变化而变化。
SPSS(统计软件包的统计产品与服务)是一种流行的统计分析软件,广泛应用于研究、教育和业务领域。
要进行回归分析,首先需要确定研究中的因变量和自变量。
因变量是被研究者感兴趣的目标变量,而自变量是可能影响因变量的变量。
例如,在研究投资回报率时,投资回报率可能是因变量,而投资额、行业类型和利率可能是自变量。
在SPSS中进行回归分析的步骤如下:1.打开SPSS软件,并导入数据:首先打开SPSS软件,然后点击“打开文件”按钮导入数据文件。
确保数据文件包含因变量和自变量的值。
2.选择回归分析方法:在SPSS中,有多种类型的回归分析可供选择。
最常见的是简单线性回归和多元回归。
简单线性回归适用于只有一个自变量的情况,而多元回归适用于有多个自变量的情况。
3.设置因变量和自变量:SPSS中的回归分析工具要求用户指定因变量和自变量。
选择适当的变量,并将其移动到正确的框中。
4.运行回归分析:点击“运行”按钮开始进行回归分析。
SPSS将计算适当的统计结果,包括回归方程、相关系数、误差项等。
这些结果可以帮助解释自变量如何影响因变量。
5.解释结果:在完成回归分析后,需要解释得到的统计结果。
回归方程表示因变量与自变量之间的关系。
相关系数表示自变量和因变量之间的相关性。
误差项表示回归方程无法解释的变异。
6.进行模型诊断:完成回归分析后,还应进行模型诊断。
模型诊断包括检查模型的假设、残差的正态性、残差的方差齐性等。
SPSS提供了多种图形和统计工具,可用于评估回归模型的质量。
回归分析是一种强大的统计分析方法,可用于解释变量之间的关系,并预测因变量的值。
SPSS作为一种广泛使用的统计软件,可用于执行回归分析,并提供了丰富的功能和工具,可帮助研究者更好地理解和解释数据。
通过了解回归分析的步骤和SPSS的基本操作,可以更好地利用这种方法来分析数据。
多元回归分析SPSS
SPSS可以进行多元回归分析的步骤如下:
1.导入数据:首先需要将所需的数据导入SPSS软件中。
可以使用SPSS的数据导入功能,将数据从外部文件导入到工作空间中。
2.选择自变量和因变量:在进行多元回归分析之前,需要确定作为自
变量和因变量的变量。
在SPSS中,可以使用变量视图来选择所需的变量。
3.进行多元回归分析:在SPSS的分析菜单中,选择回归选项。
然后
选择多元回归分析,在弹出的对话框中将因变量和自变量输入相应的框中。
可以选择是否进行数据转换和标准化等选项。
4.分析结果的解释:多元回归分析完成后,SPSS将生成一个回归模
型的结果报告。
该报告包括各个自变量的系数、显著性水平、调整R平方
等统计指标。
根据这些统计指标可以判断自变量与因变量之间的关系强度
和显著性。
5.进一步分析:在多元回归分析中,还可以进行进一步的分析,例如
检查多重共线性、检验模型的假设、进一步探索变量之间的交互作用等。
通过多元回归分析可以帮助研究者理解因变量与自变量之间的关系,
预测因变量的值,并且确定哪些自变量对因变量的解释更为重要。
在
SPSS中进行多元回归分析可以方便地进行数值计算和统计推断,提高研
究的科学性和可信度。
总结来说,多元回归分析是一种重要的统计分析方法,而SPSS是一
个功能强大的统计软件工具。
通过结合SPSS的多元回归分析功能,研究
者可以更快速、准确地进行多元回归分析并解释结果。
以上就是多元回归分析SPSS的相关内容简介。
SPSS--回归-多元线性回归模型案例解析多元线性回归,主要是研究⼀个因变量与多个⾃变量之间的相关关系,跟⼀元回归原理差不多,区别在于影响因素(⾃变量)更多些⽽已,例如:⼀元线性回归⽅程为:毫⽆疑问,多元线性回归⽅程应该为:上图中的 x1, x2, xp分别代表“⾃变量”Xp截⽌,代表有P个⾃变量,如果有“N组样本,那么这个多元线性回归,将会组成⼀个矩阵,如下图所⽰:那么,多元线性回归⽅程矩阵形式为:其中:代表随机误差,其中随机误差分为:可解释的误差和不可解释的误差,随机误差必须满⾜以下四个条件,多元线性⽅程才有意义(⼀元线性⽅程也⼀样)1:服成正太分布,即指:随机误差必须是服成正太分别的随机变量。
2:⽆偏性假设,即指:期望值为03:同共⽅差性假设,即指,所有的随机误差变量⽅差都相等4:独⽴性假设,即指:所有的随机误差变量都相互独⽴,可以⽤协⽅差解释。
今天跟⼤家⼀起讨论⼀下,SPSS---多元线性回归的具体操作过程,下⾯以教程教程数据为例,分析汽车特征与汽车销售量之间的关系。
通过分析汽车特征跟汽车销售量的关系,建⽴拟合多元线性回归模型。
数据如下图所⽰:点击“分析”——回归——线性——进⼊如下图所⽰的界⾯:将“销售量”作为“因变量”拖⼊因变量框内,将“车长,车宽,耗油率,车净重等10个⾃变量拖⼊⾃变量框内,如上图所⽰,在“⽅法”旁边,选择“逐步”,当然,你也可以选择其它的⽅式,如果你选择“进⼊”默认的⽅式,在分析结果中,将会得到如下图所⽰的结果:(所有的⾃变量,都会强⾏进⼊)如果你选择“逐步”这个⽅法,将会得到如下图所⽰的结果:(将会根据预先设定的“F统计量的概率值进⾏筛选,最先进⼊回归⽅程的“⾃变量”应该是跟“因变量”关系最为密切,贡献最⼤的,如下图可以看出,车的价格和车轴跟因变量关系最为密切,符合判断条件的概率值必须⼩于0.05,当概率值⼤于等于0.1时将会被剔除)“选择变量(E)" 框内,我并没有输⼊数据,如果你需要对某个“⾃变量”进⾏条件筛选,可以将那个⾃变量,移⼊“选择变量框”内,有⼀个前提就是:该变量从未在另⼀个⽬标列表中出现!,再点击“规则”设定相应的“筛选条件”即可,如下图所⽰:点击“统计量”弹出如下所⽰的框,如下所⽰:在“回归系数”下⾯勾选“估计,在右侧勾选”模型拟合度“ 和”共线性诊断“ 两个选项,再勾选“个案诊断”再点击“离群值”⼀般默认值为“3”,(设定异常值的依据,只有当残差超过3倍标准差的观测才会被当做异常值)点击继续。
SPSS数据分析—多重线性回归
简单线性回归是指只有一个自变量和一个因变量的线性回归。
然而,在现实世界中,事物之间的关系往往是复杂的,由多个因素共同作用而产生的结果。
因此,简单线性回归在实际应用中几乎不存在。
多重线性回归是指有多个自变量和一个因变量的线性回归。
有些资料将其称为多元线性回归,但我认为“多元”应该指的是真正的因变量而不是自变量。
同时,多重共线性这一概念也是针对多个自变量而言的。
因此,我更倾向于称其为多重线性回归。
多重线性回归的适用条件与简单线性回归类似,需要满足自变量与因变量之间存在线性关系、残差相互独立、残差方差齐性,以及残差呈正态分布等条件。
但由于自变量的数量增加,还需要确保自变量之间不存在相关性,即避免多重共线性的影响。
然而,完全不存在相关的自变量是不可能的,因此只要不是强相关性,就可以接受。
在SPSS中,多重线性回归的操作过程与简单线性回归类似,只是设置的内容更多。
建议设定分析步骤,常用的步骤包括:1.绘制散点图,判断是否存在线性趋势;2.初步建模,包括设定变量筛选方法;3.残差分析,分析建模之后的残差的正态性、独立性、方差齐性等问题;4.判断强影响点和多重共线性;5.根据以上分析结果修正模型,并重复步骤3-4,直到模型达到最优效果。
spss回归SPSS回归介绍:SPSS(Statistical Package for the Social Sciences)是一种广泛使用的统计分析软件,被广泛应用于社会科学、生物科学、工程等领域。
回归分析是SPSS中最为常用的统计方法之一,用于研究因变量与一个或多个自变量之间的关系。
本文将详细介绍SPSS回归分析的基本概念、步骤和结果的解读。
一、回归分析的基本概念1.1 回归方程回归方程是用来描述因变量和自变量之间关系的数学模型。
简单线性回归方程可以表示为Y = a + bX,其中Y为因变量,X为自变量,a和b分别为截距项和斜率。
当存在多个自变量时,可以采用多元回归方程进行分析。
1.2 相关系数相关系数可以衡量因变量和自变量之间的关系强度和方向。
在SPSS 中,常用的相关系数有Pearson相关系数和Spearman秩相关系数。
Pearson相关系数适用于连续变量,而Spearman秩相关系数则适用于有序变量或非线性关系。
二、回归分析的步骤2.1 数据准备在进行回归分析之前,需要准备好所需的数据。
数据可以来自调查问卷、实验或其他收集方式。
在SPSS中,可以通过导入数据文件或手动输入数据来进行分析。
2.2 设计回归模型在设计回归模型时,需要确定自变量和因变量的关系类型。
如果自变量和因变量之间存在线性关系,则可以使用简单线性回归模型。
如果存在多个自变量,则需要使用多元回归模型。
2.3 进行回归分析在SPSS中,进行回归分析非常简单。
只需要选择分析菜单下的回归选项,然后将因变量和自变量选择到相应的字段中。
SPSS会自动计算回归方程和相关系数,并提供结果解读。
2.4 分析结果解读回归分析结果包括回归系数、显著性水平、拟合优度等指标。
回归系数表示自变量对因变量的影响程度,显著性水平表示回归模型的可靠性,拟合优度可以评估回归模型的拟合程度。
三、实例分析为了更好地理解SPSS回归分析的步骤和结果,下面将给出一个实例分析。
SPSS案例实践笔记:多重线性回归分析数据小兵博客当只考察一个自变量对因变量的影响时,我们称之为简单一元线性回归,如果要多考察一些自变量,此时许多人习惯性将之称为多元线性回归,统计学上建议称之为多重线性回归,避免和多元统计方法冲突。
案例背景介绍这是mei国50个州关于犯罪率的一组数据,包括人口、面积、收入、文盲率、高中毕业率、霜冻天数、犯罪率共7个指标,现在我们想考察一下州犯罪率和其他因素间的关系。
SPSS变量视图如下:研究目标是各州的犯罪率(因变量),可能的因素(自变量)是人口、面积、收入、文盲率、高中毕业率、霜冻天数。
因变量犯罪率连续数值变量,有多个自变量,从研究目标和数据类型来看,可选用多重线性回归分析。
线性关系初步判断线性回归要求每个自变量和因变量之间存在线性关系,可以依靠相关分析和散点图来初步判断。
犯罪率与文盲率、霜冻天数、高中毕业率、人口存在较为明显的线性关系,面积和其他变量普遍无关,越冷的地方文盲率越低、高中毕业率越高。
有统计学意义的相关系数依次为:0.703(文盲率)、-0.539(霜冻天数)、-0.488(高中毕业率)、0.344(人口)。
除因变量外其他因素两两间相关系数均在0.7以下,因素间没有强相关关系存在,初步提示共线性问题较弱。
以上分析表明,并不是所有因素都有犯罪率存在明显线性关系,如果我们构建多重线性回归,这可能涉及到自变量筛选的问题,可优先选择逐步回归的方法。
共线性问题共线性问题是由于自变量间存在强相关关系造成的,它的存在对回归是有影响的,现在我们需要观察6个自变量间的共线性问题,最为常见的依据则是关注容忍度Tol和方差膨胀因子VIF。
SPSS在线性回归中可以是输出这两个指标,来看一下具体情况:VIF是T ol的倒数,所以它们两个其实是一回事,我们只需要解读其一即可。
一般认为如果某个自变量的容忍度T ol<0.1,则可能存在严重共线性问题。
反过来就是VIF>10提示存在较为严重共线性问题。