应用回归分析,第3章课后习题参考答案
- 格式:doc
- 大小:183.50 KB
- 文档页数:9
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
《使用回归分析》部分课后习题答案第一章回归分析概述变量间统计关系和函数关系的区别是什么答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
回归分析和相关分析的联系和区别是什么答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y和变量x的密切程度和研究变量x 和变量y的密切程度是一回事。
b.相关分析中所涉及的变量y和变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
回归模型中随机误差项ε的意义是什么答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y和x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
线性回归模型的基本假设是什么答:线性回归模型的基本假设有:1.解释变量….xp是非随机的,观测值…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^2《3.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.回归变量的设置理论根据是什么在回归变量设置时应注意哪些问题答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
【关键字】分析第一章回归分析概述1.2 返回分析与相关分析的联系与区别是什么?答:联系有返回分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在返回分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在返回分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而返回分析不仅可以揭示变量x对变量y的影响大小,还可以由返回方程进行预测和控制。
1.3 返回模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性返回模型的基本假设是什么?答:线性返回模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip 是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.第二章一元线性返回分析思考与练习参考答案2.1 一元线性返回有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)= 2 i=1,2, …,nCov(εi, εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, 2 ) i=1,2, …,n2.3 证明(2.27式),ei =0 ,eiXi=0 。
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
应用回归分析第三章习题 3.1y x =β基本假定:(1) 诸1234n x ,x x ,x x ……非随机变量,rank (x )=p+1,X 为满秩矩阵(2) 误差项()()200i i j E ,i j cov ,,i j⎧ε=⎪⎧δ=⎨εε=⎨⎪≠⎩⎩(3)()20i i j ~N ,,⎧εδ⎪⎨εε⎪⎩诸相互独立3.2()10111ˆX X X X |rank(X X )p rank(X )p n p -'β'≠'=+≥+≥+存在,必须使存在。
即|则必有故3.3()()()()()22111221222211111111n nn i i ii i i i nii i ni i E e D e h n h n p ˆE E e n p n p n p =====⎛⎫==-δ ⎪⎝⎭⎛⎫=-δ=--δ ⎪⎝⎭⎛⎫∴δ==--δ=δ ⎪----⎝⎭∑∑∑∑∑3.4并不能这样武断地下结论。
2R 与回归方程中的自变量数目以及样本量n 有关,当样本量n 与自变量个数接近时,2R 易接近1,其中隐含着一些虚假成分。
因此,并不能仅凭很大的2R 就模型的优劣程度。
3.5首先,对回归方程的显著性进行整体上的检验——F 检验001230p H :β=β=β=β==β=……接受原假设:在显著水平α下,表示随机变量y 与诸x 之间的关系由线性模型表示不合适 拒绝原假设:认为在显著性水平α下,y 与诸x 之间有显著的线性关系第二,对单个自变量的回归系数进行显著性检验。
00i H :β=接受原假设:认为i β=0,自变量i x 对y 的线性效果并不显著3.6原始数据由于自变量的单位往往不同,会给分析带来一定的困难;又由于设计的数据量较大,可能会以为舍入误差而使得计算结果并不理想。
中心化和标准化回归系数有利于消除由于量纲不同、数量级不同带来的影响,避免不必要的误差。
3.71122011122201122ppp p p p p ˆˆˆˆˆy x x x ˆˆˆˆˆˆy y (x x )(x x )(x x )ˆˆˆˆy x x )x x )x x )y =β+β+β++β-=β+β-+β-++β--ββ=-+-++-=对最小二乘法求得一般回归方程:……对方程进行如下运算:…………*jjˆ+β=……即3.812132123313221231221233131231123233213231313*********111r r r r r r r r rr r r r r r r r r r r r ⎛⎫ ⎪= ⎪ ⎪⎝⎭∆==-∆==-∆==-即证3.9()()()()()1211121121211111j jj j j p j j j p yj j j p SSR /SSE F SSE /n p SSE /n p SSE x ,x ,,x ,x x SSE x ,x ,,x ,x ,x x r SSE x ,x ,,x ,x x -+-+-+∆∆==-----=……,?………,?…而……,?…由上两式可知,其考虑的都是通过j SSE ∆在总体中所占比例来衡量第j 个因素的重要程度,因而j F 与2yj r 是等价的。
第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解:21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =02.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:)()(ˆ1211∑∑===ni ini ii XY X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
应用回归分析-第3章课后习题参考答案一般来说,R2越接近1,即R2取值越大,说明回归拟合的效果越好。
但由于R2的大小与样本容量n和自变量个数p有关,当n与p的值接近时,R2容易接近1,说明R2中隐含着一些虚假成分。
而当样本容量n较小,自变量个数p较大时,尽管R2很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为R2很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝H0,接受H0?答:一般来说,当接受假设H0时,认为在给定的显著性水平α之下,自变量x1,x2,…,x p对因变量y无显著性影响,则通过x1,x2,…,x p 去推断y就无多大意义。
此时,一方面可能该问题本应该用非线性模型描述,我们误用线性模型描述了,使得自变量对因变量无显著影响;另一方面可能是在考虑自变量时,由于认识上的局限性把一些影响因变量y的自变量漏掉了,这就从两个方面提醒我们去重新考虑建模问题。
当拒绝H0时,也不能过于相信该检验,认为该模型已经很完美。
其实当拒绝H时,我们只能认为该回归模型在一定程度上说明了自变量x1,x2,…,x p与因变量y的线性关系。
因为这时仍不能排除我们漏掉了一些重要自变量。
此检验只能用于辅助性的,事后验证性的目的。
(详细内容可参考课本P95~P96评注。
)3.6 数据中心化和标准化在回归分析中的意义是什么?答:原始数据由于自变量的单位往往不同,会给分析带来一定的困难;又由于设计的数据量较大,可能会以为舍入误差而使得计算结果并不理想。
中心化和标准化回归系数有利于消除由于量纲不同、数量级不同带来的影响,避免不必要的误差。
3.7 验证ˆˆ,1,2,,jj j j yy L j p L β*==证明:多元线性回归方程模型的一般形式为:01122p p y x x x ββββε=+++++其经验回归方程式为01122ˆˆˆˆˆp p y x x x ββββ=++++, 又01122ˆˆˆˆp py x x x ββββ=----, 故111222ˆˆˆˆ()()()p p py y x x x x x x βββ=+-+-++-, 中心化后,则有111222ˆˆˆˆ()()()i p p py y x x x x x x βββ-=-+-++-, 21()n yy i i L y y ==-∑ 令21(),1,2,,n jj ij j i L x x i n ==-=∑,1,2,,j p =11221122121122()ˆˆˆpp ip i i i p yy yy yy pp yyL x x L L y x x L L L L L L L βββ-=++ 样本数据标准化的公式为1,2,,i ij i jj yy x x y x y i n L L **-===,1,2,,j p =则上式可以记为112211221122ˆˆˆˆˆˆpp i i i p ip yy yy yy i i p ipL L L y x x x L L L x x x ββββββ**********=+++=⨯+⨯++⨯则有ˆˆ,1,2,,jj j j yy L j p L ββ*==3.8 验证3.9 验证决定系数R 2与F 值之间的关系式:p p n F FR /)1(2--+=3.10 验证决定系数R 2与F 值之间的关系式:pp n F F R /)1(2--+= 证明:2/,/(1)111(1)/1SSR p F SSE n p F SSE SSR p n p F SSE p SSR SSR F p F n p R F SSE SST SSR SSE F p n p F n p p p SSE n p =--⋅∴=⨯--⋅⨯⨯--∴=====⋅+⨯+--+--⨯+--。
资料范本本资料为word版本,可以直接编辑和打印,感谢您的下载应用回归分析(第三版)何晓群刘文卿课后习题答案完整版地点:__________________时间:__________________说明:本资料适用于约定双方经过谈判,协商而共同承认,共同遵守的责任与义务,仅供参考,文档可直接下载或修改,不需要的部分可直接删除,使用时请详细阅读内容第二章一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)=s2 i=1,2, …,nCov(εi, εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, s2 ) i=1,2, …,n2.2 考虑过原点的线性回归模型Yi=β1Xi+εi i=1,2, …,n误差εi(i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计解:得:2.3 证明(2.27式),Sei =0 ,SeiXi=0 。
证明:其中:即: Sei =0 ,SeiXi=02.4回归方程E(Y)=β0+β1X的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi~N(0, s2 ) i=1,2, …,n所以Yi=β0 + β1Xi + εi~N(β0+β1Xi , s2 )最大似然函数:使得Ln(L)最大的,就是β0,β1的最大似然估计值。
同时发现使得Ln(L)最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi~N(0, s2 )的假设下求得,最小二乘估计则不要求分布假设。
所以在εi~N(0, s2 ) 的条件下,参数β0,β1的最小二乘估计与最大似然估计等价。
3.1=⎪⎪⎪⎪⎪⎭⎫ ⎝⎛yn y y 21 ⎝⎛111 12111xn x x 22212xn x x ⎪⎪⎪⎪⎪⎭⎫xnp p x p x 21 ⎪⎪⎪⎪⎪⎭⎫ ⎝⎛p βββ 10 +⎪⎪⎪⎪⎪⎭⎫ ⎝⎛n εεε 21即y=x β+ε基本假定(1)解释变量x1,x2...,xp 是确定性变量,不是随机变量,且要求rank(X)=p+1<n,表明设计矩阵X 中自变量列之间不相关,样本量的个数应大于解释变量的个数(2)随机误差项具有零均值和等方差,即高斯马尔柯夫条件nE ,2,1,0)(==τετ⎩⎨⎧=0)cov(2,σεεγτγτγτ≠=n 2,1,=γτ(3)对于多元线性回归的正态分布假定条件的矩阵模型为 ε~N (0,n I 2σ) 随即向量y~N(X n I 2,σβ) 3.2当(1)-X X T存在时,回归参数的最小二乘估计为Y X X X T T 1)(-∧=β,要求出回归参数∧β,即要求X X T 是一个非奇异矩阵,0≠X X T ,所以可逆矩阵X X T 为p+1阶的满秩矩阵,又根据两个矩阵乘积的秩不大于每一因子的秩rank(X)≥p+1,而X 为n ⨯(p+1)阶矩阵,于是应有n ≥p+1 结论说明,要想用最小二乘法估计多元线性回归模型的未知参数,样本量n 必须大于模型自变量p 的个数。
3.31)())1((11)1(11)1(11)(11]))(()([11)(11)(11)11()(21)(122211121121121222222+===⨯+-⨯--=---=---=--=+--=--=--=--=++=-=∑∑∑∑∑∑∑∑∑========∧=∧p h H tr p n p n h p n h p n e D p n e E e D p n e E p n e E p n SSE p n E E en e e y y SSE nnn nn n nn nτττττττττττττττττττττσσσσσ注 3.4不能断定这个方程一定很理想,因为样本决定系数与回归方程中自变量的数目以及样本量n 有关,当样本量个数n 太小,而自变量又较多,使样本量与自变量的个数接近时,2R 易接近1,其中隐藏一些虚假成分。
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑2n01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)22001()(,())xxx N n L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 3.66==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
第3章多元线性回归思考与练习参考答案3.1见教材P64-65 3.2讨论样本容量n 与自变量个数P 的关系,它们对模型的参数估计 有何影响?答:在多元线性回归模型中,样本容量 n 与自变量个数P 的关系是: n>>P 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1.在多元线性回归模型中,有P+1个待估参数P,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2.解释变量X 是确定性变量,要求rank(X) p 1 n ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若ran k(X) p 1,则解释变量之间线性相关,(XX)1是奇异阵,则的估计不稳定。
证明:我们能断定这个回归方程就很理想吗?2答:不能。
复相关系数 R 与样本决定系R 数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,22一般来说,R 越接近1,即R 取值越大,说明回归拟合的效果越好。
23.3证明?2SSE/ n p 1随机误差项£的方差2的无偏估计。
21 1 Q 于 ----------- SSE ---------- n P 1 n P 1nn n2 2E( e ) D(e) (1i 1i 1 i 1 dnE( ?2) —1—E( e 2)(ee)nh ii ) J p 1 i 1n2 2(1 h ii ) (nnh ii )i 12(n P 1)3.4 一个回归方程的复相关系数R=0.99,样本决定系数2R但由于R 的大小与样本容量n 和自变量个数p 有关,当n 与p 的值22接近时, R 容易接近1,说明R 中隐含着一些虚假成分。
而当样本2容量n较小,自变量个数P较大时,尽管R很大,但参数估计效果2很不稳定。
所以该题中不能仅仅因为R 很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝H0,接受H0?答:一般来说,当接受假设H o时,认为在给定的显著性水平a之下, 自变量X1, X2,…,X p对因变量y无显著性影响,贝y通过X1, X2,…,X p去推断y 就无多大意义。
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x 与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
《使用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析和相关分析的联系和区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y和变量x的密切程度和研究变量x和变量y的密切程度是一回事。
b.相关分析中所涉及的变量y和变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y和x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
3.3 多元线性回归模型的检验一、判断题1、在线性回归模型中,为解释变量或者被解释变量重新选取单位(比如,元变换成千元),会影响t 统计量和 2R 的数值。
( F )2、在多元线性回归中,t 检验和F 检验缺一不可。
( T )3、回归方程总体线性显著性检验的原假设是模型中所有的回归参数同时为零。
( F )4、多元线性回归中,可决系数2R 是评价模型拟合优度好坏的最佳标准。
( F )二 、单项选择1、在模型0112233t t t t t Y X X X ββββμ=++++的回归分析结果中,有462.58F =,0.000000F p =的值,则表明 ( C )A 、解释变量2t X 对t Y 的影响不显著B 、解释变量1t X 对t Y 的影响显著C 、模型所描述的变量之间的线性关系总体上显著D 、解释变量2t X 和1t X 对t Y 的影响显著2、设k 为回归模型中的实解释变量的个数,n 为样本容量。
则对回归模型进行总体显著性 检验(F 检验)时构造的F 统计量为 ( A )A 、1)ESS k F RSS n k =--B 、(1)()ESS k F RSS n k -=- C 、ESS F RSS = D 、1RSS F TSS=- 3、在多元回归中,调整后的可决系数2R 与可决系数2R 的关系为 ( A ) A 、22R R < B 、22R R >C 、22R R =D 、2R 与2R 的关系不能确定4、根据调整的可决系数2R 与F 统计量的关系可知,当21R =时,有 ( C )A 、F=0B 、F=-1C 、F →+∞D 、F=-∞5、下面哪一表述是正确的 ( D ) A 、线性回归模型01i i i Y X ββμ=++的零均值假设是指110ni i n μ==∑ B 、对模型01122i i i i Y X X βββμ=+++进行方程显著性检验(即F 检验),检验的零假 设是0012:0H βββ===C 、相关系数较大意味着两个变量存在较强的因果关系D 、当随机误差项的方差估计量等于零时,说明被解释变量与解释变量之间为函数关系5、对于01122ˆˆˆˆi i i k ki iY X X X e ββββ=+++++…,如果原模型满足线性模型的基本假设则 在零假设0j β=下,统计量ˆˆ()j j s ββ(其中ˆ()js β是j β的标准误差)服从 (B )A 、()t n k -B 、(1)t n k --C 、(1,)F k n k --D 、(,1)F k n k --6、在由的一组样本估计的、包含3个解释变量的线性回归模型中,计算得多重可决系数为0.8500,则调整后的多重可决系数为( D )A 、8603B 、 0.8389C 、0.8655D 、0.83277、可决系数R 2=0.8,说明回归直线能解释被解释变量总变差的:( A )A 、 80%B 、 64%C 、 20%D 、 89%8、线性回归模型01122......t t t k kt t y b b x b x b x u =+++++ 中,检验0:0(0,1,2,...)t H b i k ==时,所用的统计量 服从( C )A.t(n-k+1)B.t(n-k-2)C.t(n-k-1)D.t(n-k+2)三、多项选择题1、对模型满足所有假定条件的模型01122i i i i Y X X βββμ=+++进行总体显著性检验,如果检验结果总体线性关系显著,则很可能出现 ( BCD )A 、120ββ==B 、120,0ββ≠=C 、120,0ββ≠≠D 、120,0ββ=≠E 、120,0ββ==2、设k 为回归模型中的参数个数(包含截距项)则总体线性回归模型进行显著性检验时所 用的F 统计量可以表示为 ( BC )A 、()()()∑∑---1k e k n Y Y 2i 2i i //ˆ B 、()()()∑∑---k n e 1k Y Y 2i2ii //ˆ C 、()()()k n R 11k R 22---// D 、()()()1k R k n R 122---// E 、()()()1k R 1k n R 22---// 3、在多元回归分析中,调整的可决系数2R 与可决系数2R 之间 ( AD )A 、22R R <B 、22R R ≥C 、2R 只可能大于零D 、2R 可能为负值E 、2R 不可能为负值四、简答题30n =1.在多元线性回归分析中,为什么用修正的可决系数衡量估计模型对样本观测值的拟合优度?答:因为人们发现随着模型中解释变量的增多,多重可决系数2R 的值往往会变大,从而增加了模型的解释功能。
第3章 多元线性回归思考与练习参考答案3.2 讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响?答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求()1rank p n =+<X ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若()1rank p <+X ,则解释变量之间线性相关,1()X X -'是奇异阵,则β的估计不稳定。
3.3证明随机误差项ε的方差σ2的无偏估计。
证明:22122222111112221111ˆ(),111()()(1)(1)()(1)1ˆ()()1n i i n n nnnii ii iiii i i i i i ni i SSE e e e n p n p n p E e D e h h n h n p E E e n p σσσσσσσ======='===------∴==-=-=-=--∴==--∑∑∑∑∑∑∑3.4 一个回归方程的复相关系数R=0.99,样本决定系数R 2=0.9801,我们能判断这个回归方程就很理想吗? 答:不能断定这个回归方程理想。
因为:1. 在样本容量较少,变量个数较大时,决定系数的值容易接近1,而此时可能F 检验或者关于回归系数的t 检验,所建立的回归方()1ˆ2--=p n SSE σ程都没能通过。
2. 样本决定系数和复相关系数接近于1只能说明Y 与自变量X1,X2,…,Xp 整体上的线性关系成立,而不能判断回归方程和每个自变量是显著的,还需进行F 检验和t 检验。
3. 在应用过程中发现,在样本容量一定的情况下,如果在模型中增加解释变量必定使得自由度减少,使得 R 2往往增大,因此增加解释变量(尤其是不显著的解释变量)个数引起的R 2的增大与拟合好坏无关。
3.7 验证证明:多元线性回归方程模型的一般形式为:01122p p y x x x ββββε=+++++其经验回归方程式为01122ˆˆˆˆˆp py x x x ββββ=++++,又01122ˆˆˆˆp py x x x ββββ=----, 故111222ˆˆˆˆ()()()p p py y x x x x x x βββ=+-+-++-, 中心化后,则有111222ˆˆˆˆ()()()i p p py y x x x x x x βββ-=-+-++-,=令21(),1,2,,njj ij j i L x x i n ==-=∑,1,2,,j p =12()ˆˆˆippx x y x x βββ-=++ 样本数据标准化的公式为21ˆˆ*,1,2,...,)njj j i j pL X β====-∑jji j 其中: (X1,2,,ij ix x yx y i n**-===,1,2,,j p=则上式可以记为11221122ˆˆˆˆˆˆi i i p ipi i p ipLy x x xLx x xββββββ**********=+++=⨯+⨯++⨯则有ˆˆ,1,2,,j jj pβ*==3.10 验证决定系数R2与F值之间的关系式:ppnFFR/)1(2--+=证明:2/,/(1)111(1)/1SSR pFSSE n pF SSESSR pn pF SSEpSSR SSR F p Fn pRF SSESST SSR SSE F p n p F n p pp SSEn p=--⋅∴=⨯--⋅⨯⨯--∴=====⋅+⨯+--+--⨯+--3.11 研究货运总量y(万吨)与工业总产值x1(亿元)、农业总产值x2(亿元)、居民非商品支出x3(亿元)的关系。
数据见表3.9(略)。
(1)计算出y,x1,x2,x3的相关系数矩阵。
SPSS输出如下:则相关系数矩阵为: 1.0000.5560.7310.7240.556 1.0000.1130.3980.7310.113 1.0000.5470.7240.3980.547 1.000r ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦(2)求出y 与x1,x2,x3的三元回归方程。
对数据利用SPSS 做线性回归,得到回归方程为123ˆ348.38 3.7547.10112.447yx x x =-+++ (3)对所求的方程作拟合优度检验。
由上表可知,调整后的决定系数为0.708,说明回归方程对样本观测值的拟合程度较好。
(4)对回归方程作显著性检验;原假设:0:3210===βββHF 统计量服从自由度为(3,6)的F 分布,给定显著性水平α=0.05,查表得76.4)6.3(05.0=F ,由方查分析表得,F 值=8.283>4.76,p 值=0.015,拒绝原假设0H ,由方差分析表可以得到8.283,0.0150.05F P ==<,说明在置信水平为95%下,回归方程显著。
(5)对每一个回归系数作显著性检验;做t 检验:设原假设为0:0=i H β,it 统计量服从自由度为n-p-1=6的t 分布,给定显著性水平0.05,查得单侧检验临界值为1.943,X1的t 值=1.942<1.943,处在否定域边缘。
X2的t 值=2.465>1.943。
拒绝原假设。
由上表可得,在显著性水平0.05α=时,只有2x 的P 值<0.05,通过检验,即只有2x 的回归系数较为显著 ;其余自变量的P 值均大于0.05,即x1,x2的系数均不显著。
(6)如果有的回归系数没有通过显著性检验,将其剔除,重新建立回归方程,并作回归方程的显著性检验和回归系数的显著性检验。
解:用后退法对数据重新做回归分析,结果如下:选择模型二,重新建立的回归方程为:12ˆ459.624 4.6768.971yx x =-++对新的回归方程做显著性检验: 原假设:0:210==ββHF 服从自由度为(2,7)的F 分布,给定显著性水平α=0.05,查表得74.4)7.2(05.0=F ,由方差分析表得,F 值=11.117>4.74,p 值=0.007,拒绝原假设0H .认为在显著性水平α=0.05下,x1,x2整体上对y 有显著的线性影响,即回归方程是显著的。
对每一个回归系数做显著性检验:做t 检验:设原假设为0:10=βH ,1t 统计量服从自由度为n-p-1=7的t 分布,给定显著性水平0.05,查得单侧检验临界值为1.895,X1的t 值=2.575>1.895,拒绝原假设。
故1β显著不为零,自变量X1对因变量y 的线性效果显著;同理β2也通过检验。
同时从回归系数显著性检验表可知:X1,X2的p 值 都小于0.05,可认为对x1,x2分别对y 都有显著的影响。
(7)求出每一个回归系数的置信水平为955D 置信区间由回归系数表可以看到,β1置信水平为95%的置信区间[0.381,8.970],β2置信水平为95%的置信区间[3.134,14.808]Coe fficientsa-348.280176.459-1.974.096-780.06083.5003.754 1.933.385 1.942.100-.9778.4857.101 2.880.535 2.465.049.05314.14912.44710.569.277 1.178.284-13.41538.310-459.624153.058-3.003.020-821.547-97.7004.676 1.816.479 2.575.037.3818.9708.971 2.468.6763.634.0083.13414.808(Constant)x1x2x3(Constant)x1x2Model 12B Std. E rror Unstandardized Coefficients BetaStandardizedCoefficientstSig.Low er Bound Upper Bound95% Confidence Interval for B Dependent Variable: ya.(8)求标准化回归方程由回归系数表(上表)可得,标准化后的回归方程为:***12ˆ0.4790.676yx x =+ (9)求当x 01=75,x 02=42,x 03=3.1时的y 的预测值0ˆy,给定置信水平95%,用SPSS 软件计算精确置信区间,用手工计算近似预测区间;由SPSS 输出结果可知,当01020375,42, 3.1x x x ===时,0ˆ267.829y=(见上表),0y 的置信度为95%的精确预测区间为(204.4,331.2)(见下表),0y 的置信度为95%的近似预测区间为0ˆˆ(2)yσ±,手工计算得:(219.6,316.0)。
(10)结合回归方程对问题做一些简单分析。
答:由回归方程12ˆ459.624 4.6768.971yx x =-++ 可知农业总产值固定的时候,工业总产值每增加1亿元,货运总量增加4.676万吨;工业总产值固定的时候,农业总产值每增加1亿元,货运总量增加8.971万吨。
而居民非商品支出对货运总量没有显著的线性影响。
由标准化回归方程***12ˆ0.4790.676yx x =+可知:工业总产值、农业总产值与Y 都是正相关关系,比较回归系数的大小可知农业总产值X2对货运总量Y 的影响程度大一些。