应用回归分析-第3章课后习题参考答案
- 格式:doc
- 大小:187.00 KB
- 文档页数:5
第一章测试1【多选题】(2分)当一个经济问题的回归模型通过了各种统计检验,且模型具有合理的经济意义时,该回归模型就可用于A.经济变量的因素分析B.模型的显著性检验C.进行经济预测D.给定被解释变量值来控制解释变量值2【判断题】(2分)常用的样本数据有时间序列数据和横截面数据。
A.错B.对3【多选题】(2分)随机误差项主要包括以下哪些因素的影响?A.其他随机因素B.样本采集过程中的测量误差C.由于人们认识的局限性或时间、费用、数据质量等的约束未引入回归模型但又对回归被解释变量有影响的因素D.理论模型的设定误差4【判断题】(2分)变量间具有密切关联而又不能由某一个或某一些变量确定另外一个变量的关系称为变量间的统计关系。
A.对B.错5【单选题】(2分)进行回归分析时,假定相关的两个变量()。
A.都不是随机变量B.一个是随机变量,一个不是随机变量C.都是随机变量D.随机或非随机都可以第二章测试1【单选题】(2分)总体平方和SST、残差平方和SSE、回归平方和SSR三者之间的关系是()。
A.SSE=SSR-SSTB.SST=SSR+SSEC.SSR=SST+SSED.SSE=SSR+SST2【单选题】(2分)反映由模型中解释变量所解释的那部分离差大小的是()。
A.残差平方和B.总体平方和C.回归平方和D.样本平方和3【多选题】(2分)古典线性回归模型的普通最小二乘估计量的特性有()。
A.无偏性B.不一致性C.最小方差D.线性4【判断题】(2分)一元线性回归分析中的回归平方和SSR的自由度是1。
A.错B.。
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
【关键字】分析第一章回归分析概述1.2 返回分析与相关分析的联系与区别是什么?答:联系有返回分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在返回分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在返回分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而返回分析不仅可以揭示变量x对变量y的影响大小,还可以由返回方程进行预测和控制。
1.3 返回模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性返回模型的基本假设是什么?答:线性返回模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip 是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.第二章一元线性返回分析思考与练习参考答案2.1 一元线性返回有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)= 2 i=1,2, …,nCov(εi, εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, 2 ) i=1,2, …,n2.3 证明(2.27式),ei =0 ,eiXi=0 。
&第三章 多元线性回归模型一、单项选择题1、C2、A3、B4、A5、C6、C7、A8、D9、B 10、D一、单项选择题1、在模型0112233t t t t t Y X X X ββββμ=++++的回归分析结果中,有462.58F =,0.000000F p =的值,则表明( C ) A 、解释变量2t X 对t Y 的影响不显著B 、解释变量1t X 对t Y 的影响显著】C 、模型所描述的变量之间的线性关系总体上显著D 、解释变量2t X 和1t X 对t Y 的影响显著2、设k 为回归模型中的实解释变量的个数,n 为样本容量。
则对回归模型进行总体显著性检验(F 检验)时构造的F 统计量为 ( A )A 、(1)ESS k F RSS n k =--B 、(1))ESS k F RSS n k -=- C 、ESS F RSS = D 、1RSS F TSS=- 3、已知二元线性回归模型估计的残差平方和为2800i e =∑,估计用样本容量为23n =,则随机误差项t μ的方差的OLS 估计值为( B )!A 、B 、 40C 、D 、4、在多元回归中,调整后的决定系数2R 与决定系数2R 的关系为 ( A )A 、22R R <B 、22R R >C 、22R R =D 、2R 与2R 的关系不能确定5、下面说法正确的有 ( C )A 、时间序列数据和横截面数据没有差异B 、对回归模型的总体显著性检验没有必要C 、总体回归方程与样本回归方程是有区别的:D 、决定系数2R 不可以用于衡量拟合优度6、根据调整的可决系数2R 与F 统计量的关系可知,当21R =时,有 ( C )A 、F=0B 、F=-1C 、F →+∞D 、F=-∞7、线性回归模型的参数估计量ˆβ是随机向量Y 的函数,即1ˆ()X X X Y β-''=。
ˆβ是 ( A )A 、随机向量B 、非随机向量C 、确定性向量D 、常量8、下面哪一表述是正确的 ( D )A 、线性回归模型01i i i Y X ββμ=++的零均值假设是指110ni i n μ==∑ ;B 、对模型01122i i i i Y X X βββμ=+++进行方程显著性检验(即F 检验),检验的零假设是0012:0H βββ===C 、相关系数较大意味着两个变量存在较强的因果关系D 、当随机误差项的方差估计量等于零时,说明被解释变量与解释变量之间为函数关系9、对于01122ˆˆˆˆi i i k ki iY X X X e ββββ=+++++…,如果原模型满足线性模型的基本假设则 在零假设0j β=下,统计量ˆˆ()j j s ββ(其中ˆ()js β是j β的标准误差)服从 ( B )A 、()t n k -B 、(1)t n k --C 、(1,)F k n k --D 、(,1)F k n k --10、下列说法中正确的是 ( D )。
第一章回归分析概述1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.第二章一元线性回归分析思考与练习参考答案2.1一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)=σ2i=1,2, …,nCov(εi,εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(X i, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, σ2) i=1,2, …,n2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
应用回归分析第三章习题 3.1y x =β基本假定:(1) 诸1234n x ,x x ,x x ……非随机变量,rank (x )=p+1,X 为满秩矩阵(2) 误差项()()200i i j E ,i j cov ,,i j⎧ε=⎪⎧δ=⎨εε=⎨⎪≠⎩⎩(3)()20i i j ~N ,,⎧εδ⎪⎨εε⎪⎩诸相互独立3.2()10111ˆX X X X |rank(X X )p rank(X )p n p -'β'≠'=+≥+≥+存在,必须使存在。
即|则必有故3.3()()()()()22111221222211111111n nn i i ii i i i nii i ni i E e D e h n h n p ˆE E e n p n p n p =====⎛⎫==-δ ⎪⎝⎭⎛⎫=-δ=--δ ⎪⎝⎭⎛⎫∴δ==--δ=δ ⎪----⎝⎭∑∑∑∑∑3.4并不能这样武断地下结论。
2R 与回归方程中的自变量数目以及样本量n 有关,当样本量n 与自变量个数接近时,2R 易接近1,其中隐含着一些虚假成分。
因此,并不能仅凭很大的2R 就模型的优劣程度。
3.5首先,对回归方程的显著性进行整体上的检验——F 检验001230p H :β=β=β=β==β=……接受原假设:在显著水平α下,表示随机变量y 与诸x 之间的关系由线性模型表示不合适 拒绝原假设:认为在显著性水平α下,y 与诸x 之间有显著的线性关系第二,对单个自变量的回归系数进行显著性检验。
00i H :β=接受原假设:认为i β=0,自变量i x 对y 的线性效果并不显著3.6原始数据由于自变量的单位往往不同,会给分析带来一定的困难;又由于设计的数据量较大,可能会以为舍入误差而使得计算结果并不理想。
中心化和标准化回归系数有利于消除由于量纲不同、数量级不同带来的影响,避免不必要的误差。
3.71122011122201122ppp p p p p ˆˆˆˆˆy x x x ˆˆˆˆˆˆy y (x x )(x x )(x x )ˆˆˆˆy x x )x x )x x )y =β+β+β++β-=β+β-+β-++β--ββ=-+-++-=对最小二乘法求得一般回归方程:……对方程进行如下运算:…………*jjˆ+β=……即3.812132123313221231221233131231123233213231313*********111r r r r r r r r rr r r r r r r r r r r r ⎛⎫ ⎪= ⎪ ⎪⎝⎭∆==-∆==-∆==-即证3.9()()()()()1211121121211111j jj j j p j j j p yj j j p SSR /SSE F SSE /n p SSE /n p SSE x ,x ,,x ,x x SSE x ,x ,,x ,x ,x x r SSE x ,x ,,x ,x x -+-+-+∆∆==-----=……,?………,?…而……,?…由上两式可知,其考虑的都是通过j SSE ∆在总体中所占比例来衡量第j 个因素的重要程度,因而j F 与2yj r 是等价的。
第3章 多元线性回归思考与练习参考答案3.2 讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响?答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求()1rank p n =+<X ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若()1rank p <+X ,则解释变量之间线性相关,1()X X -'是奇异阵,则β的估计不稳定。
3.3证明随机误差项ε的方差σ2的无偏估计。
证明:22122222111112221111ˆ(),111()()(1)(1)()(1)1ˆ()()1n i i n n nnnii ii iiii i i i i i ni i SSE e e e n p n p n p E e D e h h n h n p E E e n p σσσσσσσ======='===------∴==-=-=-=--∴==--∑∑∑∑∑∑∑3.4 一个回归方程的复相关系数R=0.99,样本决定系数R 2=0.9801,我们能判断这个回归方程就很理想吗? 答:不能断定这个回归方程理想。
因为:1. 在样本容量较少,变量个数较大时,决定系数的值容易接近1,而此时可能F 检验或者关于回归系数的t 检验,所建立的回归方()1ˆ2--=p n SSE σ程都没能通过。
2. 样本决定系数和复相关系数接近于1只能说明Y 与自变量X1,X2,…,Xp 整体上的线性关系成立,而不能判断回归方程和每个自变量是显著的,还需进行F 检验和t 检验。
3. 在应用过程中发现,在样本容量一定的情况下,如果在模型中增加解释变量必定使得自由度减少,使得 R 2往往增大,因此增加解释变量(尤其是不显著的解释变量)个数引起的R 2的增大与拟合好坏无关。
ESS kRSS (n - k -1) n3.3 多元线性回归模型的检验一、判断题1、在线性回归模型中,为解释变量或者被解释变量重新选取单位(比如,元变换成千元), 会影响 t 统计量和 R 2 的数值。
( F )2、在多元线性回归中,t 检验和 F 检验缺一不可。
( T) 3、回归方程总体线性显著性检验的原假设是模型中所有的回归参数同时为零。
( F )4、多元线性回归中,可决系数 R 2 是评价模型拟合优度好坏的最佳标准。
(F )二 、单项选择1、在模型Y t = 0 + 1 X 1t + 2 X 2t + 3 X 3t + t 的回归分析结果中,有 F = 462.58 ,F 的p 值= 0.000000 ,则表明(C )A 、解释变量 X 2t 对Y t 的影响不显著B 、解释变量 X 1t 对Y t 的影响显著C 、模型所描述的变量之间的线性关系总体上显著D 、解释变量 X 2t 和 X 1t 对Y t 的影响显著2、设k 为回归模型中的实解释变量的个数, n 为样本容量。
则对回归模型进行总体显著性 检验( F 检验)时构造的 F 统计量为 (A )A 、 F =B 、 F =C 、 F =ESS RSSD 、 F = 1-RSS TSS3、在多元回归中,调整后的可决系数 R 2与可决系数 R 2 的关系为 ( A )A 、 R 2 < R 2 C 、 R 2= R 2B 、 R 2 > R 2D 、 R 2 与 R 2 的关系不能确定4、根据调整的可决系数 R 2 与 F 统计量的关系可知,当 R 2 = 1 时,有 (C ) A 、F=0B 、F=-1C 、F→+∞D 、F=-∞5、下面哪一表述是正确的 (D )1 nA 、线性回归模型Y i = 0 + 1 X i + i 的零均值假设是指∑i= 0i =1ESS (k -1)RSS (n - k )0 1 1i 2 2ik ki i B 、对模型Y i = 0 + 1 X 1i + 2 X 2i + i 进行方程显著性检验(即 F 检验),检验的零假 设是 H 0 : 0 = 1 = 2 = 0C 、相关系数较大意味着两个变量存在较强的因果关系D 、当随机误差项的方差估计量等于零时,说明被解释变量与解释变量之间为函数关系5、对于Y i = ˆ +ˆ X +ˆ X+… +ˆ X + e ,如果原模型满足线性模型的基本假设则 在零假设 j = 0 下, 统计量 ˆj (B ) s (ˆj ) ( 其中 s (ˆj ) 是 j 的标准误差) 服从A 、t (n - k )B 、t (n - k -1)C 、 F (k -1, n - k )D 、 F (k , n - k -1)6、在由 n = 30 的一组样本估计的、包含 3 个解释变量的线性回归模型中,计算得多重可决系数为 0.8500,则调整后的多重可决系数为( D )A 、8603B 、 0.8389C 、0.8655D 、0.8327 7、可决系数 R 2=0.8,说明回归直线能解释被解释变量总变差的:( A )A 、 80%B 、 64%C 、 20%D 、 89%8、线性回归模型 y t= b 0 + b 1 x 1t + b 2 x 2t + ...... + b k x kt + u tH 0 : b t = 0(i = 0,1, 2,...k ) 时,所用的统计量服从(C )中,检验A.t(n-k+1)B.t(n-k-2)C.t(n-k-1)D.t(n-k+2)三、多项选择题1、对模型满足所有假定条件的模型Y i = 0 + 1 X 1i + 2 X 2i + i 进行总体显著性检验,如 果检验结果总体线性关系显著,则很可能出现 ( BCD )A 、1 = 2 = 0 C 、1 ≠ 0,2 ≠ 0 E 、1= 0,2 = 0B 、1 ≠ 0,2 = 0 D 、1= 0,2 ≠ 02、设 k 为回归模型中的参数个数(包含截距项)则总体线性回归模型进行显著性检验时所用的 F 统计量可以表示为( BC )∑(Y ˆ - Y )2/(n - k )∑(Y ˆ - Y )2/(k - 1)A 、 ii 2 ( ) B 、 ii 2 ( ) ∑e i / k- 1 ∑e i/ n- k R 2 /(k - 1)C 、(1 - R 2 )/(n - k )(1 - R 2 )/(n - k )D 、R 2/(k - 1)R2/(n -k )E、(1 -R2)/(k -1)3、在多元回归分析中,调整的可决系数R2与可决系数R2之间(AD )A、R2<R2B、R2≥R2C、R2只可能大于零D、R2可能为负值E、R2不可能为负值四、简答题1.在多元线性回归分析中,为什么用修正的可决系数衡量估计模型对样本观测值的拟合优度?答:因为人们发现随着模型中解释变量的增多,多重可决系数R2的值往往会变大,从而增加了模型的解释功能。
应用回归分析-第3章课后习题参考答案一般来说,R2越接近1,即R2取值越大,说明回归拟合的效果越好。
但由于R2的大小与样本容量n和自变量个数p有关,当n与p的值接近时,R2容易接近1,说明R2中隐含着一些虚假成分。
而当样本容量n较小,自变量个数p较大时,尽管R2很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为R2很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝H0,接受H0?答:一般来说,当接受假设H0时,认为在给定的显著性水平α之下,自变量x1,x2,…,x p对因变量y无显著性影响,则通过x1,x2,…,x p 去推断y就无多大意义。
此时,一方面可能该问题本应该用非线性模型描述,我们误用线性模型描述了,使得自变量对因变量无显著影响;另一方面可能是在考虑自变量时,由于认识上的局限性把一些影响因变量y的自变量漏掉了,这就从两个方面提醒我们去重新考虑建模问题。
当拒绝H0时,也不能过于相信该检验,认为该模型已经很完美。
其实当拒绝H时,我们只能认为该回归模型在一定程度上说明了自变量x1,x2,…,x p与因变量y的线性关系。
因为这时仍不能排除我们漏掉了一些重要自变量。
此检验只能用于辅助性的,事后验证性的目的。
(详细内容可参考课本P95~P96评注。
)3.6 数据中心化和标准化在回归分析中的意义是什么?答:原始数据由于自变量的单位往往不同,会给分析带来一定的困难;又由于设计的数据量较大,可能会以为舍入误差而使得计算结果并不理想。
中心化和标准化回归系数有利于消除由于量纲不同、数量级不同带来的影响,避免不必要的误差。
3.7 验证ˆˆ,1,2,,jj j j yy L j p L β*==证明:多元线性回归方程模型的一般形式为:01122p p y x x x ββββε=+++++其经验回归方程式为01122ˆˆˆˆˆp p y x x x ββββ=++++, 又01122ˆˆˆˆp py x x x ββββ=----, 故111222ˆˆˆˆ()()()p p py y x x x x x x βββ=+-+-++-, 中心化后,则有111222ˆˆˆˆ()()()i p p py y x x x x x x βββ-=-+-++-, 21()n yy i i L y y ==-∑ 令21(),1,2,,n jj ij j i L x x i n ==-=∑,1,2,,j p =11221122121122()ˆˆˆpp ip i i i p yy yy yy pp yyL x x L L y x x L L L L L L L βββ-=++ 样本数据标准化的公式为1,2,,i ij i jj yy x x y x y i n L L **-===,1,2,,j p =则上式可以记为112211221122ˆˆˆˆˆˆpp i i i p ip yy yy yy i i p ipL L L y x x x L L L x x x ββββββ**********=+++=⨯+⨯++⨯则有ˆˆ,1,2,,jj j j yy L j p L ββ*==3.8 验证3.9 验证决定系数R 2与F 值之间的关系式:p p n F FR /)1(2--+=3.10 验证决定系数R 2与F 值之间的关系式:pp n F F R /)1(2--+= 证明:2/,/(1)111(1)/1SSR p F SSE n p F SSE SSR p n p F SSE p SSR SSR F p F n p R F SSE SST SSR SSE F p n p F n p p p SSE n p =--⋅∴=⨯--⋅⨯⨯--∴=====⋅+⨯+--+--⨯+--。
资料范本本资料为word版本,可以直接编辑和打印,感谢您的下载应用回归分析(第三版)何晓群刘文卿课后习题答案完整版地点:__________________时间:__________________说明:本资料适用于约定双方经过谈判,协商而共同承认,共同遵守的责任与义务,仅供参考,文档可直接下载或修改,不需要的部分可直接删除,使用时请详细阅读内容第二章一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)=s2 i=1,2, …,nCov(εi, εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, s2 ) i=1,2, …,n2.2 考虑过原点的线性回归模型Yi=β1Xi+εi i=1,2, …,n误差εi(i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计解:得:2.3 证明(2.27式),Sei =0 ,SeiXi=0 。
证明:其中:即: Sei =0 ,SeiXi=02.4回归方程E(Y)=β0+β1X的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi~N(0, s2 ) i=1,2, …,n所以Yi=β0 + β1Xi + εi~N(β0+β1Xi , s2 )最大似然函数:使得Ln(L)最大的,就是β0,β1的最大似然估计值。
同时发现使得Ln(L)最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi~N(0, s2 )的假设下求得,最小二乘估计则不要求分布假设。
所以在εi~N(0, s2 ) 的条件下,参数β0,β1的最小二乘估计与最大似然估计等价。
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有 a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑2n01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)22001()(,())xxx N n L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 3.66==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析课后答案第二章一元线性回归2.14 解答:EXCEL结果:SUMMARY OUTPUT回归统计Multiple R0.944911R Square0.892857Adjusted R Square0.857143标准误差0.597614观测值5方差分析df SS MS F Significance F回归分析18.9285718.928571250.015392残差3 1.0714290.357143总计410Coefficients标准误差t Stat P-value Lower 95%Upper 95%下限95.0%上限95.0% Intercept-0.214290.6962-0.307790.778371-2.4299 2.001332-2.4299 2.001332 X Variable 10.1785710.03571450.0153920.0649130.292230.0649130.29223RESIDUAL OUTPUT观测值预测Y残差1 1.571429-0.571432 1.5714290.4285713 3.357143-0.357144 3.3571430.6428575 5.142857-0.14286SPSS结果:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN Lσββ∧t σ∧==服从自由度为n-2的t 分布。
3.1将下列模型用记号B (滞后算子)写出⑴乙-0・%=勺(2)X t =a t+0.4%_2(3)X[ — 0・5X_] — cij —+ 0.4a〜2解答:(1)(1- 0.5B)X f = %是人讹1)模型;(2)X, =(1-1.3B + 0.4B2)a f是MA⑵模型;⑶(1- 0.5B)X f = (1 一1.33 + 0.4B2)a f^A/^MA(l92)模型。
3. 2对上述3. 1中的各个模型,求出:1.前5个格林函数;2.前5个自相关函数;3.模型的格林函数形式。
解答:1.前5个格林函数(1)G Q=吠—1 G]=诉=0.5 G2 =(/):— 0.52 = 0.25 G3 =吠—0.53G4 =(/): = 0.54⑵ G()= 1 G]=-0]=-1.3 G2 = -02 = 0.4 G3 = 0 C4 = 0⑶ G o = 1 G] = _&] =-0.8 G2=G|0|_&2=O G3 = G2(p{ = 0 G4 = G y(p x = 02.前5个自相关函数①E(X( Xj ) = O・5E(Xz X-) + E(a t X t_k)k = 0/o = O-5/i + 6 A)= /() [ c=一= tpl =—= 0.5, =0.52,k = 1 /i = O-5/o =^>/o /o -k = 2Yi = °・5为P3 == O.53,p4 = 0.54②E(qX J-1.3E(gX J+0.4E(仏X J 二血(g +0 砌爲]- 1.3E[%(q, -1.3勺如+0.4d—)] + °•述一2(% -1叉+ +O4j_2)] k = a /0 =b:+1.32<T; +0.42/ =2.85cr; £ = 1』]=—1.3b;— 1.3xO・4b: =—l・82cr;k = 2, /2 = 0.4b:; k = 3,4…必=0Qo =1,Q] =-0.64,/?2 =0・14“3 =°4 =0③X f—0・5X#_] —ci t—1・3勺_[ +0.4d_2则“上加i—r沁,因此人=1 + O.S = 1.64,兀=-0.8, J = O(J > 2)_ A Q所以,A) = 1, Pl = —- = -0.487& pj = 0(; > 0)1.643.模型的格林函数形式1 8①"TTk曾5S.•q =0.530)0O-1.3B+0.4B2^Z因此,② Xf =》Gj%_jJ=o.・.G° =1,G, =-1.3,G2 = 0.4, Gj = -0j(7 > 2)8③ X, = (1 _ 0.8B)勺=工Gjj, ... G° = 1, Gj = -e. (./ > 0);=o3. 3给出AR⑴模型的格林函数q•对j的散点图:⑴® = 0.5 ⑵ ® = -0.8 ⑶® = 1 (伽=-1 答:AR(1)模型的格林函数形式为(彳=%/,把上述已知条件带入,得到的图形如下: ⑴操作结果如下:.6-.5・.4-x ・3・.2-.1-0 4 8 12 16 20 24 28 32⑵操作结果如下:0・8・ 0・4・ 0一0・ A04・七8・2 ~|| | | |||0 4 8 12 16 20 24 28 32⑶操作结果如21.06 ・ 1 04・ 1 02-z 仁00・0Q8・ 0 96- 0.94 - )(((()4812 16 20 24 28 32⑷操作结果如下:1.2- 08・ 0.4- M oo ・-0.4- -0.8-OOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Q O O OOO O OOO设且随机干扰序列如下试利用模型的差分方程形式和格林函数形式对上面3. 1屮模型求出X,, X12答:⑴对于3.1 (1) X z -0.5%^ =a t , 模型属于AR(1)形式1 00 00X,= -------- 写丫0 丿5_d, X1 =^0.5y^_; =0.6+ 0.5x(-0.3)+0.25x0 = 0.451— Ofi 5 ;=o j=o8X?=工0.57a2_j = 0.9 + 0.5 x 0.6 + 0.25 x (- 0.3)+ 0」25x 0 = 1」25;=o同理可得,Xs =£O.5Q;=o 3T =0.7625 3 :Y 0.5 St = 0.48125 008X5= ^0.5J a5-j =-0.359375 XL迄0.5丿如二:1.520312f ./=o ./=00000X7=y 0.5,a 7-y -0.1398439 2 =,0・5仏―=1.23007& j=00000=工0.5仏9-;=0.0150394 Xg =工0.5丿叽= -0.392480(戶00000=£O.5»== 0.70376 X\2=工0.5%一/= 0.351879* ;=0 丿•=()(2)对于3. 1(2) X t =a t -1.3% +0.4。
第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解:21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =02.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:)()(ˆ1211∑∑===ni ini ii XY X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
3.3 多元线性回归模型的检验一、判断题1、在线性回归模型中,为解释变量或者被解释变量重新选取单位(比如,元变换成千元),会影响t 统计量和 2R 的数值。
( F )2、在多元线性回归中,t 检验和F 检验缺一不可。
( T )3、回归方程总体线性显著性检验的原假设是模型中所有的回归参数同时为零。
( F )4、多元线性回归中,可决系数2R 是评价模型拟合优度好坏的最佳标准。
( F )二 、单项选择1、在模型0112233t t t t t Y X X X ββββμ=++++的回归分析结果中,有462.58F =,0.000000F p =的值,则表明 ( C )A 、解释变量2t X 对t Y 的影响不显著B 、解释变量1t X 对t Y 的影响显著C 、模型所描述的变量之间的线性关系总体上显著D 、解释变量2t X 和1t X 对t Y 的影响显著2、设k 为回归模型中的实解释变量的个数,n 为样本容量。
则对回归模型进行总体显著性 检验(F 检验)时构造的F 统计量为 ( A )A 、1)ESS k F RSS n k =--B 、(1)()ESS k F RSS n k -=- C 、ESS F RSS = D 、1RSS F TSS=- 3、在多元回归中,调整后的可决系数2R 与可决系数2R 的关系为 ( A ) A 、22R R < B 、22R R >C 、22R R =D 、2R 与2R 的关系不能确定4、根据调整的可决系数2R 与F 统计量的关系可知,当21R =时,有 ( C )A 、F=0B 、F=-1C 、F →+∞D 、F=-∞5、下面哪一表述是正确的 ( D ) A 、线性回归模型01i i i Y X ββμ=++的零均值假设是指110ni i n μ==∑ B 、对模型01122i i i i Y X X βββμ=+++进行方程显著性检验(即F 检验),检验的零假 设是0012:0H βββ===C 、相关系数较大意味着两个变量存在较强的因果关系D 、当随机误差项的方差估计量等于零时,说明被解释变量与解释变量之间为函数关系5、对于01122ˆˆˆˆi i i k ki iY X X X e ββββ=+++++…,如果原模型满足线性模型的基本假设则 在零假设0j β=下,统计量ˆˆ()j j s ββ(其中ˆ()js β是j β的标准误差)服从 (B )A 、()t n k -B 、(1)t n k --C 、(1,)F k n k --D 、(,1)F k n k --6、在由的一组样本估计的、包含3个解释变量的线性回归模型中,计算得多重可决系数为0.8500,则调整后的多重可决系数为( D )A 、8603B 、 0.8389C 、0.8655D 、0.83277、可决系数R 2=0.8,说明回归直线能解释被解释变量总变差的:( A )A 、 80%B 、 64%C 、 20%D 、 89%8、线性回归模型01122......t t t k kt t y b b x b x b x u =+++++ 中,检验0:0(0,1,2,...)t H b i k ==时,所用的统计量 服从( C )A.t(n-k+1)B.t(n-k-2)C.t(n-k-1)D.t(n-k+2)三、多项选择题1、对模型满足所有假定条件的模型01122i i i i Y X X βββμ=+++进行总体显著性检验,如果检验结果总体线性关系显著,则很可能出现 ( BCD )A 、120ββ==B 、120,0ββ≠=C 、120,0ββ≠≠D 、120,0ββ=≠E 、120,0ββ==2、设k 为回归模型中的参数个数(包含截距项)则总体线性回归模型进行显著性检验时所 用的F 统计量可以表示为 ( BC )A 、()()()∑∑---1k e k n Y Y 2i 2i i //ˆ B 、()()()∑∑---k n e 1k Y Y 2i2ii //ˆ C 、()()()k n R 11k R 22---// D 、()()()1k R k n R 122---// E 、()()()1k R 1k n R 22---// 3、在多元回归分析中,调整的可决系数2R 与可决系数2R 之间 ( AD )A 、22R R <B 、22R R ≥C 、2R 只可能大于零D 、2R 可能为负值E 、2R 不可能为负值四、简答题30n =1.在多元线性回归分析中,为什么用修正的可决系数衡量估计模型对样本观测值的拟合优度?答:因为人们发现随着模型中解释变量的增多,多重可决系数2R 的值往往会变大,从而增加了模型的解释功能。
第3章 多元线性回归
思考与练习参考答案
3.1 见教材P64-65
3.2 讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响?
答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求()1rank p n =+<X ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若
()1rank p <+X ,则解释变量之间线性相关,1()X X -'是奇异阵,则β
的估计不稳定。
3.3证明 随机误差项ε的方差s 2的无偏估计。
证明:
2
21
2
2
2
2
21
1
1
1
1
2
22
1
111
ˆ(),111()()(1)(1)()(1)1
ˆ()()1n
i i n n n
n
n
i
i ii ii
ii i i i i i n
i i SSE e e e n p n p n p E e D e h h n h n p E E e n p σσσ
σ
σσσ======='===------∴==-=-=-=--∴==--∑∑∑∑∑∑∑Q
3.4 一个回归方程的复相关系数R=0.99,样本决定系数R 2
=0.9801,我们能断定这个回归方程就很理想吗?
答:不能。
复相关系数R 与样本决定系R 2
数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,一
()1ˆ2--=p n SSE σ
般来说,R2越接近1,即R2取值越大,说明回归拟合的效果越好。
但由于R2的大小与样本容量n和自变量个数p有关,当n与p的值接近时,R2容易接近1,说明R2中隐含着一些虚假成分。
而当样本容量n较小,自变量个数p较大时,尽管R2很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为R2很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝H0,接受H0?
答:一般来说,当接受假设H0时,认为在给定的显著性水平α之下,自变量x1,x2,…,x p对因变量y无显著性影响,则通过x1,x2,…,x p去推断y就无多大意义。
此时,一方面可能该问题本应该用非线性模型描述,我们误用线性模型描述了,使得自变量对因变量无显著影响;另一方面可能是在考虑自变量时,由于认识上的局限性把一些影响因变量y的自变量漏掉了,这就从两个方面提醒我们去重新考虑建模问题。
当拒绝H0时,也不能过于相信该检验,认为该模型已经很完美。
其实当拒绝H时,我们只能认为该回归模型在一定程度上说明了自变
量x1,x2,…,x p与因变量y的线性关系。
因为这时仍不能排除我们漏掉了一些重要自变量。
此检验只能用于辅助性的,事后验证性的目的。
(详细内容可参考课本P95~P96评注。
)
3.6 数据中心化和标准化在回归分析中的意义是什么?
答:原始数据由于自变量的单位往往不同,会给分析带来一定的困难;又由于设计的数据量较大,可能会以为舍入误差而使得计算结果并不理想。
中心化和标准化回归系数有利于消除由于量纲不同、数量级不
同带来的影响,避免不必要的误差。
3.7
验证ˆˆ,1,2,,j
j
j p ββ*==L 证明:多元线性回归方程模型的一般形式为:
01122p p y x x x ββββε
=+++++L
其经验回归方程式为
01122ˆˆˆˆˆp p
y x x x ββββ=++++L ,
又01122ˆˆˆˆp p
y x x x ββββ=----L , 故111222ˆˆˆˆ()()()p p p
y y x x x x x x βββ=+-+-++-L , 中心化后,则有111222ˆˆˆˆ()()()i p p p
y y x x x x x x βββ-=-+-++-L ,
=
令21
(),1,2,,n
jj ij j i L x x i n ==-=∑L ,1,2,,j p =L
12()ˆˆˆp x x y x x βββ-=++L
样本数据标准化的公式为
1,2,,ij i x x y x y i n **-=
=
=L ,1,2,,j p =L
则上式可以记为
1
1
2
2
1122ˆˆˆˆˆˆi i i p
ip
i i p ip
y x x x x x x ββββββ*
*
*
*******=+++=⨯+⨯++⨯L L
则有
ˆ
ˆ,
1,2,,jj j
j
yy
L j p L ββ*==L 3.8 验证
3.9 验证决定系数R 2与F 值之间的关系式:p
p n F F
R /)1(2--+=
3.10 验证决定系数R 2与F 值之间的关系式:p
p n F F
R /)1(2--+=
证明:
2/,
/(1)1
1
1(1)/1
SSR p
F SSE n p F SSE
SSR p
n p F SSE
p
SSR SSR F p F n p R F SSE SST SSR SSE F p n p F n p p
p SSE n p =
--⋅∴=⨯--⋅⨯⨯--∴=====
⋅+⨯+--+--⨯+--Q。