一元线性回归(假设检验)
- 格式:ppt
- 大小:1.89 MB
- 文档页数:48
从统计学看线性回归(1)——⼀元线性回归⽬录1. ⼀元线性回归模型的数学形式2. 回归参数β0 , β1的估计3. 最⼩⼆乘估计的性质 线性性 ⽆偏性 最⼩⽅差性⼀、⼀元线性回归模型的数学形式 ⼀元线性回归是描述两个变量之间相关关系的最简单的回归模型。
⾃变量与因变量间的线性关系的数学结构通常⽤式(1)的形式:y = β0 + β1x + ε (1)其中两个变量y与x之间的关系⽤两部分描述。
⼀部分是由于x的变化引起y线性变化的部分,即β0+ β1x,另⼀部分是由其他⼀切随机因素引起的,记为ε。
该式确切的表达了变量x与y之间密切关系,但密切的程度⼜没有到x唯⼀确定y的这种特殊关系。
式(1)称为变量y对x的⼀元线性回归理论模型。
⼀般称y为被解释变量(因变量),x为解释变量(⾃变量),β0和β1是未知参数,成β0为回归常数,β1为回归系数。
ε表⽰其他随机因素的影响。
⼀般假定ε是不可观测的随机误差,它是⼀个随机变量,通常假定ε满⾜:(2)对式(1)两边求期望,得E(y) = β0 + β1x, (3)称式(3)为回归⽅程。
E(ε) = 0 可以理解为ε对 y 的总体影响期望为 0,也就是说在给定 x 下,由x确定的线性部分β0 + β1x 已经确定,现在只有ε对 y 产⽣影响,在 x = x0,ε = 0即除x以外其他⼀切因素对 y 的影响为0时,设 y = y0,经过多次采样,y 的值在 y0 上下波动(因为采样中ε不恒等于0),若 E(ε) = 0 则说明综合多次采样的结果,ε对 y 的综合影响为0,则可以很好的分析 x 对 y 的影响(因为其他⼀切因素的综合影响为0,但要保证样本量不能太少);若 E(ε) = c ≠ 0,即ε对 y 的综合影响是⼀个不为0的常数,则E(y) = β0 + β1x + E(ε),那么 E(ε) 这个常数可以直接被β0 捕获,从⽽变为公式(3);若 E(ε) = 变量,则说明ε在不同的 x 下对 y 的影响不同,那么说明存在其他变量也对 y 有显著作⽤。
计量经济学复习笔记(⼆):⼀元线性回归(下)回顾上⽂,我们通过OLS推导出了⼀元线性回归的两个参数估计,得到了以下重要结论:ˆβ1=∑x i y i∑x2i,ˆβ0=¯Y−ˆβ1¯X.注意总体回归模型是Y=β0+β1X+µ,同时我们还假定了µ∼N(0,σ2),这使得整个模型都具有正态性。
这种正态性意味着许多,我们能⽤数理统计的知识得到点估计的优良性质,完成区间估计、假设检验等,本⽂就来详细讨论上述内容。
1、BLUE我们选择OLS估计量作为⼀元线性回归的参数估计量,最主要的原因就是它是最⼩⽅差线性⽆偏估计(Best Linear Unbiased Estimator),这意味着它们是:线性的。
⽆偏的。
最⼩⽅差的。
不过,光给你这三个词,你可能会对定义有所困扰——⽐如,关于什么线性?⼜关于什么是⽆偏的?我们接下来就对OLS估计量的BLUE性详细讨论,包括简单证明。
原本我认为,证明在后⾯再给出会更合适,引⼊也更顺畅,但是我们接下来要讨论的许多,都有赖于OLS估计量的BLUE性,因此我还是决定将这部分内容放在这⾥。
⾸先是线性性,它指的是关于观测值Y i线性,这有什么意义呢?注意到,在之前的讨论中,我们总讨论在给定X的取值状况下的其他信息,如µ的条件期望、⽅差协⽅差等,因此我们往往会在这部分的讨论中将X视为常数(⽽不是随机变量)看待,这会带来⼀些好处。
⽽因为µ∼N(0,σ2)且µi是从µ中抽取的简单随机样本,且µi与X i⽆关,所以由正态分布的性质,有Y i|X i∼N(β0+β1X i,σ2).实际上,由于参数真值β1,β1是常数,所以每⼀个Y i在给定了X i的⽔平下,都独⽴地由µi完全决定,⽽µi序列不相关(在正态分布的情况下独⽴),所以Y i之间也相互独⽴。
这样,如果有⼀个统计量是Y i的线性组合,那么由正态分布的可加性,这个统计量就⾃然服从正态分布,从⽽我们可以很⽅便地对其进⾏参数估计、假设检验等。
一元线性回归方程回归系数的假设检验方法
一元线性回归方程是一种统计学方法,用于研究两个变量之间的关系。
它可以
用来预测一个变量(被解释变量)的值,另一个变量(解释变量)的值已知。
回归系数是一元线性回归方程的重要参数,它可以用来衡量解释变量对被解释变量的影响程度。
回归系数的假设检验是一种统计学方法,用于检验回归系数是否具有统计学意义。
它的基本思想是,如果回归系数的值不是0,则表明解释变量对被解释变量有
显著的影响,反之则表明解释变量对被解释变量没有显著的影响。
回归系数的假设检验一般采用t检验或F检验。
t检验是检验单个回归系数是
否具有统计学意义的方法,而F检验是检验多个回归系数是否具有统计学意义的方法。
在进行回归系数的假设检验时,首先要确定检验的显著性水平,一般为0.05
或0.01。
然后,根据检验的类型,计算t值或F值,并与检验的显著性水平比较,如果t值或F值大于显著性水平,则拒绝原假设,即认为回归系数具有统计学意义;反之,则接受原假设,即认为回归系数没有统计学意义。
回归系数的假设检验是一种重要的统计学方法,它可以用来检验回归系数是否
具有统计学意义,从而更好地理解解释变量对被解释变量的影响程度。