当前位置:文档之家› 最大似然估计法

最大似然估计法

最大似然估计法
最大似然估计法

最大似然估计概述

最大似然估计是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。这个方法最早是遗传学家以及统计学家罗纳德·费雪爵士在1912年至1922年间开始使用的。

“似然”是对likelihood 的一种较为贴近文言文的翻译,“似然”用现代的中文来说即“可能性”。故而,若称之为“最大可能性估计”则更加通俗易懂。

最大似然法明确地使用概率模型,其目标是寻找能够以较高概率产生观察数据的系统发生树。最大似然法是一类完全基于统计的系统发生树重建方法的代表。该方法在每组序列比对中考虑了每个核苷酸替换的概率。

例如,转换出现的概率大约是颠换的三倍。在一个三条序列的比对中,如果发现其中有一列为一个C,一个T和一个G,我们有理由认为,C和T所在的序列之间的关系很有可能更接近。由于被研究序列的共同祖先序列是未知的,概率的计算变得复杂;又由于可能在一个位点或多个位点发生多次替换,并且不是所有的位点都是相互独立,概率计算的复杂度进一步加大。尽管如此,还是能用客观标准来计算每个位点的概率,计算表示序列关系的每棵可能的树的概率。然后,根据定义,概率总和最大的那棵树最有可能是反映真实情况的系统发生树。

最大似然估计的原理

给定一个概率分布D,假定其概率密度函数(连续分布)或概率聚集函数(离散分布)为f D,以及一个分布参数θ,我们可以从这个分布中抽出一个具有n个

值的采样,通过利用f D,我们就能计算出其概率:

但是,我们可能不知道θ的值,尽管我们知道这些采样数据来自于分布D。那么我们如何才能估计出θ呢?一个自然的想法是从这个分布中抽出一个具有n 个值的采样X1,X2,...,X n,然后用这些采样数据来估计θ.

一旦我们获得,我们就能从中找到一个关于θ的估计。最

大似然估计会寻找关于θ的最可能的值(即,在所有可能的θ取值中,寻找一

个值使这个采样的“可能性”最大化)。这种方法正好同一些其他的估计方法不同,如θ的非偏估计,非偏估计未必会输出一个最可能的值,而是会输出一个既不高估也不低估的θ值。

要在数学上实现最大似然估计法,我们首先要定义可能性:

并且在θ的所有取值上,使这个[[函数最大化。这个使可能性最大的

值即被称为θ的最大似然估计。

注意

z这里的可能性是指不变时,关于θ的一个函数。

z最大似然估计函数不一定是惟一的,甚至不一定存在。

最大似然估计的例子

离散分布,离散有限参数空间

考虑一个抛硬币的例子。假设这个硬币正面跟反面轻重不同。我们把这个硬

币抛80次(即,我们获取一个采样并把正面的次数记下来,

正面记为H,反面记为T)。并把抛出一个正面的概率记为p,抛出一个反面的概率记为1 ? p(因此,这里的p即相当于上边的θ)。假设我们抛出了49个正面,31 个反面,即49次H,31次T。假设这个硬币是我们从一个装了三个硬币的盒子里头取出的。这三个硬币抛出正面的概率分别为p = 1 / 3, p = 1 / 2, p = 2 / 3. 这些硬币没有标记,所以我们无法知道哪个是哪个。使用最大似然估计,通过这些试验数据(即采样数据),我们可以计算出哪个硬币的可能性最大。这个可能性函数取以下三个值中的一个:

我们可以看到当时,可能性函数取得最大值。这就是p

的最大似然估计.

离散分布,连续参数空间

现在假设例子1中的盒子中有无数个硬币,对于中的任何

一个p,都有一个抛出正面概率为p的硬币对应,我们来求其可能性函数的最大值:

其中. 我们可以使用微分法来求最值。方程两边同时对p

取微分,并使其为零。

在不同比例参数值下一个二项式过程的可能性曲线t = 3, n = 10;其最大似然估计值发生在其众数(数学)并在曲线的最大值处。

其解为p = 0, p = 1,以及p = 49 / 80. 使可能性最大的解显然是p = 49 / 80(因为p = 0 和p = 1 这两个解会使可能性为零)。因此我们说最大似然估计值为

.

这个结果很容易一般化。只需要用一个字母t代替49用以表达伯努利试验中的被观察数据(即样本)的'成功'次数,用另一个字母n代表伯努利试验的次数即可。使用完全同样的方法即可以得到最大似然估计值:

对于任何成功次数为t,试验总数为n的伯努利试验。

[

连续分布,连续参数空间

最常见的连续概率分布是正态分布,其概率密度函数如下:

其n个正态随机变量的采样的对应密度函数(假设其独立并服从同一分布)为:

或:

,

这个分布有两个参数:μ,σ2. 有人可能会担心两个参数与上边的讨论的例子不同,上边的例子都只是在一个参数上对可能性进行最大化。实际上,在两个参

数上的求最大值的方法也差不多:只需要分别把可能性在两个

参数上最大化即可。当然这比一个参数麻烦一些,但是一点也不复杂。使用上边例子同样的符号,我们有θ = (μ,σ2).

最大化一个似然函数同最大化它的自然对数是等价的。因为自然对数log是一个连续且在似然函数的值域内严格递增的函数。[注意:可能性函数(似然函

数)的自然对数跟信息熵以及Fisher信息联系紧密。求对数通常能够一定程度上简化运算,比如在这个例子中可以看到:

这个方程的解是. 这的确是这个函数的最大值,因为它是

μ里头惟一的拐点并且二阶导数严格小于零。

同理,我们对σ求导,并使其为零。

这个方程的解是.

因此,其关于θ = (μ,σ2)的最大似然估计为:

.

性质

泛函不变性(Functional invariance)

如果是θ的一个最大似然估计,那么α = g(θ)的最大似然估计是. 函数 g 无需是一个——映射。

渐近线行为

最大似然估计函数在采样样本总数趋于无穷的时候达到最小方差(其证明可见于Cramer-Rao lower bound)。当最大似然估计非偏时,等价的,在极限的情况下我们可以称其有最小的均方差。对于独立的观察来说,最大似然估计函数经常趋于正态分布。

偏差

最大似然估计的非偏估计偏差是非常重要的。考虑这样一个例子,标有1到n的n张票放在一个盒子中。从盒子中随机抽取票。如果n是未知的话,那么n的最大似然估计值就是抽出的票上标有的n,尽管其期望值的只有(n + 1) / 2. 为了估计出最高的n值,我们能确定的只能是n值不小于抽出来的票上的值。

极大似然估计法

《概率论与数理统计》 极大似然思想 一般地说,事件A 与参数Θ∈θ有关,θ取值不同, 则)(A P 也不同.若A 发生了,则认为此时的θ值就是θ的估计值.这就是极大似然思想.看一例子 :例1、设袋中装有许多黑、白球,不同颜色球的数量比为3:1,试设计一种方法,估计任取一球为黑球的概率P . 分析:易知P 的值无非是1/4或3/4.为估计P 的值,现从袋中有放回地任取3只球,用X 表示其中的黑球数,则),3(~P b X .按极大似然估计思想,对P 的取值进行估计. 解:对P 的不同取值,X 取3,2,1,0=k 的概率可列表如下: X 0 1 2 3 41=P 6427 6427 649 641 43 =P 64 1 64 9 64 27 64 27 故根据极大似然思想即知:?????===3,2,4 31,0,41?k k P . 在上面的例子中,P 是分布中的参数,它只能取两个值:1/4或3/4,

需要通过抽样来决定分布中参数究竟是1/4还是3/4.在给定了样本观测值后去计算该样本出现的概率,这一概率依赖于P 的值,为此需要用1/4、3/4分别去计算此概率,在相对比较之下,哪个概率大,则P 就最象那个. 二、似然函数与极大似然估计 1、离散分布场合: 设总体X 是离散型随机变量,其概率函数为);(θx p ,其中θ是未知参数.设n X X X ,,,21 为取自总体X 的样本.n X X X ,,,21 的联合概率函数为∏=n i i X p 1);(θ,这里,θ是常量,n X X X ,,,21 是变量. 若我们已知样本取的值是n x x x ,,,21 ,则事件 },,,{2211n n x X x X x X === 发生的概率为∏=n i i x p 1);(θ.这一概率随θ的 值而变化.从直观上来看,既然样本值n x x x ,,,21 出现了,它们出现的概率相对来说应比较大,应使∏=n i i x p 1);(θ取比较大的值.换句话说,θ应 使样本值n x x x ,,,21 的出现具有最大的概率.将上式看作θ的函数,并用 )(θL 表示,就有:

用极大似然法进行参数估计

北京工商大学 《系统辨识》课程 上机实验报告 (2014年秋季学期) 专业名称:控制工程 上机题目:极大似然法进行参数估计 专业班级: 2015年1月 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。

二实验原理 1极大似然原理 设有离散随机过程{V k }与未知参数二有关,假定已知概率分布密度 fMR 。如果我们 得到n 个独立的观测值 V 1 ,V 2,…,V n ,则可得分布密度 , f (V 20),…,f(V n 0)。 要求根据这些观测值来估计未知参数 二,估计的准则是观测值 {{V k } }的出现概率为最大。 为此,定义一个似然函数 LMM, f(Vn" 上式的右边是n 个概率密度函数的连乘, 似然函数L 是日的函数。如果L 达到极大值,{V k } 的出现概率为最大。 因此,极大似然法的实质就是求出使 L 达到极大值的二的估值二。为了 便于求d ,对式(1.1 )等号两边取对数,则把连乘变成连加,即 n 解上式可得二的极大似然估计"ML O 2系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每 L 次观测数据 递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值 得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 a(z') y(k) =b(z°)u(k) + :(k) (2.1 ) 式中 a(z') =1 a 1z^ …a n z 」 b(z')二 b ° …dz" 因为(k)是相关随机向量,故(2.1 )可写成 a(z')y(k) =b(zju(k) +c(z')g(k) (2.2 ) 式中 c(z') ;(k)二(k) (2.3 ) c(z\ =1 C|Z ,亠 亠 (2.4 ) ;(k)是均值为 0的高斯分布白噪声序列。多项式 a(z=) , b(z*)和c(z^)中的系数 a i,..,a,b o ,…b n,G,…C n 和序列{^(k)}的均方差o ■ ln L =瓦 ln f (V i 日) 由于对数函数是单调递增函数,当 对二的偏导数,令偏导数为 0,可得 :: ln L cO i 4 L 取极大值时,lnL 也同时取极大值。求式 (1.2 ) 1.2 ) =0 (1.3 )

概率论与数理统计:极大似然估计法

教学内容 一、引入新课: 矩估计法虽然简单,但是没有用到已知分布的信息。而在极大似然估计法中,我们将改进这一点。 下面先通过一个例子来说明极大似然估计法的原理: 例1 有两个外形相同的箱子,甲箱和乙箱,各有100个球,甲箱有90个黑球,10个白球,乙箱有10个黑球 ,90个白球。很明显,两个箱中的优势球种完全不一样。现在把甲乙两箱的标签撕掉,随机从一箱中,进行返回式抽取4次,其结果全为黑球,问所取的球来自哪一个箱子? 我相信大家都会说是甲箱,因为它的可能性更大。我们也可以进行如下计算来说明这个结果。 解:设i X 表示第i 次取球的结果)4,3,2,1(=i ,4321,,,X X X X 是相互独立的。 已知, 443214321)1()1()1()1()1,1,1,1(p X P X P X P X P X X X X P ========== 若从甲箱中抽取,则9.0=p ,抽取4次全为黑球的概率为6561.0, 若从乙箱中抽取,则1.0=p ,抽取4次全为黑球的概率为0001.0. 0.0001是一个小概率,一般认为小概率事件在一次试验中是不可能发生的。反过来也就说明一次试验中某事件发生了,这个事件的概率应该较大。这就是极大似然估计法的基本思想。 二、讲授新课: 1、极大似然法的基本原理: 一个随机试验有若干可能结果, A ,B ,C 等等,然后进行了一次试验,

如果结果A 出现了,我们认为试验的条件对A 的出现有利,也就是试验条件对A 的概率应该是最大。 把这样的原理用到参数估计上,就是总体X 服从分布中含有未知参数θ,在一次试验中出现了样本n x x ,,1 ,如何估计θ呢?极大似然估计的思想,试验的条件应该使这组样本观测值出现的概率最大。所以,要计算参数θ就是寻找使样本观测值出现的概率达到最 大值的θ ?。这样找到的θ?就是θ的极大似然估计值。 2、 极大似然法的步骤: (1)似然函数:);,,(1θn x x L );,,(11θn n x X x X P === ???????==∏∏==似然函数是其密度函数是连续型随机变量时,当似然函数是其分布律是离散型随机变量时,当i n i i i n i i i X x f X x X P ,);(,)(1 1θ (2)取对数: );,,(ln 1θn x x L (3)求导:0);,,(ln 1=??θ θn x x L 似然方程 (4)求解似然方程,得参数的估计值。 (首先,构造似然函数:似然函数是样本观测值发生的概率,如果X 是离散型随机变量,似然函数就是其分布律;如果X 是连续型随机变量,似然函数就是其密度函数。接下来我们就是要求当θ取什么值时,使得似然函数取得的值最大。这里可以用微积分中求最值的方法,也就是对未知参数θ求导。但是似然函数形式往往较为复杂,是连乘积,因此可以先取对数再求导。然后令其导数等于0,得到似然方程。最后,解这个似然方程就得到参数θ?的估计值。) 3、极大似然估计法的例题 例2若X 服从0-1分布,其中)10(<

最大似然估计法

最大似然估计法的基本思想 最大似然估计法的思想很简单:在已经得到试验结果的情况下,我们应该寻找使这个结果出现的可能性最大的那个作为真的估计。 我们分两种情进行分析: 1.离散型总体 设为离散型随机变量,其概率分布的形式为,则样 本的概率分布为, 在固定时,上式表示取值的概率; 当固定时,它是的函数,我们把它记为并称 为似然函数。似然函数的值的大小意味着该样本值出现的可能性的大小。既然已经得到了样本值,那它出现的可能性应该是大的, 即似然函数的值应该是大的。因而我们选择使达到最大值的那个作为真的估计。 2.连续型总体 设为连续型随机变量,其概率密度函数为则为从该总体抽出的样本。因为相互独立且同分布,于是,样本的联合概率密度函数为 ,在是固定时,它 是在处的密度,它的大小与落 在附近的概率的大小成正比,而当样本值固定时,它是的函数。我们仍把它记为并称为似然函数。类似于刚才的讨论,我们选择使最大的那个作为真的估计。

总之,在有了试验结果即样本值时,似然函数反映了的各个不同值导出这个结果的可能性的大小。我们选择使达到最大值的那个作为 真的估计。这种求点估计的方法就叫作最大似然法。 7.2.2 最大似然估计的求法 假定现在我们已经观测到一组样本要去估计未知参数。一种直观的想法是,哪一组能数值使现在的样本出现的可能性最大,哪一组参数可能就是真正的参数,我们就要用它作为参数的估计值。这里,假定我们有一组样本.如果对参数的 两组不同的值和,似然函数有如下关系 , 那么,从又是概率密度函数的角度来看,上式的意义就是参 数使出现的可能性比参数使出现的可能性大,当然参数比更像是真正的参数.这样的分析就导致了参数估计的一种方法,即用使似然函数达到最大值的点,作为未知参数的估计,这就是所谓的最大似然估计。现在我们讨论求最大似然估计的具体方法.为简单起见,以下记,求θ的极大似然估计就归结为求的最大值点.由于对数函数是单调增函数,所以 (7.2.1) 与有相同的最大值点。而在许多情况下,求的最大值点比较简单,于是,我们就 将求的最大值点改为求的最大值点.对关于求导数,并命其等于零,得到方程组 , (7.2.2) 称为似然方程组。解这个方程组,又能验证它是一个极大值点,则它必是,也就

用极大似然法进行全参数估计

工商大学 《系统建模与辨识》课程 上机实验报告 (2016年秋季学期) 专业名称:控制工程 上机题目:用极大似然法进行参数估计专业班级:计研3班 学生:王瑶吴超 学号: 10011316259 10011316260 指导教师:翠玲 2017 年 1 月

一 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。 二 实验原理 1 极大似然原理 设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。为此,定义一个似然函数 ) ()()(),,,(2121θθθθn n V f V f V f V V V L ΛΛ= (1.1) 上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。如果L 达到极大值,}{k V 的出现概率为最大。因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧ θ。为了便于求∧ θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==n i i V f L 1 )(ln ln θ (1.2) 由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。求式(1.2) 对θ的偏导数,令偏导数为0,可得 0ln =??θL (1.3) 解上式可得θ的极大似然估计ML ∧ θ。 2 系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每L 次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 )()()()()(1 1 k k u z b k y z a ξ+=-- (2.1) 式中 111()1...n n a z a z a z ---=+++ 1101()...n n b z b b z b z ---=+++ 因为)(k ξ是相关随机向量,故(2.1)可写成 )()()()()()(1 1 1 k z c k u z b k y z a ε---+= (2.2)

最新6极大似然估计汇总

6极大似然估计

第1章 极大似然估计 极大似然估计是非线性模型中非常重要的一种估计方法。最小二乘法是极大似然估计在线性模型中的特例。 1.1 似然函数 假设随机变量x t 的概率密度函数为 f (x t ),其参数用θ= (θ1, θ2, …, θk ) 表示,则对于一组固定的参数 θ 来说,x t 的每一个值都与一定的概率相联系。即给定参数θ,随机变量x t 的概率密度函数为f (x t )。相反若参数 θ 未知,当得到观测值x t 后,把概率密度函数看作给定x t 的参数 θ 的函数,这即是似然函数。 L (θ | x t ) = f (x t | θ ) 似然函数L (θ | x t ) 与概率密度函数f (x t | θ ) 的表达形式相同。所不同的是在f (x t | θ ) 中参数 θ 是已知的,x t 是未知的;而在L (θ | x t ) 中x t 是已知的观测值,参数 θ是未知的。 对于n 个独立的观测值x =(x 1, x 2, …, x n ),其联合概率密度函数为 1 (|)(|)n i i f f x ==∏x θθ 其对应的似然函数为: 1 1 (|)(|)(|)n n i i i i LnL LnL x f x ====∑∏θx θθ 经常使用的是对数似然函数,即对L (θ| x t )取自然对数: LnL (θ | x t ) =log[f (x t | θ )] 例 1.1正态分布随机变量的似然函数 设一组随机变量x i ,(i = 1, 2, …, n )是相互独立的,且服从正态分布N (μ,σ2)。存在N 个独立的观测值x =(x 1, x 2, …, x n )。x i 的似然函数为 2 21/22()1 (,|)(|,)exp (2)2i i i i x L x f x μμσμσπσσ?? -==- ?? ? = 1i x μφσσ-??- ??? 其中,φ表示标准正态分布的概率密度函数,2() 2 x x φ?? = - ??? x i 的对数似然函数为: 21(,|)ln()ln ()2i i i x LnL x μμσσφσ-?? =-+ ???

第八章(第节极大似然估计)

第八章参数估计 第一节参数的点估计 二、极大似然估计法 极大似然估计最早是由高斯于1821年提出,但一般将之归功于英国统计学家Fisher,R.A,因为Fisher,R.A在1922年证明了极大似然估计的性质,并使得该方法得到了广泛的应用。 这里介绍估计的另一种常用方法-极大似然估计法。 先看一个简单的例子: 某位同学与一位猎人一起外出打猎,一只野兔从前方窜过.只听到一声枪响,野兔应声倒下.如果要你推测,是谁打中的呢?你会如何想呢? 你就会想,只发一枪便打中,猎人命中的概率一般大于这位同学命

中的概率.看来这一枪有极大的可能是猎人射中的. 这个推断很符合人们的经验事实,这里的“极大的可能”就是“极大似然”之意。 这个例子所作的推断已经体现了极大似然法的基本思想. 极大似然法的基本思想在社会思维意识中常有所体现。例如某地发生了一个疑难案件,警察欲破案或民众推测嫌疑人,一般是将重点集中在作案可能性较大的可疑人身上。 为了说明极大似然估计的原理,我们先来考察一个简单的估计问题。 设袋中装有许多白球和黑球。只知两种球的数目之比为3:1,试判断是白球多还是黑球多。 显然,从袋中任取一球为黑球的

概率p 是41或者43,如果是41 ,则袋中 白球多,如果是4 3 ,就是黑球多。现 在我们从袋中有放回的任取3只球,那么黑球数目X 服从二项分布: x x x p p C p x X P --==33 )1(};{, 3,2,1,0=x ; 4 3 ,41=p 其中p 为取到黑球的概率. 从常识上可以接受这样的判断: (1)若取出的3只中有0只黑球, 3只白球,则我们以较大的把握认为袋中白球多, 应认为是从黑球概率 为4 1 =p 的总体中取来的. (2)若取出的3只中有1只黑球, 2只白球,则我们以较大的把握认为

用极大似然法进行参数估计(特选参考)

北京工商大学 《系统建模与辨识》课程 上机实验报告 (2016年秋季学期) 专业名称:控制工程 上机题目:用极大似然法进行参数估计专业班级:计研3班 学生姓名:王瑶吴超 学号:10011316259 10011316260 指导教师:刘翠玲 2017 年 1 月

一 实验目的 通过实验掌握极大似然法在系统参数辨识中的原理和应用。 二 实验原理 1 极大似然原理 设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。为此,定义一个似然函数 ) ()()(),,,(2121θθθθn n V f V f V f V V V L = (1.1) 上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。如果L 达到极大值,}{k V 的出现概率为最大。因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧ θ。为了便于求∧ θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==n i i V f L 1 )(ln ln θ (1.2) 由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。求式(1.2) 对θ的偏导数,令偏导数为0,可得 0ln =??θL (1.3) 解上式可得θ的极大似然估计ML ∧ θ。 2 系统参数的极大似然估计 Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。不过它是一种依每L 次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。本质上说,它只是一种近似的极大似然法。 设系统的差分方程为 )()()()()(1 1 k k u z b k y z a ξ+=-- (2.1) 式中 111()1...n n a z a z a z ---=+++

极大似然估计法

《概率论与数理统计》典型教案 教学内容:极大似然估计法 教学目的: 通过本节内容的教学,使学生: 1、明确极大似然估计法是在总体分布类型已知的情况下的一种常用的参数估计方法; 2、理解极大似然思想; 3、掌握求极大似然估计值的一般步骤,会求常见分布参数的极大似然估计值. 教学重点: 1、对极大似然思想阐述; 2、极大似然估计值的求解. 教学难点: 对不能通过求导方法获得极大似然估计的值的确定. 教学时数:2学时. 教学过程: 引例:某位同学与一位猎人一起外出打猎,一只野兔从前方窜过.只听一声枪响,野兔应声到下,如果要你推测,这一发命中的子弹是谁打的?你就会想,只发一枪便打中,由于猎人命中的概率一般大于这位同学命中的概率,看来这一枪是猎人射中的. 这个例子所作的推断就体现了极大似然法的基本思想. 一、极大似然思想 一般地说,事件A 与参数Θ∈θ有关,θ取值不同,则)(A P 也不同.若 A 发生了,则认为此时的θ值就是θ的估计值.这就是极大似然思想.看一例子:例1、设袋中装有许多黑、白球,不同颜色球的数量比为3:1,试设计一种方法,估计任取一球为黑球的概率P . 分析:易知P 的值无非是1/4或3/4.为估计P 的值,现从袋中有放回地任取3只球,用X 表示其中的黑球数,则),3(~P b X .按极大似然估计思想,对P 的取值进行估计. 解:对P 的不同取值,X 取3,2,1,0=k 的概率可列表如下:

X 0 1 2 3 41=P 6427 6427 649 64 1 43=P 641 649 6427 6427 故根据极大似然思想即知:?????===3,2,4 31,0,41?k k P . 在上面的例子中,P 是分布中的参数,它只能取两个值:1/4或3/4,需要通过抽样来决定分布中参数究竟是1/4还是3/4.在给定了样本观测值后去计算该样本出现的概率,这一概率依赖于P 的值,为此需要用1/4、3/4分别去计算此概率,在相对比较之下,哪个概率大,则P 就最象那个. 二、似然函数与极大似然估计 1、离散分布场合: 设总体X 是离散型随机变量,其概率函数为);(θx p ,其中θ是未知参数.设n X X X ,,,21 为取自总体X 的样本.n X X X ,,,21 的联合概率函数为∏=n i i X p 1);(θ,这里,θ是常量,n X X X ,,,21 是变量. 若我们已知样本取的值是n x x x ,,,21 ,则事件 },,,{2211n n x X x X x X === 发生的概率为∏=n i i x p 1);(θ.这一概率随θ的 值而变化.从直观上来看,既然样本值n x x x ,,,21 出现了,它们出现的概率相对来说应比较大,应使∏=n i i x p 1);(θ取比较大的值.换句话说,θ应 使样本值n x x x ,,,21 的出现具有最大的概率.将上式看作θ的函数,并用)(θL 表示,就有:

相关主题
文本预览
相关文档 最新文档