关于点估计的一般方法
- 格式:doc
- 大小:381.00 KB
- 文档页数:8
点估计就是以样本的实际值作为相应总体参数的估计值现在,“点估计”是统计学中常见的术语,大家都知道它是什么意思,但不大清楚它是如何工作的。
点估计就是利用样本的实际值来推断总体参数的值。
在统计抽样的情况下,抽取的样本数据只是该总体的一个小部分。
因此,根据样本数据来推断总体参数的值,就是点估计的过程。
点估计有几个不同的方法,比如平均值法、众数法、中位数法和最大似然法。
(1)平均值法:样本总体参数的估计量为样本的算术平均值,即把样本的n个观测值的总和除以n,得到的就是点估计量。
(2)众数法:样本总体参数的估计量为该样本中出现次数最多的观测值。
(3)中位数法:样本总体参数的估计量为该样本的中位数,即把n个观测值由小到大排序后取中间那个值,该值就是点估计量。
(4)最大似然法:样本总体参数的估计量是使该样本出现的概率最大的总体参数值。
最大似然法是一种统计学当中最为重要的理论基础,这种方法是基于样本出现的概率最大,而不需要考虑样本可能出现其他可能性,从而得到最优解,即点估计量。
点估计也有一些特殊情况,如二项分布点估计和正态分布点估计等。
比如,二项分布点估计在抽样实验中经常使用,当我们抽取的样本体中有m个发生的次数,n个总次数时,则总体参数的点估计量为m/n。
正态分布点估计的原理是,样本的均值和方差的点估计量分别为样本的算术平均值和协方差的平方根。
点估计是一个重要的统计技术,它也是其他复杂推断技术的基础。
除了上面提到的几种点估计方法外,还有其他一些更复杂的点估计方法,如贝叶斯估计、鲁棒估计和调和估计等。
这些点估计方法可以更好地确定总体参数的值,以及总体参数的估计精度。
点估计方法有一个共同特点,即它们使用一个样本数据来估计总体参数,而不考虑样本数据可能出现的其它可能性。
因此,有关点估计的准确性和可靠性,还有待进一步探讨和完善。
综上所述,点估计就是以样本的实际值作为相应总体参数的估计值,目前已经提出了几种不同的点估计方法,这些方法可以帮助我们更准确、更可靠地估计相应的总体参数,并且它们也是其他复杂推断技术的基础。
点估计⼜称定值估计,是⼀种对未知的总体参数进⾏估计的统计⽅法,其估计结果是⼀个具体数值。
点估计的优点在于它能够提供总体参数的具体估计值,其表达更直观、简练,并可以作为⾏动决策的数量依据。
但其不⾜之处也是很明显:点估计所提供的信息量⽐较少,尤其不能提供估计的误差和把握程度⽅⾯的信息,⽐如说,误差会有多⼤,有多⼤把握可以保证结果正确等,这些信息在决策中往往是⾮常重要的。
点估计的⽅法主要有矩估计法、似然法及贝叶斯法等。
1.矩估计法
矩估计法⾸先在1849年由英国统计学家⽪尔逊提出,它有简单易⾏的优点。
⽤样本的矩作为相应(同类、同阶)总体矩的估计⽅法称为矩估计法。
在统计学中,矩是指以期望值为基础⽽定义的数字特征。
矩分原点矩和中⼼矩两种。
2.似然估计法
似然估计法是费歇在1912年提出的。
从理论上看,它是参数点估计中最重要的⽅法,具有优良的数学性质,应⽤⼗分⼴泛。
似然估计法是建⽴在似然原理基础上的求估计量的⽅法。
(1)似然原理
似然原理的直观想法是:将在试验中概率的事件推断为最可能出现的事件。
(2)似然估计法简介(略)
3.估计量的评选标准
(1)⽆偏性:⽆偏估计的实际意义就是⽆系统误差
(2)有效性:在多次重复试验中,估计值更为集中在真值的附近,就是有效性的直观意义。
综合上述两⽅⾯可知,⼀个好的估计量不仅要求它能围绕待估参数的真值摆动,⽽且希望摆动幅度越⼩越好。
常见的点估计的方法
宝子,今天咱们来唠唠常见的点估计方法哈。
一种是矩估计法呢。
这就像是找东西的时候从最熟悉的地方开始找起。
矩估计法是利用样本矩来估计总体矩。
比如说,样本均值可以用来估计总体均值,样本方差可以用来估计总体方差。
它的想法很简单直接,就像是用已知的样本特征去推测总体的那些神秘特征。
这就好比你看到一群小鸭子走路的样子,就大概能猜到鸭妈妈走路的风格啦。
还有最大似然估计法哟。
这个方法可就有点像侦探破案啦。
它是在已经知道样本的情况下,去找那个最有可能产生这些样本的总体参数。
就像是你在一个神秘的地方发现了一些脚印,然后你要去推测是哪种小动物留下的脚印可能性最大呢。
这个方法会根据样本数据构建一个似然函数,然后找到使这个函数值最大的那个参数值,这个值就是我们要的点估计值啦。
另外呀,最小二乘法也是很常见的点估计方法呢。
这个就像是给一群调皮的小朋友排队,要让他们排得最整齐。
在回归分析里经常用到它哦。
比如说我们有一堆数据点,想要找到一条直线或者曲线来最好地拟合这些点,最小二乘法就是通过让误差的平方和最小来确定这条线的参数的。
这就像是给每个数据点都找到一个最适合它的位置,让它们整体看起来最和谐。
这些点估计方法在很多实际的情况里都超级有用的。
比如说在做市场调查的时候,我们可以用这些方法来估计消费者的平均消费水平呀,或者某种产品受欢迎程度的参数之类的。
就像我们要知道大家有多爱喝奶茶,就可以用这些方法从抽样的结果里去推测整体的情况啦。
宝子,你看,这些方法虽然听起来有点复杂,但理解起来是不是还挺有趣的呀?。
常用的点估计方法1. 极大似然估计:极大似然估计是一种常用的点估计方法,通过选择使观测数据出现可能性最大的参数值来进行估计。
它的核心思想是通过观察到的数据来推断未观察到的参数值,从而对总体特征进行估计。
2. 最小二乘估计:最小二乘估计是一种常用的线性回归参数估计方法,它通过最小化观测数据与模型预测值之间的残差平方和来选择最优参数值。
最小二乘估计在统计学中应用广泛,特别是在回归分析和时间序列分析中。
3. 贝叶斯估计:贝叶斯估计是一种基于贝叶斯理论的点估计方法,它将先验信息结合观测数据来推断参数的后验分布,并通过选择后验分布的某个统计量(如期望值)来进行估计。
贝叶斯估计强调对参数的不确定性进行建模,并可以用于处理小样本问题。
4. 矩估计:矩估计是一种基于样本矩的点估计方法,它利用样本矩与总体矩之间的对应关系来推断参数值。
矩估计要求总体矩存在且能够通过观测数据的矩估计得到,适用于多种分布的参数估计。
5. 稳健估计:稳健估计是一种对异常值和模型假设违背具有一定鲁棒性的点估计方法。
它能够通过对观测数据进行适当的变换和调整,来推断参数估计值。
稳健估计在非正态分布和包含异常值的数据情况下表现出较好的性能。
6. 最大后验概率估计:最大后验概率估计是一种基于贝叶斯理论的点估计方法,它将先验信息和观测数据结合起来,通过选择使后验概率最大化的参数值来进行估计。
最大后验概率估计相对于最大似然估计能够更好地处理小样本问题,并对参数的先验概率进行建模。
7. 偏最小二乘估计:偏最小二乘估计是一种在多元统计中常用的点估计方法。
它通过最小化观测数据和预测值之间的误差,选择使预测误差最小的参数值。
偏最小二乘估计在回归分析和主成分分析等领域都有广泛应用。
8. 条件最大似然估计:条件最大似然估计是一种在有缺失数据或混合分布的情况下常用的点估计方法。
它通过对观测数据的边际分布进行建模,并通过最大化边际似然来选择参数值。
条件最大似然估计在处理缺失数据和复杂模型中具有重要的作用。
求点估计量的方法点估计是统计学中的一个重要概念,它指的是使用样本数据推断总体参数的值。
点估计量是根据样本数据计算出来的单个数值,用于估计总体参数。
在统计学中,点估计量的选择方法涉及到估计的目标、样本的特征以及总体的分布情况等多个因素。
以下将介绍几种常见的点估计方法及其应用。
1. 最大似然估计(Maximum Likelihood Estimation, MLE)最大似然估计是一种常见的点估计方法,它通过寻找使观测到的样本数据出现的概率最大化的参数值来估计总体参数。
最大似然估计的基本思想是,通过选择使得数据观测到的概率最大的参数值,以此来推断总体中未观测到的真实参数。
2. 矩估计(Method of Moments, MOM)矩估计是一种使用样本矩来估计总体矩的方法。
矩估计的基本思想是,将样本矩与总体矩匹配,并使用样本矩的估计值来估计总体参数。
矩估计法的优点是计算简单、直观,并且适用于各种分布形式的总体。
3. 最小二乘估计(Least Squares Estimation, LSE)最小二乘估计是一种常见的回归分析中的点估计方法,它通过最小化观测到的数据与回归方程所预测的数值之间的差异来估计回归系数。
最小二乘估计的基本思想是,选择使得观测数据与回归方程拟合最优的参数值。
4. 贝叶斯估计(Bayesian Estimation)贝叶斯估计是一种基于贝叶斯统计理论的点估计方法。
贝叶斯估计的基本思想是,在给定先验概率分布的情况下,通过计算后验概率分布来估计总体参数。
贝叶斯估计与传统的频率学派的估计方法不同,它将概率解释为一种主观的度量,更加注重个体先验知识的利用。
5. 期望最大化算法(Expectation-Maximization Algorithm, EM)期望最大化算法是一种在潜变量模型中用于估计参数的迭代算法。
EM 算法的基本思想是,在潜变量模型中,将观测数据看作是已知的,需要估计的是未观测到的潜变量以及模型参数。
§8.2 点估计方法点估计的思想方法设总体X 的分布函数的形式已知,但它含有一个或多个未知参数:12 k设X1 X2… Xn为总体的一个样本构造k 个统计量:1 X 1 X 2 X n 2 X 1 X 2 X n 随机变量k X 1 X 2 X n 7-6当测得一组样本值x1 x2… xn时,代入上述统计量,即可得到k 个数:1 x1 x2 xn 2 x1 x2 xn 数值k x1 x2 xn 称数1 2 k 为未知参数1 2 k 的估计值对应的统计量为未知参数1 2 k 的估计量问题如何构造统计量?如何评价估计量的好坏?7-7 三种常用的点估计方法频率替换法nA 利用事件A 在n 次试验中发生频率n作为事件A 发生的概率p 的估计量nA p p n 7-8例1 设总体X N 2 在对其作28 次独立观察中事件“X 4”出现了21 次试用频率替换法求参数的估计值.4 21解由P X 4 0.75 2 28 4 查表得0.675 2 于是的估计值为3.045 7-9 矩法用样本的k 阶矩作为总体的k 阶矩的方法估计量建立含有待估计参数的方程,从而可解出待估计参数一般地,不论总体服从什么分布,总体期望与方差2 存在,则它们的矩估计量分别为1 n Xi X n i 1 1 n X i X Sn 2 2 2 n i 1 7-10事实上,按矩法原理,令 1 n X Xi n i 1 1 n 2 A2 X i E X 2 n i 1 X 2 E X 2 E 2 X A 2 2 1 n 2 1 n X i X 2 X i X 2 Sn 2 n i 1 n i1 7-11设待估计的参数为1 2 k设总体的r阶矩存在,记为 E X r 1 2 k r设X1 X2… Xn为一样本,样本的r 阶矩为 1 n Br X i r n i 1令1 n r r 1 2 k X i r 12 k n i 1——含未知参数12 k 的方程组7-12解方程组,得k 个统计量:1 X 1 X 2 X n 2 X 1 X 2 X n ——未知参数12 k 的矩估计量k X 1 X 2 X n 代入一组样本值得k个数: 1 1 x1 x2 xn 2 2 x1 x2 xn ——未知参数12 k 的矩估计值k k x1 x2 xn 7-13例2 设总体X N 2 X1 X2… Xn为总体的样本求 2 的矩法估计量。
参数估计公式点估计与区间估计方法的公式整理在统计学中,参数估计是通过从样本数据中获得的统计量推断总体参数值的方法。
通过参数估计,我们可以利用样本数据来了解总体的特征。
参数估计有两种主要方法,即点估计与区间估计。
本文将对参数估计的公式进行整理,包括点估计和区间估计的常用方法。
一、点估计公式点估计是用样本数据来估计总体参数的方法,其中最常用的是样本均值和样本方差。
下面是一些常见的点估计公式:1. 样本均值的点估计公式总体均值的点估计通常由样本均值给出。
假设我们有一个样本数据集X={x₁, x₂, ..., xn},其中n是样本大小。
总体均值μ的点估计公式为:μ̂= (x₁ + x₂ + ... + xn) / n2. 样本方差的点估计公式总体方差的点估计通常由样本方差给出。
假设我们有一个样本数据集X={x₁, x₂, ..., xn},其中n是样本大小。
总体方差σ²的点估计公式为:σ̂² = ((x₁ - μ̂)² + (x₂ - μ̂)² + ... + (xn - μ̂)²) / (n - 1)3. 样本比例的点估计公式总体比例的点估计通常由样本比例给出。
假设我们有一个二分类样本数据集X={x₁, x₂, ..., xn},其中n是样本大小,p是正例的比例。
总体比例p的点估计公式为:p = (x₁ + x₂ + ... + xn) / n二、区间估计公式区间估计是用来估计参数的可信区间的方法,即给出参数值的一个范围。
下面是一些常见的区间估计公式:1. 总体均值的区间估计公式总体均值的区间估计可以使用置信区间进行。
假设我们有一个样本数据集X={x₁, x₂, ..., xn},其中n是样本大小,s是样本标准差,Z是对应于所需置信度的Z分位数。
总体均值μ的置信区间估计公式为:μ̂± Z * (s / √n)2. 总体比例的区间估计公式总体比例的区间估计可以使用置信区间进行。
考研点估计解题方法总结全文共四篇示例,供读者参考第一篇示例:考研是一项具有挑战性并且需要认真准备的考试,而估计是其中一个很重要的概念。
在统计学中,点估计就是通过观测数据来确定未知参数的值。
掌握好点估计的解题方法对于考研数学的备考至关重要。
下面我们就来总结一下关于考研点估计的解题方法。
了解点估计的定义。
点估计是指利用观测数据来估计未知参数的点估计值。
通常情况下,我们会选择一种函数来对参数进行估计,这个估计值就是点估计。
常见的点估计方法有最大似然估计、矩估计等。
掌握最大似然估计的方法。
最大似然估计是一种常用的点估计方法,其核心思想是在给定观测数据的情况下,选择能使似然函数取最大值的参数作为估计值。
具体的步骤是构建似然函数,求导数,解方程得到参数的估计值。
了解矩估计的求解方法也是很重要的。
矩估计是通过样本矩来估计总体矩的方法,其核心思想是使样本矩等于总体矩,从而得到参数的估计值。
矩估计的步骤是先得到总体矩,再求解方程得到参数的估计值。
需要注意的是对于一些特殊情况,我们可能需要使用贝叶斯估计或区间估计等方法。
贝叶斯估计是利用贝叶斯定理来估计参数的方法,而区间估计是用一个区间来表示未知参数的可能取值范围。
要适当练习一些真实的考研题目来巩固所学的知识。
通过做题可以帮助我们加深对点估计方法的理解,同时也能够锻炼我们的解题能力。
考研点估计是一项复杂而重要的内容,在备考过程中需要认真对待。
掌握好点估计的基本概念和解题方法,熟练运用最大似然估计、矩估计等方法,并且能够灵活运用到不同的题目中,都是非常关键的。
希望以上总结能够帮助考生们更好地备考考研数学,取得好成绩。
【2000字】第二篇示例:考研中的点估计是统计学中一个非常重要的概念,它通常是在给定一组数据的情况下,利用统计模型对未知参数进行估计。
点估计在统计学中有着广泛的应用,能够帮助我们从观测数据中推断出未知参数的估计值,为我们提供更多的信息和决策依据。
在考研数学中,点估计也是一个非常重要的知识点,掌握好点估计的解题方法对于考生来说至关重要。
常见点估计的方法《常见点估计的超级秘籍》嘿,朋友!今天咱来唠唠常见点估计的方法哈,这可是个超有用的本事呢!首先呢,咱得搞清楚啥是点估计。
简单说,就是从一堆数据里找出一个能代表这些数据的“典型值”。
比如说,咱班同学的身高,咱找个差不多能代表大家身高水平的那个数,这就是点估计啦。
那咋整呢?第一步,咱得把数据都收集起来,这就像咱去菜市场买菜,得先把各种菜都挑到篮子里才行。
可别小瞧这一步哦,要是数据不全或者有错误,那后面可就都乱套啦!我跟你说,我有次就犯傻,收集数据的时候少记了几个数,结果算出来的结果那叫一个离谱,就好像说姚明的身高和潘长江一样高,哈哈哈!第二步呢,就是观察这些数据啦。
这就好比咱看一群人,得瞅瞅他们都啥样儿。
看看有没有特别突出的或者特别奇怪的数据,就像人群里突然冒出个巨人或者小矮人。
要是有这样的,咱就得小心点,别让它影响了咱的判断。
然后第三步,咱就开始算啦!这里面的算法可多了去了,什么均值啦、中位数啦、众数啦。
均值就像是班级的平均分,把所有数据加起来除以个数就行。
中位数呢,就是中间那个数,要是数据个数是奇数,那直接就是中间那个,要是偶数呢,就把中间那两个数加起来除以 2。
众数呢,就是出现次数最多的那个数,就像班级里最受欢迎的那个同学一样。
我记得有次我算均值的时候,计算器按错了,结果得出个超级奇葩的数,我还以为发现了啥新的科学定律呢,哈哈哈!再来说说均值哈,它就像是个老好人,把所有数据都平等对待,但是有时候会被那些特别大或者特别小的数给带偏。
比如说咱班有个超级高的同学,那这均值可能就被拉高了。
中位数呢,就比较稳定,不容易被极端值影响。
众数呢,就适合那种有明显集中趋势的数据。
第四步,咱得看看算出来的这个点估计靠不靠谱。
这就好比咱买了个东西,得检查检查质量咋样。
咱可以看看和其他类似的数据比一比,要是差太多,那可能就得重新算啦。
最后一步,就是得出结论啦。
咱得根据算出来的点估计,得出一个有用的结论。
关于点估计的一般方法摘 要:统计推断包括两个主要的课题,一个是统计估计,一个是统计假设检验.本文主要阐述了两种常用的点估计的方法:矩法估计和最大似然估计.关键词:点估计;矩法估计;最大似然估计About the General Methods of Point EstimationAbstract : Statistical inference includes two major topics,statistical estimate and statistical hypotheses.This paper mainly discusses two kinds of point estimate method,moment estim- ation and maximum likelihood estimation.Keywords : point estimate;moment estimation; maximum likelihood estimation引言在实际问题中,常常会遇到总体X 的分布族是知道的,但是不知道其中的某些参数,在另外一些问题中,甚至对总体的分布类型都不关心,感兴趣的只是它的某些特征参数,这时都要求用总体的一个样本来估计总体的未知参数,这个问题就是参数估计.参数估计又包括点估计和区间估计,本文主要对点估计的方法进行阐述. 矩法估计和最大似然估计是点估计中最常用的方法,本文先讲述了两种方法的内容以及用这些方法解题时的基本步骤,还讲述了分别用这两种方法进行点估计的方法解决实际问题的技巧.1 矩法估计矩法估计的统计思想(替换原理)十分简单明确,众人都能接受,使用场合甚广,它的实质是用经验分布函数来替换总体分布,其理论基础是格理纹科定理. 1.1矩法估计的定义矩法估计是以样本矩作为相应的总体矩的估计,当一个参数可以表达成某些总体矩的函数时,就以样本矩的同一函数作为那个参数的估计.设X 具有k 阶矩,以l α记其l 阶原点矩,即()12,,,(),1,2,,.l k E X l k αθθθ==若样本的l 阶原点矩为11,1,2,,.n ll i i A X l k n ===∑矩法的基本思想是以样本矩作为相应总体矩的估计,当又k 个未知参数时用前k 阶原点矩得到方程12(,,,),1,2,,.l k l A l k αθθθ∧==从这k 个方程解得k 个未知数12,,,k θθθ,称为矩法估计量.不难看出,若从中心矩出发也可以得到同样的结果. 特别,总体均值的估计1,l A X μ∧==均值方差的估计2211()ni i X X V n σ∧==-=∑.对于二维总体(,)X Y 的相关系数ρ=的矩估计是()()nii XX Y Y r --=∑频率是概率的矩法估计,因为在伯努利总体~(1,)X B p ,()E X p =,而样本均值11nn i i X X n nμ===∑就是频率.注意,使用矩法估计参数一般并不要求知道总体的分布. 1.2矩法估计的方法步骤及典例分析设总体X 的分布函数为12(;,,,)k F x θθθ,其中12,,,k θθθ为未知参数12,,,k X X X 为总体X 的一个样本,则矩法估计一般可通过下列步骤求出.(i)求出总体的前k 阶原点矩(用12,,,k θθθ表示)12()(,,,),1,2,,;l l l k E X g l k αθθθ===(ii)从这k 个方程中解出12,,,k θθθ;12(,,,),1,2,,;l l k h l k θααα==(iii)用j A 替换上述方程中的(1,2,,)j j k α=,则得到l θ的矩估计,12(,,,),1,2,,.l l k h A A A l k θ∧==不难看出,只要参数12,,,k θθθ可用原点矩12,,,k ααα表出,则矩估计就能进行,无须知道总体分布.在具体计算中,有人喜欢带入样本矩再求解方程,当然殊途同归.例1 设总体为指数分布,其密度函数为(;),0,x p x e x λλλ-=⋅>12,,,n x x x 是样本,此处1,k =由于1()E X λ=,亦即1()E X λ=,故λ的矩法估计为 1Xλ∧=. 另外,由于21(),Var X λ=其反函数为λ=因此,从替换原理来看,λ的矩估计法也可取为1sλ∧=,s 为样本的标准差,这说明了矩估计可能是不唯一的,这是矩法估计的一个缺点,此时通常应该采用低阶矩给出未知参数的估计.2最大似然估计最大似然估计是求估计用的最多的方法,它最早是由高斯再1821年提出,但一般归功于费希尔,因为费希尔再1922年再次提出了这种想法,并证明了它的一些性质而使得最大似然估计法得到了广泛的应用. 2.1最大似然估计的定义设总体X 服从分布12(;,,,)k p x θθθ(当X 是连续型随机变量时为概率密度,当X为离散随机变量时为概率分布),12,,,k θθθ为未知参数,12,,,k X X X 为总体X 的一个简单随机样本,其观测值为12,,,n x x x ,则121212121(,,,)(,,,;,,,)(;,,,),nk n k i k i L L x x x p x θθθθθθθθθ===∏看作参数12,,,k θθθ的函数时称为似然函数.当选取12(,,,)k θθθθ∧∧∧∧=作为12(,,,)k θθθθ=的估计时,使得()max (),L L θθθ∧∈Θ=则称θ∧为θ的最大似然估计.2.2 最大似然估计的方法及典例分析第一种情况(总体为离散型) 设总体X 的概率分布为{}(;),1,2,,,i i P X a p a i θθ===∈Θ其中θ为未知参数(经常是向量),12,,,k X X X 为X 的一个样本,其观察值为12,,,n x x x ,每个i x 取12,,a a 中的某个值,则似然函数为1()(;).ni i L p x θθ==∏选取θ∧为θ的估计,使()max (),L L θθθ∧∈Θ=则称θ∧为θ的最大似然估计.第二种情况(总体为连续型) 设总体X 的密度函数为12(;,,,)k p x θθθ,其中12,,,k θθθ为未知参数,12,,,k X X X 为总体X 的一个样本,其观测值为12,,,n x x x .(1)作出似然函数12121(,,,)(;,,,),nk i k i L p x θθθθθθ==∏(2)通常似然函数12(,,,)k L θθθ是l θ的可微函数,这时12,,,k θθθ∧∧∧常常通过下列似然方程12(,,,)0,1,2,,,k jL j k θθθθ∂==∂或对数似然方程12ln (,,,)0,1,2,,,k jL j k θθθθ∂==∂求解.一般当方程有唯一解θ∧时,则θ∧就是θ的最大似然估计. 当12(,,,)k L θθθ不可微时,求最大值要从定义出发,特殊问题特殊处理.一般若θ∧,是θ的最大似然估计,则()g θ∧为的()g θ最大似然估计,这个性质很有用.例2 一个试验有三种可能的结果,其发生概率分别为21,p θ=22(1),p θθ=-23(1).p θ=-现做了n 次试验,观测到三种结果发生的次数分别为123123,,()n n n n n n n ++=,求θ的最大似然估计θ∧. 解 似然函数为323122122222()()[2(1)][(1)]2(1)n n n n n n n n L θθθθθθθ++=--=-,其对数似然函数为12232ln ()(2)ln (2)ln(1)ln 2.L n n n n n θθθ=+++-+将之关于θ求导并令其为0得到似然方程23122201n n n n θθ++-=-, 解之得121212322.2()2n n n nn n n nθ∧++==++由于22312222ln ()0,1n n n n L θθθθ++∂=--<∂-所以θ∧是极大值点.3 两种方法的比较前面分别用距法估计和最大似然估计中的一种来解决问题,那么如果用两种方法来解决同一个问题会出现什么情况,我们一起来看一看. 3.1矩阵估计法案例分析例3 设总体X 的概率密度函数为(1),01,()0,x x p x θθ⎧+<<=⎨⎩其他, 其中1θ>-是位置参数,12,,,k X X X 为总体X 的一个样本,分别用矩法估计和最大似然估计求θ的估计量.解 (1)矩法估计由于只有一个参数,故只要求一阶原点矩1101()()(1),2E X xp x dx x dx θθμθθ+∞+-∞+===+=+⎰⎰ 则21.1μθμ-=- 用样本均值X 替换上式中的μ,得到θ的矩估计21.1X Xθ∧-=- (2)最大似然估计法 设12,,,k X X X 的观测值为12,,,n x x x ,则似然函数为11(1)(),01,1,2,,,()(;)0,.nn ni i i i i x x i n L p x θθθθ==⎧+<<=⎪==⎨⎪⎩∏∏其他当01,(1,2,,)i x i n <<=时1ln ()ln(1)ln ,ni i L n x θθθ==++∑1ln ()ln 0,1ni i d L nx d θθθ==+=+∑ 解方程得θ的最大似然估计量为11,ln nii nxθ∧==--∑从而θ的最大似然估计量为11.ln nii nxθ∧==--∑注意: 这是常见的一个例题,也被用作1997年研究生入学试题.此题的解法很典型,值得注意的是用两种估计得出的答案很不同. 3.2最大似然估计法案例分析例4 设12,,,n X X X 是取自均匀分布[0,]U θ的一个样本,其中120,,,,n x x x θ>是一组观测值,求θ的矩法估计量和最大似然估计量.解 (1)矩法估计 易知(),2E X θ=建立方程,2X θ=解得2,X θ∧=这就是θ的矩法估计量.(2)最大似然估计法 似然函数为12,0,1,2,,,(,,,,)0,n i n x i n L x x x θθθ-⎧≤≤==⎨⎩其他.由最大似然函数可以看出,要使L 最大,就要使θ尽可能地小,但θ又不能小于()12max(,,,),n n x x x x =所以θ取()n x 时就使L 达到最大,因此θ的最大似然估计就是().n X θ∧=要注意的是,这一类函数是不能用微分法求解的,只能根据最大似然原则求的最大似然估计量.参考文献[1] 李贤平,沈崇圣,陈子毅.概率论与数理统计[M].上海:复旦大学出版社,2003.5.[2] 滕素珍,姜炳蔚,任玉杰,李浩.数理统计[M].第二版.大连:大连理工出版社,1996.[3] 茆诗松,程依明,濮晓龙.概率论与数理统计[M].北京:高等教育出版社,2004.7.[4] 龙永红.概率论与数理统计[M].高等教育出版社,2002年.[5] 张筑生、概率论与数理统计新讲[M]. 北京:北京大学出版社,2002.。