用极大似然法进行参数估计
- 格式:doc
- 大小:802.50 KB
- 文档页数:15
各种参数的极大似然估计1.引言在统计学中,参数估计是一项关键任务。
其中,极大似然估计是一种常用且有效的方法。
通过极大化似然函数,我们可以估计出最有可能的参数值,从而进行推断、预测和优化等相关分析。
本文将介绍各种参数的极大似然估计方法及其应用。
2.独立同分布假设下的参数估计2.1参数估计的基本理论在独立同分布假设下,我们假设观测数据相互独立且具有相同的概率分布。
对于一个已知的概率分布,我们可以通过极大似然估计来估计其中的参数。
2.2二项分布参数的极大似然估计对于二项分布,其参数为概率$p$。
假设我们有$n$个独立的二项分布样本,其中成功的次数为$k$。
通过极大似然估计,我们可以得到参数$p$的估计值$\h at{p}$为:$$\h at{p}=\f ra c{k}{n}$$2.3正态分布参数的极大似然估计对于正态分布,其参数为均值$\mu$和标准差$\si gm a$。
假设我们有$n$个独立的正态分布样本,记为$x_1,x_2,...,x_n$。
通过极大似然估计,我们可以得到参数$\mu$和$\si gm a$的估计值$\h at{\m u}$和$\ha t{\s ig ma}$分别为:$$\h at{\mu}=\f rac{1}{n}\su m_{i=1}^nx_i$$$$\h at{\si gm a}=\s q rt{\fr ac{1}{n}\s um_{i=1}^n(x_i-\h at{\mu})^2}$$3.非独立同分布假设下的参数估计3.1参数估计的基本理论在非独立同分布假设下,我们允许观测数据的概率分布不完全相同。
此时,我们需要更加灵活的方法来估计参数。
3.2伯努利分布参数的极大似然估计伯努利分布是一种二点分布,其参数$p$表示某事件发生的概率。
假设我们有$n$组独立的伯努利分布样本,其中事件发生的次数为$k$。
通过极大似然估计,我们可以得到参数$p$的估计值$\h at{p}$为:$$\h at{p}=\f ra c{k}{n}$$3.3泊松分布参数的极大似然估计泊松分布是一种描述罕见事件发生次数的概率分布,其参数$\la mb da$表示单位时间(或单位面积)内平均发生的次数。
python 极大似然估计求解对数正态分布参数对数正态分布的参数可以使用极大似然估计法进行求解。
以下是一个示例代码,演示如何使用Python进行对数正态分布的极大似然估计。
```pythonimport numpy as npfrom import minimize定义对数正态分布的pdf函数def lognormal_pdf(x, mean, std):return (-(((x) - mean) 2) / (2 std 2)) / (x std (2 ))定义似然函数def lognormal_likelihood(params, data):mean, std = paramsreturn (lognormal_pdf(data, mean, std))生成模拟数据data = (mean=1, sigma=, size=100)初始参数值initial_params = [((data)), (data)]最小化负对数似然函数result = minimize(lambda params: -lognormal_likelihood(params, data), initial_params, method='Nelder-Mead')输出估计参数值print('Estimated mean:', ([0]))print('Estimated std:', ([1]))```在上述代码中,我们首先定义了对数正态分布的pdf函数`lognormal_pdf`,然后定义了似然函数`lognormal_likelihood`,它接受参数和数据作为输入,并返回对数似然函数的值。
接下来,我们使用模拟数据生成器生成了一些模拟数据,并使用初始参数值进行极大似然估计。
最后,我们输出了估计的参数值。
《系统建模与及辨识》课程上机实验报告专业名称 : 控制工程 上机题目 : 用极大似然法进行参数估计一 实验目的通过实验掌握极大似然法在系统参数辨识中的原理和应用。
二 实验原理1 极大似然原理设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。
如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。
要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。
为此,定义一个似然函数)()()(),,,(2121θθθθn n V f V f V f V V V L = (1.1)上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。
如果L 达到极大值,}{k V 的出现概率为最大。
因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧θ。
为了便于求∧θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==ni iV f L 1)(ln ln θ (1.2)由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。
求式(1.2)对θ的偏导数,令偏导数为0,可得ln =∂∂θL(1.3)解上式可得θ的极大似然估计ML ∧θ。
2 系统参数的极大似然估计Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。
不过它是一种依每L 次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。
本质上说,它只是一种近似的极大似然法。
设系统的差分方程为 )()()()()(11k k u z b k y z a ξ+=-- (2.1) 式中111()1...nn a z a z a z ---=+++1101()...nn b z b b z b z---=+++因为)(k ξ是相关随机向量,故(2.1)可写成)()()()()()(111k z c k u z b k y z a ε---+= (2.2) 式中)()()(1k k z c ξε=- (2.3)nn z c z c z c ---+++= 1111)( (2.4))(k ε是均值为0的高斯分布白噪声序列。
极大似然估计方法极大似然估计(Maximum Likelihood Estimation,MLE)方法是一种用于估计参数的统计方法,它基于观测到的样本数据,通过选择最大化观测数据出现的概率的参数值来估计未知参数。
极大似然估计是概率论和统计学中最重要的方法之一,广泛应用于各个领域的数据分析与建模中。
极大似然估计方法的核心思想是基于某一参数下观测数据出现的概率,选择使得这个概率最大的参数值。
具体而言,给定一个观测数据集合X,其来自于一个具有参数θ的概率分布,我们要估计未知参数θ的值。
极大似然估计的目标是找到一个参数值θ^,使得给定θ^条件下观测数据集合X出现的概率最大。
数学上,极大似然估计可以通过最大化似然函数来求解。
似然函数是一个参数的函数,表示给定某个参数θ下观测数据出现的概率。
似然函数的定义如下:L(θ|X) = P(X|θ)数的函数,表示给定某个参数θ下观测数据出现的概率。
极大似然估计的目标是寻找一个参数θ^,使得似然函数最大化,即:θ^ = arg max L(θ|X)为了方便计算,通常将似然函数转化为其对数形式,即对数似然函数:l(θ|X) = log L(θ|X)本文将主要介绍如何利用极大似然估计来估计参数。
具体而言,将分为两个部分:首先是介绍极大似然估计的理论基础,包括似然函数和对数似然函数的定义,以及如何通过最大化似然函数来估计参数;其次是通过一个实际的例子,展示如何使用极大似然估计来求解参数。
理论基础似然函数是极大似然估计的核心概念之一。
似然函数是一个参数的函数,表示给定某个参数θ下观测数据出现的概率。
似然函数的定义如下:L(θ|X) = P(X|θ)数的函数,表示给定某个参数θ下观测数据出现的概率。
似然函数的值越大,则表示给定参数θ的取值越可能产生观测数据X。
对数似然函数是似然函数的对数变换,通常在实际计算中会更加方便。
它的定义如下:l(θ|X) = log L(θ|X)对数似然函数和似然函数存在着一一对应关系,因此在求解参数时,两者等价。
极大似然估计参数回归模型极大似然估计是统计学中常用的一种参数估计方法,它通过寻找使得观测数据出现的概率最大化的参数值来估计模型的参数。
在回归分析中,极大似然估计可以用来估计线性回归模型的参数。
假设我们有一个简单的线性回归模型,表示为:Y = β0 + β1X + ε。
其中,Y是因变量,X是自变量,β0和β1是我们要估计的参数,ε是误差项。
我们的目标是通过观测数据来估计β0和β1的值,使得观测数据出现的概率最大化。
假设我们有n个观测数据,表示为{(x1, y1), (x2, y2), ..., (xn, yn)},我们假设误差项ε服从正态分布,即ε~N(0, σ^2)。
我们可以建立似然函数来描述观测数据出现的概率。
对于第i 个观测数据,其观测值yi可以表示为:yi = β0 + β1xi + εi.其中,εi服从正态分布N(0, σ^2)。
似然函数可以表示为:L(β0, β1,σ^2) = Π(1/√(2πσ^2)) exp(-(yi β0β1xi)^2 / (2σ^2))。
为了简化计算,通常我们会对似然函数取对数,得到对数似然函数:l(β0, β1, σ^2) = Σ(-log(√(2πσ^2))) Σ((yi β0β1xi)^2 / (2σ^2))。
然后通过最大化对数似然函数来估计参数β0和β1的值。
这通常可以通过数值优化算法来实现,比如梯度下降法或者牛顿法。
通过极大似然估计,我们可以得到对参数β0和β1的估计值,从而建立起回归模型。
这种方法在统计学和机器学习中被广泛应用,能够帮助我们通过观测数据来估计模型参数,从而进行预测和推断。
极大似然估计法步骤极大似然估计法(Maximum Likelihood Estimation,MLE)是一种常用的参数估计方法,它利用样本数据来估计概率模型的参数。
它的基本思想是选择参数值使得观测到的样本出现的概率最大化。
极大似然估计法被广泛应用于统计学、机器学习以及其他领域。
极大似然估计法的步骤可以概括为以下几个主要步骤:1.确定参数化模型:首先,必须确定概率模型的形式和参数化,以便进行参数估计。
例如,对于二项分布模型,我们需要确定参数p 表示成功概率。
2.构建似然函数:接下来,需要构建似然函数。
似然函数是指在给定模型参数条件下观测到的样本的条件概率密度(或离散情况下的概率质量函数)。
似然函数的形式可以根据不同的概率模型进行定义。
例如,对于离散情况下的伯努利分布,似然函数可以表示为:L(p) = p^k * (1-p)^(n-k),其中k是观测到的成功次数,n是总的观测次数。
对于连续情况下的正态分布,似然函数可以表示为:L(μ,σ) = (2πσ^2)^(-n/2) * exp[-(1/2σ^2) * Σ(xi-μ)^2]。
3.对数似然函数的求解:通常,为了便于计算和优化,我们会使用对数似然函数进行求解。
对数似然函数和似然函数具有相同的最大值点,但其大大简化了计算过程。
4.最大化对数似然函数:确定参数的MLE估计值等于使得对数似然函数最大化时的参数值。
常见的最大化方法包括数值方法(如牛顿法、梯度下降法等)和解析方法。
对于某些简单的模型,可以通过求导数等条件判断来获得解析解。
例如,对于伯努利分布中的参数p,可以通过求取对数似然函数的一阶导数,并令其等于0,解得MLE估计值为p = k/n。
5.参数估计:得到MLE估计值后,就可以根据估计参数进行进一步的分析和预测了。
通常,MLE估计值具有良好的频率特性,即当样本数量趋近于无穷大时,估计值收敛到真实参数。
极大似然估计法的优点在于其较好的性质和理论基础。
用极大似然法进行参数估计极大似然估计(Maximum Likelihood Estimation, MLE)是一种统计推断方法,用于通过观测数据确定概率分布的参数值。
它的基本思想是选择使得已观测数据出现的概率最大化的参数值。
在本文中,我们将介绍极大似然法的基本原理、计算步骤以及一些常见的应用。
1.极大似然法的基本原理假设我们有一组独立同分布的随机样本观测值X1,X2,...,Xn,其概率密度函数(或概率质量函数)为f(x;θ),其中θ是待估计的参数。
MLE的目标是通过最大化似然函数(Likelihood Function)L(θ)来估计参数θ的值,即找到能最大化样本观测值出现概率的参数值。
似然函数L(θ)的定义为:L(θ) = f(x1;θ) * f(x2;θ) * ... * f(xn;θ)为了简化计算,常常使用对数似然函数logL(θ)进行最大化:logL(θ) = log(f(x1;θ)) + log(f(x2;θ)) + ... +log(f(xn;θ))2.极大似然法的计算步骤-确定似然函数L(θ)的表达式,即样本观测值的联合概率密度函数(或概率质量函数)的乘积。
- 对似然函数取对数,得到logL(θ)。
- 对logL(θ)求导,并令导数等于0,解出参数θ的估计值。
-检查导数的二阶偏导数,以确保估计值是一个极大值点,并非极小值或驻点。
-检验估计值的结果,并进行统计推断。
值得注意的是,当样本观测值满足一定的正则条件时,估计值通常具有一些优良的统计性质,如渐近正态性、渐近有效性等。
3.极大似然法的常见应用-二项分布参数估计:假设我们有一组成功/失败的观测数据,用于估计成功的概率p。
我们可以建立二项分布模型,并通过MLE来估计参数p 的值。
-正态分布参数估计:假设我们有一组服从正态分布的观测数据,用于估计均值μ和方差σ^2、我们可以通过MLE来分别估计这两个参数的值。
-泊松分布参数估计:假设我们有一组服从泊松分布的观测数据,用于估计平均发生率λ。
极大似然估计法是一种常用的概率统计方法,它在统计学领域有着广泛的应用。
朴素贝叶斯法是一种基于贝叶斯定理的分类算法,它在文本分类、垃圾邮件过滤等领域被广泛应用。
本文将通过极大似然估计法推导出朴素贝叶斯法中的概率估计公式,以帮助读者深入理解这一经典的分类算法。
1. 极大似然估计法简介极大似然估计法是一种参数估计方法,它的核心思想是通过已知的样本数据,估计出使样本数据出现的概率最大的参数值。
在数学上,假设有一组观测数据X,我们希望估计出参数θ,使得观测数据X出现的概率P(X|θ)最大。
极大似然估计法就是要找到使得P(X|θ)取得极大值的参数θ。
2. 朴素贝叶斯法简介朴素贝叶斯法是一种基于贝叶斯定理与特征条件独立假设的分类算法。
在文本分类问题中,朴素贝叶斯法通过计算每个类别对应的概率,从而实现对文本进行分类。
在朴素贝叶斯法中,需要计算每个特征在每个类别下出现的概率,以及每个类别的先验概率。
3. 朴素贝叶斯法中的概率估计在朴素贝叶斯法中,需要对每个特征在每个类别下的概率进行估计。
以二元特征为例,假设有一个文本分类问题,特征X1表示某个词汇出现在文本中,特征X2表示另一个词汇出现在文本中,那么我们需要估计P(X1|C)和P(X2|C),其中C表示类别。
根据极大似然估计法,我们可以使用样本数据来估计这些概率。
4. 朴素贝叶斯法中的概率估计公式根据极大似然估计法,我们可以使用样本数据来估计每个特征在每个类别下的概率。
假设训练集中有n个样本,其中属于类别C的样本有nC个,其中特征X1出现的次数为nX1,属于类别C的样本中特征X1出现的次数为nC,X1,则有P(X1|C) ≈ nC,X1/nC。
5. 朴素贝叶斯法中的先验概率估计除了对条件概率进行估计,朴素贝叶斯法还需要对每个类别的先验概率进行估计。
假设训练集中属于类别C的样本占比为nP,总样本数为n,则先验概率P(C)可估计为nP/n。
6. 朴素贝叶斯法的应用朴素贝叶斯法在文本分类、垃圾邮件过滤等领域有着广泛的应用。
参数估计极大似然法参数估计是统计学中的一个重要问题,其目标是根据观测数据来估计未知参数的值。
极大似然法(Maximum Likelihood Estimation,简称MLE)是一种常用的参数估计方法,它是在给定观测数据情况下,通过寻找使得观测数据出现概率最大的参数值来进行参数估计的。
极大似然法的基本思想是,对于给定的观测数据,将参数看作是自变量,而观测数据的概率函数则是关于参数的函数。
最大化这个概率函数,即寻找参数空间中的一个点,使得在此点处的似然函数取得最大值,并称这个点上的参数值为极大似然估计值。
首先,我们需要定义似然函数。
给定一个随机变量X,其概率密度函数为f(x;θ),其中θ为待估的参数。
对于n个独立同分布的观测值{x1, x2, ..., xn},其似然函数L(θ; x1, x2, ..., xn)定义为:L(θ; x1, x2, ..., xn) = f(x1;θ) *f(x2;θ) * ... * f(xn;θ)经过对数变换,我们可以将似然函数转化为对数似然函数,即:ln L(θ; x1, x2, ..., xn) = ln f(x1;θ) + ln f(x2;θ) + ...+ ln f(xn;θ)这样的转换是合理的,因为对数函数是一个连续且单调递增的函数,最大化对数似然函数值等价于最大化似然函数值。
接下来,我们需要找到使得对数似然函数取得最大值的参数值。
为了寻找这个极值点,我们可以使用一些优化算法,比如梯度下降法、牛顿法等。
这些算法可以通过不断迭代来逼近最大化对数似然函数值的参数值。
当然,寻找极大似然估计值的过程可能会面临一些困难,比如求解似然函数和对数似然函数的最大值可能涉及到复杂的计算问题,此外,对于一些复杂模型,可能无法直接找到解析解。
在这些情况下,我们可以利用数值优化算法来近似求解,或者通过一些近似方法来简化问题。
需要注意的是,极大似然估计的结果并不一定是无偏的,也不一定是最优的。
用极大似然法进行参数估计极大似然估计(Maximum Likelihood Estimation,MLE)是一种常用的统计方法,用于从已知样本中估计模型的参数。
它基于以下思想:我们选择那些使得已知样本的出现概率最大化的参数值作为估计值。
在进行极大似然估计时,需要知道样本的概率分布模型。
对于连续型分布,我们通常使用概率密度函数(probability density function,PDF)描述该分布的概率情况;而对于离散型分布,我们则使用概率质量函数(probability mass function,PMF)。
根据样本的特点,选择合适的概率分布模型是进行估计的首要步骤。
下面以一个例子来说明如何使用极大似然法进行参数估计。
假设我们有一组数据,表示了城市每天的降雨量,我们希望通过已知数据来估计该城市的降雨量的概率分布的参数。
首先考虑已知数据的概率分布模型,降雨量通常可以使用指数分布来表示。
设随机变量X表示降雨量,参数λ表示降雨率(1/天),则X服从参数为λ的指数分布,其概率密度函数为f(x;λ) = λ * exp(-λx),其中λ > 0。
假设我们有n个样本,分别为x1, x2, ..., xn,它们是独立同分布的,并且都是X的观测值。
我们要通过这些样本来估计参数λ的值。
我们需要计算已知样本的似然函数,即f(x1, x2, ..., xn; λ)。
由于样本是独立同分布的,可以将似然函数表示为各个样本的联合概率密度函数的乘积,即L(λ) = f(x1;λ) * f(x2;λ) * ... * f(xn;λ),将概率密度函数代入,得到L(λ) = λ^n * exp(-λ ∑xi)。
为了方便计算,一般采用对数似然函数进行求解。
对上述似然函数取对数,得到lnL(λ) = nln(λ) - λ∑xi。
我们的目标是最大化似然函数,那么等价于最大化对数似然函数。
接下来,我们需要求解似然函数对参数λ的一阶导数,并将其置为0,得到参数的估计值。
指数分布的矩估计和极大似然估计指数分布是概率统计中一个重要的分布类型,它被广泛用于时间,距离,速率等方面的计算。
在实际应用中,我们需要对指数分布的参数进行估计,以便更好地对数据进行分析和预测。
本文将针对指数分布的矩估计和极大似然估计进行介绍。
一、矩估计矩估计是一种基于数据的估计方法。
首先,我们通过实际观测数据计算出样本的一阶矩和二阶矩,然后将其代入概率分布函数,得到参数估计值。
对于指数分布而言,其概率密度函数为:f(x|θ) = θe^-θx其中,θ为指数分布的参数。
我们可以通过计算样本的一阶矩和二阶矩来估计θ的值。
样本的一阶矩为:E(X) = 1/θ样本的二阶矩为:E(X^2) = 2/θ^2将计算出的一阶矩和二阶矩代入上述概率密度函数中,得到θ的矩估计值为:θ = 1/(2E(X^2) - E(X)^2)二、极大似然估计极大似然估计是一种基于概率的估计方法。
它假设已知观测数据的分布类型,通过最大化似然函数来估计参数值。
对于指数分布而言,其似然函数为:L(θ|x) = ∏ i=1^n θe^-θxi其中,n为样本个数,x1,x2,...,xn为样本数据。
我们可以通过计算该似然函数的对数,将乘积转换为求和。
即:ln(L(θ|x)) = nln(θ) - θ∑ xi通过求导,令导数等于0,求出使似然函数最大的θ,即为θ的极大似然估计值:θ = n/∑ xi三、矩估计和极大似然估计的比较矩估计和极大似然估计都是常见的参数估计方法。
它们的区别在于矩估计基于统计量而极大似然估计基于似然函数。
从估计结果的准确性和稳定性来看,极大似然估计更加优越,因为它是最大化整个概率函数,利用了全部的数据信息。
而矩估计则只是利用了一阶和二阶矩作为参数的估计依据,忽略了其他高阶矩的信息。
但是,在样本容量较小的情况下,矩估计可能更为可靠,因为极大似然估计会受到极端值和样本大小的影响,而矩估计则更加稳定。
因此,在不同的数据分析和预测应用中,需要根据实际情况选择适合的参数估计方法。
python极大似然估计参数
极大似然估计是统计学中常用的一种参数估计方法,用于估计
概率分布的参数。
在Python中,我们可以使用各种统计库来进行极
大似然估计的参数计算,比如NumPy、SciPy和StatsModels等库。
首先,假设我们有一组观测数据,我们想要估计这组数据所符
合的概率分布的参数。
以正态分布为例,我们可以使用SciPy库中
的norm模块来进行极大似然估计。
假设我们的数据存储在一个名为data的NumPy数组中,我们可以使用norm.fit(data)来获得数据的均值和标准差的极大似然估计值。
另外,如果我们想要自定义概率分布模型并进行极大似然估计,可以使用StatsModels库。
该库提供了更多复杂的统计模型,比如
线性回归模型、广义线性模型等。
我们可以使用该库来拟合自定义
的概率分布模型,并使用极大似然估计来估计模型参数。
除了使用现有的库,我们也可以手动实现极大似然估计的算法。
这涉及到最大化似然函数的过程,通常可以通过梯度下降等优化方
法来实现。
我们需要定义似然函数,并通过迭代优化来找到使似然
函数最大化的参数值。
总之,在Python中进行极大似然估计参数,我们可以利用现有的统计库进行估计,也可以根据需要自行实现估计算法。
无论采用哪种方法,都需要谨慎处理数据并理解所使用的概率模型,以确保得到合理的参数估计结果。
极大似然估计方法估计GARCH模型参数极大似然估计方法是一种常用的统计参数估计方法,广泛应用于金融领域中的GARCH模型参数估计。
GARCH模型是一种用于金融市场波动率预测的时间序列模型,它基于过去的波动率来预测未来的波动率。
该模型包括ARCH(自回归条件异方差)模型和GARCH(广义自回归条件异方差)模型。
GARCH模型参数估计的目标是通过观测数据最大化似然函数,找到最优的参数值,从而使模型的预测误差最小化。
1.假设GARCH模型的形式,并将其转化为等价的线性模型形式。
GARCH模型包括自回归方差,平方残差自回归以及方差残差之间的协方差。
为了进行参数估计,可以将GARCH模型转化为等价的线性模型形式,例如,将方差转化为对数形式。
2.构建似然函数。
似然函数是在给定参数的条件下,样本的观测值出现的概率,可以通过对数似然函数的方式来描述。
对GARCH模型,可以根据条件概率密度函数计算似然函数。
3.通过最大化似然函数来估计参数。
通过求解似然函数的导数等于零,可以得到似然函数的最大值,从而得到参数的估计值。
4.进行参数估计的迭代过程。
由于似然函数通常是非线性的,并且具有多个局部最大值,因此需要使用迭代的方法来找到全局最大值。
常用的迭代算法有牛顿-拉弗森法和Broyden-Fletcher-Goldfarb-Shanno (BFGS)法等。
5.通过估计参数来进行模型拟合和波动率预测。
通过估计的参数,可以进行模型拟合和波动率预测。
可以使用已知数据进行模型拟合,然后利用估计的参数来预测未来的波动率。
极大似然估计方法在GARCH模型参数估计中有着广泛的应用。
它可以对金融市场的波动进行有效预测,并为投资者提供重要的决策依据。
然而,极大似然估计方法也存在一些限制,例如对初始值敏感以及计算复杂性较高等问题。
学者们也提出了一些改进方法,例如基于遗传算法的估计方法和贝叶斯估计方法等,以提高参数估计的效果。
总之,极大似然估计方法是一种有效的GARCH模型参数估计方法,可以通过最大化似然函数来得到最优的参数估计值。
北京工商大学《系统建模与辨识》课程上机实验报告(2016年秋季学期)专业名称:控制工程上机题目:用极大似然法进行参数估计专业班级:计研3班学生姓名:王瑶吴超学号: 10011316259 10011316260 指导教师:刘翠玲2017 年 1 月一 实验目的通过实验掌握极大似然法在系统参数辨识中的原理和应用。
二 实验原理1 极大似然原理设有离散随机过程}{k V 与未知参数θ有关,假定已知概率分布密度)(θk V f 。
如果我们得到n 个独立的观测值,21,V V …n V ,,则可得分布密度)(1θV f ,)(2θV f ,…,)(θn V f 。
要求根据这些观测值来估计未知参数θ,估计的准则是观测值{}{k V }的出现概率为最大。
为此,定义一个似然函数)()()(),,,(2121θθθθn n V f V f V f V V V L = (1.1)上式的右边是n 个概率密度函数的连乘,似然函数L 是θ的函数。
如果L 达到极大值,}{k V 的出现概率为最大。
因此,极大似然法的实质就是求出使L 达到极大值的θ的估值∧θ。
为了便于求∧θ,对式(1.1)等号两边取对数,则把连乘变成连加,即 ∑==ni iV f L 1)(ln ln θ (1.2)由于对数函数是单调递增函数,当L 取极大值时,lnL 也同时取极大值。
求式(1.2)对θ的偏导数,令偏导数为0,可得0ln =∂∂θL(1.3)解上式可得θ的极大似然估计ML ∧θ。
2 系统参数的极大似然估计Newton-Raphson 法实际上就是一种递推算法,可以用于在线辨识。
不过它是一种依每L次观测数据递推一次的算法,现在我们讨论的是每观测一次数据就递推计算一次参数估计值得算法。
本质上说,它只是一种近似的极大似然法。
设系统的差分方程为 )()()()()(11k k u z b k y z a ξ+=-- (2.1) 式中111()1...nn a z a z a z ---=+++1101()...nn b z b b z b z---=+++因为)(k ξ是相关随机向量,故(2.1)可写成)()()()()()(111k z c k u z b k y z a ε---+= (2.2)式中)()()(1k k z c ξε=- (2.3) nn z c z c z c ---+++= 1111)( (2.4))(k ε是均值为0的高斯分布白噪声序列。
多项式)(1-z a ,)(1-z b 和)(1-z c 中的系数n n c c b b a a ,,,,,10,1和序列)}({k ε的均方差σ都是未知参数。
设待估参数n a a 1[=θ n b b 0 ]Tn c c 1 (2.5) 并设)(k y 的预测值为+-+++-----=∧∧∧∧∧)()()()1()(01n k u b k u b n k y a k y a k y n n)()1(1n k e c k e c n -++-∧∧(2.6) 式中)(i k e -为预测误差;i a ∧,i b ∧,i c ∧为i a ,i b ,i c 的估值。
预测误差可表示为+-+-⎢⎣⎡--=-=∑∑=∧=∧∧)()()()()()(01i k u b i k y a k y k y k y k e n i i n i i-+++-+++=⎥⎦⎤--∧-∧∧-∧-∧=∧∑)()()()1()(110111k u z b z b b k y z a z a i k e c n n n n n i i )()(2211k e z c zc z c n n -∧-∧-∧+++ (2.7)或者)()1(11k e z c z c nn -∧-∧+++ =-+++-∧-∧)()1(11k y z a z a nn)()(110k u z b z b b nn -∧-∧∧+++ (2.8) 因此预测误差{})(k e 满足关系式)()()()()()(111k u z b k y z a k e z c -∧-∧-∧-= (2.9) 式中n n z a z a z a -∧-∧-∧+++= 1111)( n n z b z b b z b -∧-∧∧-∧+++= 1101)(n n z c z c z c -∧-∧-∧+++= 1111)(假定预测误差)(k e 服从均值为0的高斯分布,并设序列{})(k e 具有相同的方差2σ。
因为{})(k e 与)(1-∧z c ,)(1-∧z a 和)(1-∧z b 有关,所以2σ是被估参数θ的函数。
为了书写方便,把式(2.9)写成)()()()()()(111k u z b k y z a k e z c ----= (2.10)-------++-+= )1()1()()1()()(101k u b k u b n k y a k y a k y k e n,2,1),()1()(1++=------n n k n k c k e c n k u b n n (2.11) 或写成)()()()()(11i k e c i k u b i k y a k y k e ni in i in i i-----+=∑∑∑=== (2.12)令k=n+1,n+2,…,n+N,可得)(k e 的N 个方程式,把这N 个方程式写成向量-矩阵形式θN N N Y e Φ-= (2.13) 式中⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡+++=)()2()1(N n y n y n y Y N ,⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡+++=)()2()1(N n e n e n e e N ,⎥⎥⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎢⎢⎣⎡=n n b b a a 01θ⎢⎢⎢⎢⎣⎡-+-+--=Φ)1()1()(N n y n y n y N )()2()1(N y y y --- )()2()1(N n u n u n u +++ )()2()1(N u u u)1()1()(-++N n e n e n e ⎥⎥⎥⎥⎦⎤)()2()1(N e e e因为已假定{})(k e 是均值为0的高斯噪声序列,高斯噪声序列的概率密度函数为])(21ex p[)2(122212m y f --=σπσ (2.14)式中y 为观测值,2σ和m 为y 的方差和均值,那么)](21ex p[)2(122212k e f σπσ-=(2.15) 对于)(k e 符合高斯噪声序列的极大似然函数为)21exp()2(1)]}()2()1([21exp{)2(1])([])2([])1([])(,),2(),1([),(222222222NT N NN N e e N n e n e n e N n e f n e f n e f N n e n e n e L Y L σπσσπσθθθθσθ-=++++++-=+++=+++=(2.16)或]2)()(exp[)2(1),(222σθθπσσθΦ-Φ--=N T N NN Y Y Y L (2.17) 对上式(2.17)等号两边取对数得N T N NT N NN e e N N e e Y L 2222221ln 22ln 2)21ex p(ln )2(1ln),(ln σσπσπσσθ---=-+= (2.18)或写为∑++=---=Nn n k N k e N N Y L 1222)(21ln 22ln 2),(ln σσπσθ (2.19)求),(ln σθN Y L 对2σ的偏导数,令其等于0,可得0)(212),(ln 12422=+-=∂∂∑++=Nn n k N k e N Y L σσσσθ (2.20)则J N k e N k e NN n n k Nn n k 2)(212)(112122===∑∑++=++=∧σ (2.21) 式中∑++==N n n k k e J 12)(21 (2.22)2σ越小越好,因为当方差2σ最小时,)(2k e 最小,即残差最小。
因此希望2σ的估值取最小J Nmin 22=∧σ (2.23) 因为式(2.10)可理解为预测模型,而e(k)可看做预测误差。
因此使式(2.22)最小就是使误差的平方之和最小,即使对概率密度不作任何假设,这样的准则也是有意义的。
因此可按J 最小来求n n c c b b a a ,,,,,10,1的估计值。
由于e(k)式参数n n c c b b a a ,,,,,10,1的线性函数,因此J 是这些参数的二次型函数。
求使),(ln σθN Y L 最大的∧θ,等价于在式(2.10)的约束条件下求∧θ使J 为最小。
由于J 对i c 是非线性的,因而求J 的极小值问题并不好解,只能用迭代方法求解。
求J 极小值的常用迭代算法有拉格朗日乘子法和牛顿-拉卜森法。
下面介绍牛顿-拉卜森法。
整个迭代计算步骤如下:(1)确定初始的0∧θ值。
对于0∧θ中的n b b a a ,,,0,1可按模型)()()()()(11k u z b k y z a k e -∧-∧-= (2.24) 用最小二乘法来求,而对于0∧θ中的nc c ,1可先假定一些值。
(2)计算预测误差)()()(k y k y k e ∧-= (2.25) 给出∑++==N n n k k e J 12)(21并计算∑++=∧=Nn n k k eN 122)(1σ (2.26)(3)计算J 的梯度θ∂∂J和海赛矩阵 22θ∂∂J ,有θθ∂∂=∂∂∑++=)()(1k e k e J N n n k (2.27) 式中⎢⎣⎡∂∂∂∂=∂∂n a k e a k e k e )()()(1 θ n b k e b k e ∂∂∂∂)()(0 Tn c k e c k e ⎥⎦⎤∂∂∂∂)()(1--------++-+∂∂=∂∂)()1()()()1()([)(101n k u b k u b k u b n k y a k y a k y a a k e n n i i )]()1(1n k e c k e c n ----in i i a n k e c a k e c a k e c i k y ∂-∂--∂-∂-∂-∂--=)()2()1()(21 (2.28) 即inj j i a j k e c i k y a k e ∂-∂--=∂∂∑=)()()(1 (2.29) 同理可得i nj j i b j k e c i k u b k e ∂-∂---=∂∂∑=)()()(1 (2.30) in j j i c j k e c i k e c k e ∂-∂---=∂∂∑=)()()(1 (2.31) 将式(2.29)移项化简,有in j j i n j j i a j k e c a j k e c a k e i k y ∂-∂=∂-∂+∂∂=-∑∑==)()()()(01 (2.32)因为j z k e j k e -=-)()( (2.33)由)(j k e -求偏导,故iji a z k e a j k e ∂∂=∂-∂-)()( (2.34) 将(2.34)代入(2.32),所以jn j ji i j n j j i nj j z c a k e a z k e c a j k e c i k y -=-==∑∑∑∂∂=∂∂=∂-∂=-000)()()()( (2.35) nn z c z c z c ---+++= 1111)(所以得)()()(1i k y a k e z c i-=∂∂- (2.36) 同理可得(2.30)和(2.31)为 )()()(1i k u b k e z c i--=∂∂- (2.37) )()()(1i k e c k e z c i--=∂∂- (2.38) 根据(2.36)构造公式)(])([)]([)(1i k y j j i k y a j i k e z c j-=---=∂--∂- (2.39)将其代入(2.36),可得ij a k e z c a j i k e z c ∂∂=∂--∂--)()()]([)(11 (2.40)消除)(1-z c 可得1)1()()(a i k e a j i k e a k e j i ∂+-∂=∂+-∂=∂∂ (2.41) 同理可得(2.37)和(2.38)式)()()(b i k e b j i k e b k e j i ∂-∂=∂+-∂=∂∂ (2.42)1)1()()(c i k e c j i k e c k e j i ∂+-∂=∂+-∂=∂∂ (2.43) 式(2.29)、式(2.30)和式(2.31)均为差分方程,这些差分方程的初始条件为0,可通过求解这些差分方程,分别求出e(k)关于n n c c b b a a ,,,,,10,1的全部偏导数,而这些偏导数分别为)}({k y ,)}({k u 和)}({k e 的线性函数。