机器学习与模式识别-第3章_概率密度函数的估计
- 格式:pdf
- 大小:418.38 KB
- 文档页数:35
第三章概率密度函数的估计1.概率密度函数的估计方法及分类概率密度函数估计方法分为两大类:参数估计和非参数估计。
参数估计中,一直概率密度函数的形式,但其中部分或全部参数未知,概率密度函数的估计就是用样本来估计这些参数。
主要方法又有两类:最大似然估计和贝叶斯估计。
非参数估计,就是概率密度函数的形式也未知,或者概率密度函数不符合目前研究的任何分布模型,因此不能仅仅估计几个参数,而是用样本把概率密度函数数值化地估计出来。
主要方法有:直方图法、K N 近邻估计法、Parzen 窗口。
2.最大似然估计假定一个随机试验有若干个可能的结果。
如果在一次试验后出现了结果,那么,一般认为试验条件对“结果出现”有利,即这个试验中“出现”的概率(站在试验前的立场上考察)最大。
3.贝叶斯估计与最大似然估计区别在这两种估计中,都是假设样本概率密度函数形式已知,需要估计的是是概率密度函数中的参数。
虽然使用贝叶斯方法和最大似然估计的结果很相似,但这两个方法在本质上有很大的不同。
在最大似然估计方法中,我们把需要估计的参数向量看作是一个确定而未知的参数。
而在贝叶斯学习方法中,我们把参数向量看成是一个随机变量,已有的训练样本使我们把对于参数的初始密度估计转化为厚颜概率密度。
4.直方图方法a. 把样本x 的每个分量在其取值范围内分成k 个等间隔的小窗。
如果x 是d 维向量,则会得到k d 个小体积或者称作小舱,每个小舱的体积记作V ;b. 统计落入小舱内的样本数目q ic. 把每个小舱内的概率密度看作是常数,并用q i /(NV)作为其估计值,其中N 为样本总数。
在上述直方图估计中,采用的是把特征空间在样本范围内等分的做法。
小舱的体积选择应该与样本总数相适应。
避免小舱过宽或过窄,随样本数的增加,小舱体积应尽可能小,同时又必须保证小舱内有足够充分逗得样本,但每个小舱内的样本数有必须是总样本数中很小的一部分。
5.K N 近邻估计方法K N 近邻估计就是一种采用可变大小的小舱的密度估计方法,基本做法是:根据总样本确定一个参数K N ,即在总样本数为N 时要求每个小舱内拥有的样本个数。
Xuegong Zhang, Tsinghua University贝叶斯决策: 已知)(i P ω和)|(i p ωx ,对未知样本分类(设计分类器) 实际问题: 已知一定数目的样本,对未知样本分类(设计分类器)怎么办? 一种很自然的想法:首先根据样本估计)|(i p ωx 和)(i P ω,记)|(ˆi p ωx 和)(ˆi P ω 然后用估计的概率密度设计贝叶斯分类器。
——(基于样本的)两步贝叶斯决策“模式识别基础”教学课件希望:当样本数∞→N 时,如此得到的分类器收敛于理论上的最优解。
为此, 需 )|()|(ˆi N i p pωωx x ⎯⎯→⎯∞→)()(ˆi N iP P ωω⎯⎯→⎯∞→ 重要前提:z 训练样本的分布能代表样本的真实分布,所谓i.i.d 条件 z 有充分的训练样本本章研究内容:① 如何利用样本集估计概率密度函数?Xuegong Zhang, Tsinghua University“模式识别基础”教学课件3.2参数估计的基本概念和方法 (part1)参数估计(parametric estimation):z已知概率密度函数的形式,只是其中几个参数未知,目标是根据样本估计这些参数的值。
几个名词:统计量(statistics):样本的某种函数,用来作为对某参数的估计θ∈参数空间(parametric space):待估计参数的取值空间ΘXuegong Zhang, Tsinghua University ② 各类样本集i X ,c i ,,1L =中的样本都是从密度为)|(i p ωx 的总体中独立抽取出来的,(独立同分布,i.i.d.)③ )|(i p ωx 具有某种确定的函数形式,只其参数θ未知 ④ 各类样本只包含本类分布的信息其中,参数θ通常是向量,比如一维正态分布),(21σµi N ,未知参数可能是⎥⎦⎤⎢⎣⎡=2i i i σµθ此时)|(i p ωx 可写成),|(i i p θωx 或)|(i p θx 。