概率神经网络
- 格式:doc
- 大小:398.97 KB
- 文档页数:7
基于概率神经网络(PNN)的故障诊断概率神经网络PNN是一种结构简单、训练简洁、应用相当广泛的人工神经网络,在实际应用中,尤其是在解决分类问题的应用中,它的优势在于线性学习算法来完成以往非线性学习算法所做的工作,同时又能保持非线性算法的高精度等特性。
基于概率神经网络的故障诊断方法实质上是利用概率神经网络模型的强大的非线性分类能力,将故障样本空间映射到故障模式空间中,从而形成一个具有较强容错能力和结构自适应能力的诊断网络系统。
1 概述概率神经网络是一种可以用于模式分类的神经网络,其实只是基于贝叶斯最小风险准则发展而来的一种并行算法,目前已经在雷达、心电图仪等电子设备中获得了广泛的应用。
PNN与BP网络相比较,其主要优点为:快速训练,其训练时间仅仅大于读取数据的时间。
无论分类问题多么复杂,只要有足够多的训练数据,就可以保证获得贝叶斯准则下的最优解。
允许增加或减少训练数据而无需重新进行长时间的训练。
PNN层次模型是Specht根据贝叶斯分类规则与Parzen的概率密度函数提出的。
在进行故障诊断的过程中,求和层对模式层中间同一模式的输出求和,并乘以代价因子;决策层则选择求和层中输出最大者对应的故障模式为诊断结果。
当故障样本的数量增加时,模式层的神经元将随之增加。
而当故障模式多余两种时,则求和层神经元将增加。
所以,随着故障经验知识的积累,概率神经网络可以不断横向扩展,故障诊断的能力也将不断提高。
2基于PNN的故障诊断1.问题描述发动机运行过程中,油路和气路出现故障是最多的。
由于发动机结构复杂,很难分清故障产生的原因,所以接下来尝试利用PNN来实现对发动机的故障诊断。
在发动机运行中常选用的6种特征参数:AI、MA、DI、MD、TR和PR。
其中,AI为最大加速度指标;MA为平均加速度指标;DI为最大减速度指标;MD为平均减速度指标;TR为扭矩谐波分量比;PR为燃爆时的上升速度。
进行诊断时,首先要提取有关的特征参数,然后利用PNN进行诊断,诊断模型如图1所示。
概率神经网络的分类预测——基于PNN的变压器故障诊断摘要:电力变压器故障诊断对变压器、电力系统的安全运行有着十分重要的意义,本文介绍了基于概率故障神经网络(PNN)在变压器故障诊断中的应用。
针对概率神经网络(PNN)模型强大的非线性分类能力,PNN能够很好地对变压器故障进行分类;文章通过对PNN神经网络的结构和原理的分析,应用PNN概率神经网络方法对变压器故障进行诊断。
关键词:变压器;概率神经网络;故障诊断0 引言变压器是电力系统中的一个重要设备,由于它对电能的经济传输、灵活分配和安全使用具有重要意义,因而它的维护检修就显得极为重要,特别是通过对其进行故障诊断为其正常运行提供可靠的依据。
故障诊断技术是借助于现代测试、监控和计算机分析等手段,研究设备在运行中或相对静止条件下的状态信息,分析设备的技术状态,诊断其故障的性质和起因,并预测故障趋势,进而确定必要对策的一种方法。
从本质上讲,故障诊断就是模式识别问题。
神经网络的出现,为故障诊断问题提供了一种新的解决途径,特别是对于实际中难以解决的数学模型的复杂系统,神经网络更显示出其独特的作用。
目前,在故障诊断方面虽然BP网络应用得最为广泛,但其网络层数及每层神经元的个数不易确定,而且在训练过程中网络容易陷入局部最小点。
本文引入一种新的人工神经网络模型——概率神经网络,使用该网络进行变压器的故障诊断,可以获得令人满意的故障诊断率,并能有效地克服BP神经网络的缺点。
本文采用概率神经网络(probabilistic neural networks)对变压器故障进行诊断。
概率神经网络结构简单、训练简洁,利用概率神经网络模型的强大的非线性分类能力,将故障样本空间映射到故障模式空间中,可形成一个具有较强容错能力和结构自适应能力的诊断网络系统,从而提高故障诊断的准确率。
在实际应用中,尤其是在解决分类问题的应用中,它的优势在于用线性学习算法来完成非线性学习算法所做的工作,同时保持非线性算法的高精度等特性。
径向基概率神经网络的实例(实现预测分类)径向基概率神经网络(Radial Basis Probabilistic Neural Network)是一种基于径向基函数的概率神经网络模型,可以用于预测和分类任务。
它在概率神经网络的基础上引入了径向基函数的概念,并对输出层进行了改进,使得网络具备了更好的非线性表达能力和泛化性能。
下面,我将以一个实例来介绍径向基概率神经网络的应用,包括实现预测和分类任务。
首先,假设我们有一个数据集,包含了一些人的身高和体重信息,以及他们的性别(男或女)。
我们的目标是根据人的身高和体重预测他们的性别,同时进行性别分类。
1.数据集准备:我们需要将数据集分为训练集和测试集。
假设我们有1000个样本,我们可以将800个样本作为训练集,剩下的200个样本作为测试集。
每个样本包含两个输入特征(身高和体重)和一个输出类别(性别)。
2.网络结构搭建:输入层:包含两个神经元,对应身高和体重这两个特征。
隐藏层:包含若干个径向基函数神经元,用于提取特征。
输出层:包含两个神经元,对应男性和女性两个类别。
3.网络训练:首先,我们需要对输入特征进行归一化处理,以提高模型训练的收敛速度和准确性。
然后,使用训练集对网络进行训练。
训练的过程包括以下几个步骤:-使用径向基函数对隐藏层进行初始化,初始化方法可以选用均匀分布或高斯分布。
-使用前向传播计算每个神经元的输出值。
-使用最小化损失函数的方法(如交叉熵损失函数)进行反向传播,更新网络参数。
-重复以上步骤直至达到预定的停止条件(如达到最大迭代次数或误差小于一些阈值)。
4.预测和分类:训练完成后,我们可以使用测试集对网络进行预测和分类。
对于预测任务,给定一个人的身高和体重,我们可以输入这些特征到网络中,通过前向传播计算得到网络的输出,即性别的概率。
我们可以根据输出概率选择概率值较大的性别作为预测结果。
对于分类任务,给定一个人的身高和体重,我们可以输入这些特征到网络中,通过前向传播计算得到网络的输出向量。
关于两个PNN杂七杂八关于PNN其实有两种说法,一种是概率神经网络(Probabilistic Neural Network),另一种是基于产品的神经网络Product-based Neural Network,所以在使用PNN的时候要格外注意,要不然你的领导你的导师都不知道你说的是哪一个,常用的是第一种PNN,概率神经网络,北京航空航天大学的王小川老师在其著作中提到的PNN也指代的是概率神经网络下面先说概率神经网络1 概率神经网络的原理概率神经网络(Probabilistic Neural Network)的网络结构类似于RBF神经网络,但不同的是,PNN是一个前向传播的网络,不需要反向传播优化参数。
这是因为PNN结合了贝叶斯决策,来判断测试样本的类别。
1.1关于贝叶斯决策1.2关于概率神经网络的结构其网络并不算很主流的3层,而是4层图中样本特征维度为3,由上图可知,PNN的网络结构分为四层:输入层,模式层、求和层、输出层。
假设训练样本为PNN各层的作用于相互之间关系描述如下:输入层:输入测试样本,节点个数等于样本的特征维度。
感觉根据实际含义输入层中节点个数的确定依据与理由也大都同BP中的相关说法相似。
模式层:计算测试样本与训练样本中的每一个样本的Gauss函数的取值,节点个数等于训练样本的个数。
机器学习模型中,超参数是在开始学习过程之前设置值的参数这个时候不得不设定一些合适的寻址算法,相关的能够使用的寻址算法其实有很多,可以是GA算法,可以是SA(模拟退火),可以是PSO(粒子群算法),可以是AFSA(人工鱼群算法),可以是萤火虫算法,相关套路很多。
求和层:求取相同类别测试样本对应的模式层节点输出之和,节点个数等于训练样本的类别个数。
训练样本的类别个数其实就是侧面反映的label的个数输出层:对上述求和层输出进行归一化处理求取测试样本对应不同类别的概率,根据概率大小判断测试样本的类别,节点个数为1。
概率神经网络概述概率神经网络(Probabilistic Neural Network ,PNN )是由D. F. Specht 在1990年提出的。
主要思想是贝叶斯决策规则,即错误分类的期望风险最小,在多维输入空间内分离决策空间。
它是一种基于统计原理的人工神经网络,它是以Parazen 窗口函数为激活函数的一种前馈网络模型。
PNN 吸收了径向基神经网络与经典的概率密度估计原理的优点,与传统的前馈神经网络相比,在模式分类方面尤其具有较为显著的优势。
1.1 概率神经网络分类器的理论推导 由贝叶斯决策理论:w w w ijix then i j x p x p if ∈≠∀>→→→, )|()|( (1-1)其中)|()()|(w w w iiix p p x p →→=。
一般情况下,类的概率密度函数)|(→x p w i 是未知的,用高斯核的Parzen 估计如下:)2exp(11)|(22122σσπ→→-∑-==→x x Nw ikN ik lliix p (1-2)其中,→x ik 是属于第w i 类的第k 个训练样本,l是样本向量的维数,σ是平滑参数,N i 是第w i 类的训练样本总数。
去掉共有的元素,判别函数可简化为:∑-=→→→-=Nikik iiix x Nw g p x 122)2exp()()(σ(1-3)1.2 概率神经元网络的结构模型PNN 的结构以及各层的输入输出关系量如图1所示,共由四层组成,当进行并行处理时,能有效地进行上式的计算。
图1 概率神经网络结构如图1所示,PNN 网络由四部分组成:输入层、样本层、求和层和竞争层。
PNN 的工作过程:首先将输入向量→x 输入到输入层,在输入层中,网络计算输入向量与训练样本向量之间的差值|-|→→x ikx 的大小代表着两个向量之间的距离,所得的向量由输入层输出,该向量反映了向量间的接近程度;接着,输入层的输出向量→→xikx -送入到样本层中,样本层节点的数目等于训练样本数目的总和,∑===M i i iNN 1,其中M 是类的总数。
样本层的主要工作是:先判断哪些类别输入向量有关,再将相关度高的类别集中起来,样本层的输出值就代表相识度;然后,将样本层的输出值送入到求和层,求和层的结点个数是M ,每个结点对应一个类,通过求和层的竞争传递函数进行判决;最后,判决的结果由竞争层输出,输出结果中只有一个1,其余结果都是0,概率值最大的那一类输出结果为1。
2.基本学习算法第一步:首先必须对输入矩阵进行归一化处理,这样可以减小误差,避免较小的值呗较大的值“吃掉”。
设原始输入矩阵为:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=X XXX XX X XXmnm m nn212222111211X (2-1)从样本的矩阵如式(2-1)中可以看出,该矩阵的学习样本由m 个,每一个样本的特征属性有n 个。
在求归一化因子之前,必须先计算B T矩阵:⎥⎥⎦⎤⎢⎢⎣⎡=∑∑∑===nk nk n k Tx x x B mkkk 12121211121然后计算:[]⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎢⎣⎡=∙=⨯⨯⨯⨯C CC C C C C CC MxM xM xMxMxMxM xM xM xXB C mnm m n n mmnmm mm nnnm nm nm21222211121121222222211111211111111(2-2) 式中,∑∑∑======nk mn k n k x M x M x M mkk k 12122121,,,21则归一化后的学习矩阵为C 。
在式(2-2)中,符号”“∙表示矩阵在做乘法运算时,相应元素之间的乘积。
第二步:将归一化好的m 个样本送入网络样本层中。
因为是有监督的学习算法,所以很容易就知道每个样本属于哪种类型。
假设样本有m 个,那么一共可以分为c 类,并且各类样本的数目相同,设为k ,于是m=k*c 。
第三步:模式距离的计算,该距离是指样本矩阵与学习矩阵中相应元素之间的距离。
假设将由P 个n 维向量组成的矩阵称为待识别样本矩阵,则经归一化后,需要待识别的输入样本矩阵为:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=d dd dd d d d d pnp p nnD 212222111211(2-3)计算欧氏距离:就是需要是别的样本向量,样本层中各个网络节点的中心向量,这两个向量相应量之间的距离:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎣⎡=∑-∑-∑-∑-∑-∑-∑-∑-∑-=========E E EE E E E E Ec d c d c d c d c d c d c d c d c d pmp p m mnk nk n k nk nk n k nk nk n k mkpk kpk k pk mkk kk kk mk k kk kk E212222111211121212121212121212212222212111(2-4)第四步:样本层径向基函数的神经元被激活。
学习样本与待识别样本被归一化后,通常取标准差1.0=σ的高斯型函数。
激活后得到出事概率矩阵:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎣⎡=---------P P P P P P P P P e ee e e e e e e pmp p mmE E E E E E E E E pm p p mmP212222111211222222222222212222222121212211σσσσσσσσσ(2-5) 第五步:假设样本有m 个,那么一共可以分为c 类,并且各类样本的数目相同,设为k ,则可以在网络的求和层求得各个样本属于各类的初始概率和:⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡=⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎣⎡=∑∑∑∑∑∑∑∑∑+-=+==+-=+==+-=+==S S S SS S S S S P PPP PP P PP pcp p ccmk m l plkk l plk l plm k m l lk k l lk l lmk m l lkk l lkl lS212222111211121112212121121111 (2-6)上式中,S ij 代表的意思是:将要被识别的样本中,第i 个样本属于第j 类的初始概率和。
第六步:计算概率ijprob,即第i 个样本属于第j 类的概率。
∑==c l ilijijSSprob 1(2-7)3.特点概率神经网络具有如下特性:(1) 训练容易,收敛速度快,从而非常适用于实时处理;(2) 可以完成任意的非线性变换,所形成的判决曲面与贝叶斯最优准则下的曲面相接近;(3)具有很强的容错性;(4)模式层的传递函数可以选用各种用来估计概率密度的核函数,并且,各分类结果对核函数的形式不敏感;(5)各层神经元的数目比较固定,因而易于硬件实现。
4.不足之处概率神经网络的不足主要集中在其结构的复杂性和网络参数的选择上。
PNN 网络进行模式分类的机理是基于贝叶斯最小风险决策,为了获得贝叶斯准则下的最优解,必须保证有足够多的训练样本。
PNN的拓扑结构和训练样本数目成直接比例关系,每个训练样本决定一个隐含层神经元,所以当训练样本数量巨大时,将导致规模庞大的神经网络结构,阻碍了PNN网络的推广和应用。
而且,PNN的网络参数(比如连接权重,Parzen窗函数的平滑因子等),也很大程度的决定着网络的性能。
此外PNN对训练样本的代表性要求高;需要的存储空间更大。
5.应用领域概率神经网络主要应用于分类个模式识别领域,其中分类方面应用最为广泛,这种网络已较广泛地应用于非线性滤波、模式分类、联想记忆和概率密度估计当中。
Welcome !!! 欢迎您的下载,资料仅供参考!。