电子科技大学模式识别作业ANN BP分类器设计
- 格式:pdf
- 大小:142.43 KB
- 文档页数:8
模式识别第一次作业报告姓名:刘昌元学号:099064370 班级:自动化092班题目:用身高和/或体重数据进行性别分类的实验基本要求:用famale.txt和male.txt的数据作为训练样本集,建立Bayes分类器,用测试样本数据test1.txt和test2.txt该分类器进行测试。
调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。
一、实验思路1:利用Matlab7.1导入训练样本数据,然后将样本数据的身高和体重数据赋值给临时矩阵,构成m行2列的临时数据矩阵给后面调用。
2:查阅二维正态分布的概率密度的公式及需要的参数及各个参数的意义,新建m函数文件,编程计算二维正态分布的相关参数:期望、方差、标准差、协方差和相关系数。
3.利用二维正态分布的相关参数和训练样本构成的临时数据矩阵编程获得类条件概率密度,先验概率。
4.编程得到后验概率,并利用后验概率判断归为哪一类。
5.利用分类器训练样本并修正参数,最后可以用循环程序调用数据文件,统计分类的男女人数,再与正确的人数比较得到错误率。
6.自己给出决策表获得最小风险决策分类器。
7.问题的关键就在于利用样本数据获得二维正态分布的相关参数。
8.二维正态分布的概率密度公式如下:试验中编程计算出期望,方差,标准差和相关系数。
其中:二、实验程序设计流程图:1:二维正态分布的参数计算%功能:调用导入的男生和女生的身高和体重的数据文件得到二维正态分布的期望,方差,标准差,相关系数等参数%%使用方法:在Matlab的命令窗口输入cansu(male) 或者cansu(famale) 其中 male 和 famale%是导入的男生和女生的数据文件名,运用结果返回的是一个行1行7列的矩阵,其中参数的顺序依次为如下:%%身高期望、身高方差、身高标准差、体重期望、体重方差、体重标准差、身高和体重的相关系数%%开发者:安徽工业大学电气信息学院自动化 092班刘昌元学号:099064370 %function result=cansu(file)[m,n]=size(file); %求出导入的数据的行数和列数即 m 行n 列%for i=1:1:m %把身高和体重构成 m 行 2 列的矩阵%people(i,1)=file(i,1);people(i,2)=file(i,2);endu=sum(people)/m; %求得身高和体重的数学期望即平均值%for i=1:1:mpeople2(i,1)=people(i,1)^2;people2(i,2)=people(i,2)^2;endu2=sum(people2)/m; %求得身高和体重的方差、%x=u2(1,1)-u(1,1)^2;y=u2(1,2)-u(1,2)^2;for i=1:1:mtem(i,1)=people(i,1)*people(i,2);ends=0;for i=1:1:ms=s+tem(i,1);endcov=s/m-u(1,1)*u(1,2); %求得身高和体重的协方差 cov (x,y)%x1=sqrt(x); %求身高标准差 x1 %y1=sqrt(y); %求身高标准差 y1 %ralation=cov/(x1*y1); %求得身高和体重的相关系数 ralation %result(1,1)=u(1,1); %返回结果 :身高的期望 %result(1,2)=x; %返回结果 : 身高的方差 %result(1,3)=x1; %返回结果 : 身高的标准差 %result(1,4)=u(1,2); %返回结果 :体重的期望 %result(1,5)=y; %返回结果 : 体重的方差 %result(1,6)=y1; %返回结果 : 体重的标准差 %result(1,7)=ralation; %返回结果:相关系数 %2:贝叶斯分类器%功能:身高和体重相关情况下的贝叶斯分类器(最小错误率贝叶斯决策)输入身高和体重数据,输出男女的判断%%使用方法:在Matlab命令窗口输入 bayes(a,b) 其中a为身高数据,b为体重数据。
模式识别习题及答案第⼀章绪论1.什么是模式具体事物所具有的信息。
模式所指的不是事物本⾝,⽽是我们从事物中获得的___信息__。
2.模式识别的定义让计算机来判断事物。
3.模式识别系统主要由哪些部分组成数据获取—预处理—特征提取与选择—分类器设计/ 分类决策。
第⼆章贝叶斯决策理论1.最⼩错误率贝叶斯决策过程答:已知先验概率,类条件概率。
利⽤贝叶斯公式得到后验概率。
根据后验概率⼤⼩进⾏决策分析。
2.最⼩错误率贝叶斯分类器设计过程答:根据训练数据求出先验概率类条件概率分布利⽤贝叶斯公式得到后验概率如果输⼊待测样本X ,计算X 的后验概率根据后验概率⼤⼩进⾏分类决策分析。
3.最⼩错误率贝叶斯决策规则有哪⼏种常⽤的表⽰形式答:4.贝叶斯决策为什么称为最⼩错误率贝叶斯决策答:最⼩错误率Bayes 决策使得每个观测值下的条件错误率最⼩因⽽保证了(平均)错误率最⼩。
Bayes 决策是最优决策:即,能使决策错误率最⼩。
5.贝叶斯决策是由先验概率和(类条件概率)概率,推导(后验概率)概率,然后利⽤这个概率进⾏决策。
6.利⽤乘法法则和全概率公式证明贝叶斯公式答:∑====m j Aj p Aj B p B p A p A B p B p B A p AB p 1)()|()()()|()()|()(所以推出贝叶斯公式7.朴素贝叶斯⽅法的条件独⽴假设是(P(x| ωi) =P(x1, x2, …, xn | ωi)= P(x1| ωi) P(x2| ωi)… P(xn| ωi))8.怎样利⽤朴素贝叶斯⽅法获得各个属性的类条件概率分布答:假设各属性独⽴,P(x| ωi) =P(x1, x2, …, xn | ωi) = P(x1| ωi) P(x2| ωi)… P(xn| ωi)后验概率:P(ωi|x) = P(ωi) P(x1| ωi) P(x2| ωi)… P(xn| ωi)类别清晰的直接分类算,如果是数据连续的,假设属性服从正态分布,算出每个类的均值⽅差,最后得到类条件概率分布。
ANN-BP分类器设计(控制工程XXXXXXXXXX)1、问题表述对“data3.m”数据,用其中一半的数据采用ANN-BP算法设计分类器,另一半数据用于测试分类器性能。
二、方法描述神经网络(Neural Networks, NN)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学系统。
神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习能力,特别适合处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。
BP 神经网络的标准学习过程:神经网络在外界输入样本的刺激下,不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。
信号正向传播;若输出层的实际输出与期望的输出(教师信号)不符时,转入反向传播阶段;误差反传,误差以某种形式在各层表示——修正各层单元的权值;依次循环,直到网络输出的误差减少到可接受的程度或者进行到预先设定的学习次数为止。
BP神经网络的标准学习步骤:第一步,网络初始化给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值和最大学习次数M。
第二步,随机选取第k个输入样本及对应期望输出。
第三步,计算隐含层各神经元的输入和输出。
第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数。
第五步,利用隐含层到输出层的连接权值、输出层的偏导数和隐含层的输出计算误差函数对隐含层各神经元的偏导数。
第六步,利用输出层各神经元的偏导数和隐含层各神经元的输出来修正连接权值。
第七步,利用隐含层各神经元的偏导数和输入层各神经元的输入修正连接权。
第八步,计算全局误差。
第九步,判断网络误差是否满足要求。
当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。
否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。
BP神经网络的特点:非线性映射能力:能学习和存贮大量输入-输出模式映射关系,而无需事先了解描述这种映射关系的数学方程。
《模式识别》实验报告三、线性分类器实验1.(a)产生两个都具有200 个二维向量的数据集X1 和X1 ’。
向量的前半部分来自m1=[-5;0]的正态分布,并且S1=I 。
向量的后半部分来自m2=[5;0]的正态分布,并且S1=I。
其中I是一个2×2 的单位矩阵。
(b)在上面产生的数据集上运用Fisher 线性判别、感知器算法和最小平方误差判别算法,需要初始化参数的方法使用不同的初始值。
(c)测试每一种方法在X1 和X1 ’ 上的性能(错误率)。
(d)画出数据集X1 和X1 ’,已经每种方法得到对应参数向量W 的分界线。
Fisher线性判别图1 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数向量w = [-9.9406, 0.9030]’错误率error=0,感知器算法:图2 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[0.1;0.1];迭代次数iter=2参数向量w = [-4.8925, 0.0920]’错误率error=0图3 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[1; 1];迭代次数iter=2参数向量w = [-3.9925, 0.9920]’错误率error=0图4 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[10; 10];迭代次数iter=122参数向量w = [-5.6569, 7.8096]’错误率error=0图5 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[50; 50];迭代次数iter=600参数向量w = [-27.0945, 37.4194]’错误率error=0图6 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[50; 100];迭代次数iter=1190参数向量w = [-54.0048, 74.5875]’错误率error=0最小平方误差判别算法:图7 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[0.1; 0.1];参数向量w = [-0.1908, -0.0001]’错误率error=0图8 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[0.5; 0.5];参数向量w = [-0.1924, 0.1492]’错误率error=0图9 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[1; 0.5];参数向量w = [-0.1914, 0.0564]’错误率error=0图10 红色为第一类,绿色为第二类,直线为对应参数向量W的分界线,参数的初始值为[1; 1];参数向量w = [-0.1943, 0.3359]’错误率error= 0.00502.重复1.中的实验内容,数据集为X2 和X2 ’。
模式识别实验报告实验一Bayes分类器设计模式识别实验报告实验一Bayes分类器设计实验一 Bayes分类器设计【实验目的】对模式识别有一个初步的理解,能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识,理解二类分类器的设计原理。
【实验原理】最小风险贝叶斯决策可按下列步骤进行: (1)在已知,,i=1,…,c及给出待识别的的情况下,根据贝叶斯公式计算出后验概率: j=1,…,x (2)利用计算出的后验概率及决策表,按下面的公式计算出采取,i=1,…,a的条件风险,i=1,2,…,a(3)对(2)中得到的a个条件风险值,i=1,…,a进行比较,找出使其条件风险最小的决策,即则就是最小风险贝叶斯决策。
【实验内容】假定某个局部区域细胞识别中正常()和非正常()两类先验概率分别为正常状态:P()=0.9;异常状态:P()=0.1。
现有一系列待观察的细胞,其观察值为: -3.9847 -3.5549 -1.2401 -0.9780 -0.7932 -2.8531 -2.7605 -3.7287 -3.5414 -2.2692 -3.4549 -3.0752 -3.9934 2.8792 -0.9780 0.7932 1.18823.0682 -1.5799 -1.4885 -0.7431 -0.4221 -1.11864.2532 已知类条件概率是的曲线如下图:类条件概率分布正态分布分别为N(-2,0.25)、N(2,4)试对观察的结果进行分类。
【实验要求】 1) 用 ___tlab完成基于最小错误率的贝叶斯分类器的设计,要求程序相应语句有说明文字,要求有子程序的调用过程。
2) 根据例子画出后验概率的分布曲线以及分类的结果示意图。
3) 如果是最小风险贝叶斯决策,决策表如下:最小风险贝叶斯决策表:状态决策α1 0 4 α2 2 0 请重新设计程序,完成基于最小风险的贝叶斯分类器,画出相应的条件风险的分布曲线和分类结果,并比较两个结果。
BP-ANN分类器设计1.引言从深层意义上看,模式识别和人工智能本质都是在解决如何让用机器模拟人脑认知的过程。
一方面,从需要实现的功能出发,我们可以将目标分解为子功能,采用自定而下的的分解法实现我们需要的拟合算法。
而另一方面,无论人脑多么复杂,人类的认知过程都可以认为若干个神经元组成的神经网络在一定机制下经由复杂映射产生的结果。
从神经元的基本功能出发,采用自下而上的设计方法,从简单到复杂,也是实现拟合算法的一条高效途径。
1.1什么是人工神经网络人工神经网络(Artificial Neural Network,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。
在工程与学术界也常直接简称为神经网络或类神经网络。
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。
每个节点代表一种特定的输出函数,称为激励函数(activation function)。
每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。
网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。
而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
人工神经网络是由大量处理单元互联组成的非线性、自适应信息处理系统。
它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。
人工神经网络具有四个基本特征:(1)非线性非线性关系是自然界的普遍特性。
大脑的智慧就是一种非线性现象。
人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。
具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。
(2)非局限性一个神经网络通常由多个神经元广泛连接而成。
一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。
通过单元之间的大量连接模拟大脑的非局限性。
模式识别大作业(总21页)--本页仅作为文档封面,使用时请直接删除即可----内页可以根据需求调整合适字体及大小--作业1 用身高和/或体重数据进行性别分类(一)基本要求:用和的数据作为训练样本集,建立Bayes分类器,用测试样本数据对该分类器进行测试。
调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。
具体做法:1.应用单个特征进行实验:以(a)身高或者(b)体重数据作为特征,在正态分布假设下利用最大似然法或者贝叶斯估计法估计分布密度参数,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到测试样本,考察测试错误情况。
在分类器设计时可以考察采用不同先验概率(如对, 对, 对等)进行实验,考察对决策规则和错误率的影响。
图1-先验概率:分布曲线图2-先验概率:分布曲线图3--先验概率:分布曲线图4不同先验概率的曲线有图可以看出先验概率对决策规则和错误率有很大的影响。
程序:和2.应用两个特征进行实验:同时采用身高和体重数据作为特征,分别假设二者相关或不相关(在正态分布下一定独立),在正态分布假设下估计概率密度,建立最小错误率Bayes分类器,写出得到的决策规则,将该分类器应用到训练/测试样本,考察训练/测试错误情况。
比较相关假设和不相关假设下结果的差异。
在分类器设计时可以考察采用不同先验概率(如 vs. , vs. , vs. 等)进行实验,考察对决策和错误率的影响。
训练样本female来测试图1先验概率 vs. 图2先验概率 vs.图3先验概率 vs. 图4不同先验概率对测试样本1进行试验得图对测试样本2进行试验有图可以看出先验概率对决策规则和错误率有很大的影响。
程序和3.自行给出一个决策表,采用最小风险的Bayes决策重复上面的某个或全部实验。
W1W2W10W20close all;clear all;X=120::200; %设置采样范围及精度pw1=;pw2=; %设置先验概率sample1=textread('') %读入样本samplew1=zeros(1,length(sample1(:,1)));u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布figure(1);subplot(2,1,1);plot(X,y1);title('F身高类条件概率分布曲线');sample2=textread('') %读入样本samplew2=zeros(1,length(sample2(:,1)));u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布subplot(2,1,2);plot(X,y2);title('M身高类条件概率分布曲线');P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);figure(2);subplot(2,1,1);plot(X,P1);title('F身高后验概率分布曲线');subplot(2,1,2);plot(X,P2);title('M身高后验概率分布曲线');P11=pw1*y1;P22=pw2*y2;figure(3);subplot(3,1,1);plot(X,P11);subplot(3,1,2);plot(X,P22);subplot(3,1,3);plot(X,P11,X,P22);sample=textread('all ') %读入样本[result]=bayes(sample1(:,1),sample2(:,1),pw1,pw2);%bayes分类器function [result] =bayes(sample1(:,1),sample2(:,1),pw1,pw2); error1=0;error2=0;u1=mean(sample1(:,1));m1=std(sample1(:,1));y1=normpdf(X,u1,m1); %类条件概率分布u2=mean(sample2(:,1));m2=std(sample2(:,1));y2=normpdf(X,u2,m2); %类条件概率分布P1=pw1*y1./(pw1*y1+pw2*y2);P2=pw2*y2./(pw1*y1+pw2*y2);for i = 1:50if P1(i)>P2(i)result(i)=0;pe(i)=P2(i);elseresult(i)=1;pe(i)=P1(i);endendfor i=1:50if result(k)==0error1=error1+1;else result(k)=1error2=error2+1;endendratio = error1+error2/length(sample); %识别率,百分比形式sprintf('正确识别率为%.2f%%.',ratio)作业2 用身高/体重数据进行性别分类(二)基本要求:试验直接设计线性分类器的方法,与基于概率密度估计的贝叶斯分离器进行比较。
《模式识别》课程实验线性分类器设计实验一、实验目的:1、掌握Fisher 线性分类器设计方法;2、掌握感知准则函数分类器设计方法。
二、实验内容:1、对下列两种情况,求采用Fisher 判决准则时的投影向量和分类界面,并做图。
12{(2,0),(2,2),(2,4),(3,3)}{(0,3),(2,2),(1,1),(1,2),(3,1)}T T T T T T T T T ωω⎧=⎪⎨=-----⎪⎩ 12{(1,1),(2,0),(2,1),(0,2),(1,3)}{(1,2),(0,0),(1,0),(1,1),(0,2)}T T T T T T T T T T ωω⎧=⎪⎨=-----⎪⎩ 2、对下面的两类分类问题,采用感知准则函数,利用迭代修正求权向量的方法求两类的线性判决函数及线性识别界面,并画出识别界面将训练样本区分的结果图。
12{(1,1),(2,0),(2,1),(0,2),(1,3)}{(1,2),(0,0),(1,0),(1,1),(0,2)}T T T T T T T T T T ωω⎧=⎪⎨=-----⎪⎩ 三、实验原理:(1)Fisher 判决准则投影方向:*112()w w S μμ-=-(2)感知准则函数:()()kT p z Z J v v z ==-∑当k Z为空时,即()0J v ,*v即为所求p四、解题思路:1、fisher线性判决器:A.用mean函数求两类样本的均值B.求两类样本的均值的类内离散矩阵SiC.利用类内离散矩阵求总类内离散矩阵SwD.求最佳投影方向WoE.定义阈值,并求得分界面2、感知准则函数分类器:A.获得增广样本向量和初始增广权向量B.对样本进行规范化处理C.获得解区,并用权向量迭代修正错分样本集,得到最终解区五、实验结果:1、fisher线性判决分类器:条件:取pw1=pw2=0.5,阈值系数为0.5A.第一种情况B.第二种情况2、感知准则函数判决:条件:取步长row为1判决结果:六、结果分析:1、fisher线性判决器中,调整阈值系数时,分界面会随之平行上下移动,通过调整阈值系数的大小,就能比较合理的得到分界面。
BP-ANN分类器设计1.引言从深层意义上看,模式识别和人工智能本质都是在解决如何让用机器模拟人脑认知的过程。
一方面,从需要实现的功能出发,我们可以将目标分解为子功能,采用自定而下的的分解法实现我们需要的拟合算法。
而另一方面,无论人脑多么复杂,人类的认知过程都可以认为若干个神经元组成的神经网络在一定机制下经由复杂映射产生的结果。
从神经元的基本功能出发,采用自下而上的设计方法,从简单到复杂,也是实现拟合算法的一条高效途径。
1.1什么是人工神经网络人工神经网络(Artificial Neural Network,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。
在工程与学术界也常直接简称为神经网络或类神经网络。
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。
每个节点代表一种特定的输出函数,称为激励函数(activation function)。
每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。
网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。
而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
人工神经网络是由大量处理单元互联组成的非线性、自适应信息处理系统。
它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。
人工神经网络具有四个基本特征:(1)非线性非线性关系是自然界的普遍特性。
大脑的智慧就是一种非线性现象。
人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。
具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。
(2)非局限性一个神经网络通常由多个神经元广泛连接而成。
一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。
通过单元之间的大量连接模拟大脑的非局限性。
ANN-BP分类器设计(控制工程XXXXXXXXXX)一、问题表述对“data3.m”数据,用其中一半的数据采用ANN-BP算法设计分类器,另一半数据用于测试分类器性能。
二、方法描述神经网络(Neural Networks,NN)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学系统。
神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习能力,特别适合处理需要同时考虑许多因素和条件的、不精确和模糊的信息处理问题。
BP神经网络的标准学习过程:神经网络在外界输入样本的刺激下,不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。
信号正向传播;若输出层的实际输出与期望的输出(教师信号)不符时,转入反向传播阶段;误差反传,误差以某种形式在各层表示——修正各层单元的权值;依次循环,直到网络输出的误差减少到可接受的程度或者进行到预先设定的学习次数为止。
BP神经网络的标准学习步骤:第一步,网络初始化给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值和最大学习次数M。
第二步,随机选取第k个输入样本及对应期望输出。
第三步,计算隐含层各神经元的输入和输出。
第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数。
第五步,利用隐含层到输出层的连接权值、输出层的偏导数和隐含层的输出计算误差函数对隐含层各神经元的偏导数。
第六步,利用输出层各神经元的偏导数和隐含层各神经元的输出来修正连接权值。
第七步,利用隐含层各神经元的偏导数和输入层各神经元的输入修正连接权。
第八步,计算全局误差。
第九步,判断网络误差是否满足要求。
当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。
否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。
BP神经网络的特点:非线性映射能力:能学习和存贮大量输入-输出模式映射关系,而无需事先了解描述这种映射关系的数学方程。
只要能提供足够多的样本模式对供网络进行学习训练,它便能完成由n 维输入空间到m维输出空间的非线性映射。
泛化能力:当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。
这种能力称为泛化能力。
容错能力:输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。
三、算法实现%------将前半部分数据用作为训练样本,后半部分数据用来检验---------y1=[x1(1:50,1),x1(1:50,2),x1(1:50,3)];y2=[x2(1:45,1),x2(1:45,2),x2(1:45,3)];y3=[x3(1:40,1),x3(1:40,2),x3(1:40,3)];y=[y1;y2;y3];%训练样本的数据Y=y';t=[ones(50,1);-1*ones(45,1);0*ones(40,1)];%神经网络输出的实测值1为1类,-1为2类,0为三类T=t';%--------建立神经网络模型,三个输入层,三个隐层,一个输出层--------net=newff(minmax(Y),[3,1],{'tansig','purelin'},'traingd');%net=newff(minmax(Y),[3,1],{'tansig','logsig'},'traingd');%训练参数,叠代过程,学习率,次数net.trainParam.show=50;%显示训练迭代过程net.trainParam.lr=0.01;%设置学习速率为0.01net.trainParam.epochs=2000;%最大训练次数net.trainParam.goal=1e-4;%训练要求精度z1=[x1(51:100,1),x1(51:100,2),x1(51:100,3)];z2=[x2(46:90,1),x2(46:90,2),x2(46:90,3)];z3=[x3(41:80,1),x3(41:80,2),x3(41:80,3)];z=[z1;z2;z3];%测试数据Z=z';%---------------练习------------------[net,trnet,Y1,E]=train(net,Z,T);%------------------仿真--------------sim(net,Y)四、结果分析比较4.1实验三维数据参考如下:4.2BP神经网络实验数据:4.3设计算法分类器数据(上半部分数据):x1(1,1)=1.8796;x1(1,2)=1.8041;x1(2,1)=2.6801;x1(2,2)=2.7526;x1(3,1)=3.6284;x1(3,2)=1.3313;x1(4,1)=4.7302;x1(4,2)=3.0267;x1(5,1)=5.7865;x1(5,2)=0.3089;x1(6,1)=7.1831;x1(6,2)=2.9453;x1(7,1)=7.2395;x1(7,2)=3.6268;x1(8,1)=8.0763;x1(8,2)=4.9714;x1(9,1)=9.9172;x1(9,2)=3.9551;x1(10,1)=11.7397;x1(10,2)=3.9500;x1(11,1)=12.8685;x1(11,2)=2.4619;x1(12,1)=12.5289;x1(12,2)=3.5313;x1(13,1)=13.3206;x1(13,2)=4.4376;x1(14,1)=15.7457;x1(14,2)=0.9094;x1(15,1)=15.4758;x1(15,2)=5.2898;x1(16,1)=17.2917;x1(16,2)=5.2197;x1(17,1)=18.9338;x1(17,2)=3.7324;x1(18,1)=19.3299;x1(18,2)=2.0778;x1(19,1)=20.7408;x1(19,2)=5.2698;x1(20,1)=20.0199;x1(20,2)=3.5670;x1(21,1)=21.2740;x1(21,2)=4.7658;x1(22,1)=23.6375;x1(22,2)=3.3211;x1(23,1)=23.8603;x1(23,2)=6.1293;x1(24,1)=25.7806;x1(24,2)=1.8003;x1(25,1)=26.4698;x1(25,2)=4.3295;x1(26,1)=27.3746;x1(26,2)=3.1499;x1(27,1)=27.6922;x1(27,2)=6.1123;x1(28,1)=28.3321;x1(28,2)=3.6388;x1(29,1)=29.3112;x1(29,2)=5.5035;x1(30,1)=30.3822;x1(30,2)=2.5172; x1(31,1)=31.8449;x1(31,2)=4.1858; x1(32,1)=33.7120;x1(32,2)=5.0515; x1(33,1)=33.9805;x1(33,2)=4.8947; x1(34,1)=35.6319;x1(34,2)=5.7023; x1(35,1)=35.9215;x1(35,2)=6.1456; x1(36,1)=36.9147;x1(36,2)=3.8067; x1(37,1)=37.9014;x1(37,2)=7.9138; x1(38,1)=38.8244;x1(38,2)=7.3828; x1(39,1)=40.8032;x1(39,2)=7.7581; x1(40,1)=40.0112;x1(40,2)=8.0748; x1(41,1)=41.5948;x1(41,2)=7.5525; x1(42,1)=42.0983;x1(42,2)=5.4144; x1(43,1)=44.3864;x1(43,2)=5.9879; x1(44,1)=45.3002;x1(44,2)=7.9712; x1(45,1)=46.9660;x1(45,2)=7.7468; x1(46,1)=47.1053;x1(46,2)=5.5875; x1(47,1)=47.8001;x1(47,2)=5.9673; x1(48,1)=48.3976;x1(48,2)=7.1165; x1(49,1)=50.2504;x1(49,2)=8.0479; x1(50,1)=51.4667;x1(50,2)=8.6202; x1(51,1)=49.7518;x1(51,2)=11.0474; x1(52,1)=48.0198;x1(52,2)=9.7412; x1(53,1)=47.8397;x1(53,2)=8.6673; x1(54,1)=47.5073;x1(54,2)=9.6810; x1(55,1)=46.5877;x1(55,2)=10.5484; x1(56,1)=45.8399;x1(56,2)=8.6472; x1(57,1)=44.6894;x1(57,2)=12.2699; x1(58,1)=42.7355;x1(58,2)=13.1906; x1(59,1)=42.2416;x1(59,2)=11.6802; x1(60,1)=41.4626;x1(60,2)=9.1437; x1(61,1)=39.3878;x1(61,2)=13.3631; x1(62,1)=39.8096;x1(62,2)=12.6606; x1(63,1)=38.1384;x1(63,2)=13.4300; x1(64,1)=37.2636;x1(64,2)=10.7010; x1(65,1)=35.4688;x1(65,2)=12.6869; x1(66,1)=35.0976;x1(66,2)=12.7679; x1(67,1)=34.8632;x1(67,2)=12.0533; x1(68,1)=32.6704;x1(68,2)=15.7258; x1(69,1)=32.3111;x1(69,2)=16.0957; x1(70,1)=30.7838;x1(70,2)=14.5081; x1(71,1)=30.2546;x1(71,2)=17.3737; x1(72,1)=29.3982;x1(72,2)=13.6487; x1(73,1)=27.7944;x1(73,2)=17.5663;x1(75,1)=26.3104;x1(75,2)=15.9892; x1(76,1)=25.6752;x1(76,2)=17.1196; x1(77,1)=23.7432;x1(77,2)=19.0045; x1(78,1)=22.8505;x1(78,2)=17.6571; x1(79,1)=22.1893;x1(79,2)=15.8862; x1(80,1)=21.1315;x1(80,2)=16.5870; x1(81,1)=20.4331;x1(81,2)=15.9183; x1(82,1)=19.0226;x1(82,2)=17.5691; x1(83,1)=18.5528;x1(83,2)=17.2806; x1(84,1)=16.9787;x1(84,2)=17.6517; x1(85,1)=15.3718;x1(85,2)=18.4702; x1(86,1)=15.4013;x1(86,2)=15.8341; x1(87,1)=14.9654;x1(87,2)=17.0939; x1(88,1)=13.6133;x1(88,2)=18.5902; x1(89,1)=12.4071;x1(89,2)=16.4305; x1(90,1)=10.9699;x1(90,2)=18.6493; x1(91,1)=9.2292;x1(91,2)=16.7441; x1(92,1)=9.3297;x1(92,2)=18.4027; x1(93,1)=7.7307;x1(93,2)=17.9292; x1(94,1)=6.2801;x1(94,2)=17.6374; x1(95,1)=6.1335;x1(95,2)=17.9167; x1(96,1)=5.6460;x1(96,2)=19.7987; x1(97,1)=4.3479;x1(97,2)=16.6548; x1(98,1)=3.9989;x1(98,2)=16.7955; x1(99,1)=2.9233;x1(99,2)=16.1468; x1(100,1)=0.1177;x1(100,2)=16.4696;4.4验证数据(下半部分数据):x2(1,1)=18.0917;x2(1,2)=10.7906;x2(2,1)=20.8946;x2(2,2)=7.9302;x2(3,1)=27.0622;x2(3,2)=11.5962;x2(4,1)=5.5730;x2(4,2)=9.4899;x2(5,1)=26.7574;x2(5,2)=11.8636;x2(6,1)=16.7292;x2(6,2)=9.3432;x2(7,1)=19.0151;x2(7,2)=12.4156;x2(8,1)=24.3078;x2(8,2)=11.8160;x2(9,1)=22.4947;x2(9,2)=10.3850;x2(10,1)=9.3145;x2(10,2)=9.4613;x2(11,1)=9.9780;x2(11,2)=10.4605; x2(12,1)=22.4415;x2(12,2)=9.6565; x2(13,1)=13.5368;x2(13,2)=9.8577; x2(14,1)=9.2123;x2(14,2)=11.2597; x2(15,1)=16.8452;x2(15,2)=8.5662; x2(16,1)=16.6143;x2(16,2)=8.5577;x2(18,1)=12.3410;x2(18,2)=8.6917; x2(19,1)=20.7440;x2(19,2)=7.3164; x2(20,1)=7.5386;x2(20,2)=11.5666; x2(21,1)=26.8886;x2(21,2)=9.5218; x2(22,1)=22.9919;x2(22,2)=7.1799; x2(23,1)=17.3493;x2(23,2)=9.2897; x2(24,1)=18.8619;x2(24,2)=9.7411; x2(25,1)=13.5521;x2(25,2)=5.7984; x2(26,1)=12.7381;x2(26,2)=7.5564; x2(27,1)=21.2411;x2(27,2)=6.7318; x2(28,1)=24.4092;x2(28,2)=11.9952; x2(29,1)=26.6712;x2(29,2)=9.7442; x2(30,1)=18.2293;x2(30,2)=12.0030; x2(31,1)=22.6769;x2(31,2)=11.0067; x2(32,1)=30.7391;x2(32,2)=10.8611; x2(33,1)=32.5980;x2(33,2)=8.7771; x2(34,1)=16.7562;x2(34,2)=10.5129; x2(35,1)=32.4282;x2(35,2)=7.6007; x2(36,1)=18.0425;x2(36,2)=8.6968; x2(37,1)=14.7803;x2(37,2)=8.8055; x2(38,1)=22.3809;x2(38,2)=10.3572; x2(39,1)=18.6982;x2(39,2)=6.7692; x2(40,1)=25.9816;x2(40,2)=7.5022; x2(41,1)=22.9529;x2(41,2)=10.3560; x2(42,1)=9.6995;x2(42,2)=12.6448; x2(43,1)=0.8253;x2(43,2)=10.6597; x2(44,1)=22.2435;x2(44,2)=9.2030; x2(45,1)=12.9460;x2(45,2)=9.9126; x2(46,1)=24.4483;x2(46,2)=10.1399; x2(47,1)=28.4938;x2(47,2)=13.5242; x2(48,1)=13.1255;x2(48,2)=9.8689; x2(49,1)=25.0474;x2(49,2)=11.6899; x2(50,1)=19.9509;x2(50,2)=9.8567; x2(51,1)=15.4784;x2(51,2)=8.5583; x2(52,1)=28.4445;x2(52,2)=10.5570; x2(53,1)=15.9001;x2(53,2)=11.8933; x2(54,1)=26.3668;x2(54,2)=7.0044; x2(55,1)=28.5033;x2(55,2)=8.0366; x2(56,1)=6.4663;x2(56,2)=9.6549; x2(57,1)=36.6973;x2(57,2)=10.8341; x2(58,1)=27.1367;x2(58,2)=8.3365; x2(59,1)=25.3004;x2(59,2)=8.8306; x2(60,1)=14.3970;x2(60,2)=11.1212;x2(62,1)=10.7689;x2(62,2)=11.8858; x2(63,1)=11.3941;x2(63,2)=11.5540; x2(64,1)=13.6303;x2(64,2)=8.8437;x2(65,1)=22.5345;x2(65,2)=11.1880; x2(66,1)=30.0558;x2(66,2)=12.3294; x2(67,1)=27.0878;x2(67,2)=10.5662; x2(68,1)=16.0525;x2(68,2)=11.5472; x2(69,1)=5.9346;x2(69,2)=10.2316;x2(70,1)=20.4220;x2(70,2)=10.0298; x2(71,1)=14.5875;x2(71,2)=9.8690;x2(72,1)=8.3235;x2(72,2)=8.2102;x2(73,1)=21.6882;x2(73,2)=8.6548;x2(74,1)=22.4873;x2(74,2)=9.9445;x2(75,1)=24.1396;x2(75,2)=11.7790; x2(76,1)=17.4024;x2(76,2)=8.9218;x2(77,1)=16.4952;x2(77,2)=12.6580; x2(78,1)=17.7652;x2(78,2)=8.5352;x2(79,1)=17.9541;x2(79,2)=11.1611; x2(80,1)=20.3055;x2(80,2)=7.6421;x2(81,1)=29.1058;x2(81,2)=8.4386;x2(82,1)=19.7172;x2(82,2)=9.1464;x2(83,1)=22.9040;x2(83,2)=10.4004; x2(84,1)=31.4804;x2(84,2)=13.3684; x2(85,1)=16.9647;x2(85,2)=10.1980; x2(86,1)=23.3807;x2(86,2)=9.2596;x2(87,1)=20.7638;x2(87,2)=10.9202; x2(88,1)=13.9053;x2(88,2)=7.8416;x2(89,1)=3.7968;x2(89,2)=9.8266;x2(90,1)=4.7264;x2(90,2)=10.8025;x2(91,1)=16.9223;x2(91,2)=9.4675;x2(92,1)=15.3344;x2(92,2)=9.6976;x2(93,1)=16.5509;x2(93,2)=10.3232; x2(94,1)=10.5063;x2(94,2)=10.7580; x2(95,1)=20.3627;x2(95,2)=13.0198; x2(96,1)=20.2478;x2(96,2)=13.5945; x2(97,1)=14.6817;x2(97,2)=11.2545; x2(98,1)=23.5466;x2(98,2)=7.5405;x2(99,1)=9.1412;x2(99,2)=10.6535;x2(100,1)=12.6591;x2(100,2)=8.9793; x2(101,1)=17.4900;x2(101,2)=8.1205; x2(102,1)=11.2094;x2(102,2)=11.2549; x2(103,1)=26.3995;x2(103,2)=10.8712; x2(104,1)=27.9677;x2(104,2)=9.6512;x2(106,1)=10.5738;x2(106,2)=8.4045;x2(107,1)=22.9527;x2(107,2)=6.6876;x2(108,1)=3.6603;x2(108,2)=7.0692;x2(109,1)=15.7903;x2(109,2)=7.8872;x2(110,1)=38.2151;x2(110,2)=9.2523;4.5实验结果分析:实验中前半部分数据用作为训练样本,后半部分数据用来检验,即训练样本中前50个数据属于一类,中间45个属于二类,后40个属于三类。