状态反馈的人工神经网络的学习算法
- 格式:docx
- 大小:191.79 KB
- 文档页数:8
人工神经网络学习总结笔记主要侧重点:1.概念清晰2.进行必要的查询时能从书本上找到答案第一章:绪论1.1人工神经网络的概述“认识脑”和“仿脑”:人工智能科学家在了解人脑的工作机理和思维的本质的基础上,探索具有人类智慧的人工智能系统,以模拟延伸和扩展脑功能。
我认为这是人工神经网络研究的前身。
形象思维:不易被模拟人脑思维抽象推理逻辑思维:过程:信息概念最终结果特点:按串行模式人脑与计算机信息处理能力的不同点:方面类型人脑计算机记忆与联想能力可存储大量信息,对信息有筛选、回忆、巩固的联想记忆能力无回忆与联想能力,只可存取信息学习与认知能力具备该能力无该能力信息加工能力具有信息加工能力可认识事物的本质与规律仅限于二值逻辑,有形式逻辑能力,缺乏辩证逻辑能力信息综合能力可以对知识进行归纳类比和概括,是一种对信息进行逻辑加工和非逻辑加工相结合的过程缺乏该能力信息处理速度数值处理等只需串行算法就能解决的应用问题方便,计算机比人脑快,但计算机在处理文字图像、声音等类信息的能力远不如人脑1.1.2人脑与计算机信息处理机制的比较人脑与计算机处理能力的差异最根本的原因就是信息处理机制的不同,主要有四个方面方面类型人脑计算机系统结构有数百亿神经元组成的神经网络由二值逻辑门电路构成的按串行方式工作的逻辑机器信号形式模拟量(特点:具有模糊性。
离散的二进制数和二值逻辑容易被机器模拟的思维方式难以被机器模拟)和脉冲两种形式形式信息储存人脑中的信息分布存储于整个系统,所存储的信息是联想式的有限集中的串行处理机制信息处理机制高度并行的非线性信息处理系统(体现在结构上、信息存储上、信息处理的运行过程中)1.1.3人工神经网络的概念:在对人脑神经网络的基本认识的基础上,用数理方法从信息处理的角度对人脑神经网络进行抽象,并建立某种简化模型,称之为人工神经网络,是对人脑的简化、抽象以及模拟,是一种旨在模仿人脑结构及其功能的信息处理系统。
其他定义:由非常多个非常简单的处理单元彼此按某种方式相互连接而形成的计算系统,外部输入信息之后,系统产生动态响应从而处理信息。
《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的H适应、非线性、动力学系统。
2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。
3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。
4、神经网络研究的发展大致经过了四个阶段。
5、网络稳定性指从t=0时刻初态开始,至Ut时刻后v(t+^ t)=v (t),(t>0),称网络稳定。
6、联想的形式有两种,它们分是自联想和异联想。
7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。
8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。
9、神经元分兴奋性神经元和抑制性神经元。
10、汉明距离指两个向量中对应元素不同的个数。
二、简答题1、人工神经元网络的特点答:(1)、信息分布存储和容错性。
(2)、大规模并行协同处理。
(3)、自学习、自组织和自适应。
(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
2、单个神经元的动作特征有哪些答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。
3、怎样描述动力学系统答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。
4、F(x)与x的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态答:在图(1)中,有两个平衡状态a、b,其中,在a点曲线斜率下凶|>1,为非稳定平稳状态;在b点曲线斜率下凶|<1, 为稳定平稳状态。
在图(2)中,有一个平稳状态a,且在该点曲线斜率|F'(X)|>1,为非稳定平稳状态。
神经网络一、填空题1、神经元(即神经细胞)是由、、和四部分构成。
2、按网络结构分,人工神经元细胞可分为和,按照学习方式分可分为和。
3、人工神经网络常见的输出变换函数有和。
4、人工神经网络的学习规则有、和。
5、国内外学者提出了许多面向对象的神经网络控制结构和方法,从大类上看,较具代表性的有以下几种、和。
6、在一个神经网络中,常常根据处理单元的不同处理功能,将处理单元分成有以下三种、和。
7、在一个神经网络中,基本单元神经元的三个基本要素是、二、选择题1、一般认为,人工神经网络(ANN)适用于()A、线性系统B、多变量系统C、多输入多输出系统D、非线性系统2、最早提出人工神经网络思想的学者是()A、McCulloch-PittsB、HebbC、Widrow-HoffD、Rosenblatt3、神经元模型一般为()A、单输入多输出B、多输入单输出C、单输入单输出D、多输入多输出三、简答题1、简述神经网络的特点。
2、试画出一个2-3-5-2 BP网络的结构图,说明节点函数。
3、简要说明多层感知器的结构和学习算法。
4、前馈型神经网络有什么特点?哪些结构的神经网络属于前馈神经网络?5、简要说明典型的人工神经元模型。
6、神经网络控制系统的结构形式有哪些?7、什么是感知器?8、神经网络的基本属性是什么?9、试画出BP网络的结构图,并说明其特点。
10、给出典型的神经元模型。
11、人工神经网络有哪些学习方法?简述之。
12、试画出5输入、3个输出、蕴含层有10个神经元的3层BP网络,并说明BP 网络的优点。
13、BP基本算法的优缺点。
14、人工神经元网络的拓扑结构主要有哪几种?15、BP基本算法的优缺点。
1617、试论述对BP181920212223并适合什么样的网29、反馈神经网络的拓扑结构有什么特点?哪些神经网络属于反馈神经网络?30、什么是神经网络控制?其基本思想是什么?31、神经网络控制系统可以分为哪几类?举例说明三种神经网络控制系统的结构。
状态反馈的人工神经网络的学习算法 摘要:递归神经网络的大多数研究和应用主要集中在单位反馈递归神经网络上面,这个系统的动态过程通常是由动态反馈所决定,所以很难控制它的动态过程,也因此它的应用收到了很大的限制。
递归反馈系数隐含着神经网络的动态性能,不同的状态反馈系数意味着不同的动态性能,也因此,对于神经网络的状态反馈有着奇迹重要的理论意义和应用价值。
对于这个缺点,我们提出了一种由状态反馈动态进化神经元的模型和由状态反馈神经元与学习算法组成的系统。
对于这种神经网络,它的静态质量提供了神经网络的静态表征,而状态反馈系数则表明了神经网络的动态性能。
不仅静态质量可以通过学习静态知识得到更正,动态反馈系数也可以在动态知识的学习中的到更正。
它不仅可以学习静态知识,也可以学习动态知识。
不仅可以记忆静态信息,也可以记忆动态信息。
它成为了一个真正的具有动态特征的神经网络。
在本文最后我们以定理的形式列举了此递归神经网络的静态质量和动态递归系数学习算法。
关键词:人工神经网络;学习算法;状态反馈 一、概述人工神经网络理论主要研究人工神经网络的构造、学习算法和机遇生物神经系统工作原理的聚合。
早期的神经网络结构是单一的,学习算法是简单的,表意也是清楚的。
它已经被广泛深入的学习。
早期的神经网络所确定的关系通常是输入与输出的静态关系,而实际上,所有控制对象的应用通常都是动态的。
因此实际上静态神经网络模型无法描述系统的动态表征。
能够描述动态表征的神经网络应该包含动态系数并且能够储存动态信息。
为了实现这个功能,系统里通常会有延时反馈或者信息反馈,这种系统被称作递归神经系统或者状态反馈神经系统。
递归神经系统已经成为一个广泛研究的课题。
递归神经系统演化过程的定量研究是一个重大的课题。
近年来,许多学者应用非线性动态系统的递归神经网络建立数学模型。
系统的输出仅仅由动态系统的条件和外部输入决定,递归神经网络本身将是一个非线性的动态系统,因此,学习它的状态演变是非常必要的。
递归系数意味着神经系统的动态表征,而不同的递归系数意味着不同的动态过程。
它决定着动态神经系统的响应形式。
然而,到目前为止在应用中,反馈递归神经系统通常以常系数1进行循环,也就是单位递归神经系统。
如果用递归神经系统来达到动态系统过程,一个简单的方法就是转变动态途径变为景泰途径。
研究表明,前馈神经系统的学习算法仍然被用于反馈递归神经系统的学习算法。
进过训练,神经系统的输出被反馈单元反馈到输入端以实现迭代预测。
这使得递归神经系统的应用变得十分的局限。
因此,反馈递归神经系统及其性能变得具有十分重大的理论意义和应用价值。
如何设计一个简单的结构而得到一个明确的神经网络的物理意义就变成了一项十分具有挑战性的工作。
为此,我们设计了一种具有不同动态反馈系数的动态过程神经网络,以使得神经网络不仅能够学习静态知识,也能学习动态知识;不仅能够记忆静态信息,也能够记忆动态信息。
这是一种真正的动态特性神经网络。
二、状态反馈动态神经模型神经元模型直接与神经网络的性能有关。
从不同方向输入的神经元递归输入信号经过了空间和时间的加权变成了神经元函数s()t 。
最后通过非线性转换完成非线性变换。
神经元模型在神经网络性能中扮演着重要的角色,它可以直接的显示神经系统的动态性能,因此,一个合理的神经元模型是必须的。
图1所示为状态反馈的动态神经元模型。
根据神经元的时间和空间特性,它的函数可以表示为:s()()()()(1)()ni i t w t x t t s t b t λ=+--∑(1)此处,()i x t 是神经元的第i 次输入,()i w t 是第i 次输入加权,()t λ是状态反馈,此时神经元输出为:()(())y t f s t = (2)为了方便书写,神经元临界值()b t 可以被写成加权数0()w t ,输入0()x t 为常数-1,这样方程(1)可以被写成:s()()()()(1)ni i i t w t x t t s t λ==+-∑(3)由此可见,加权函数()i w t 表示着神经元的静态特性,我们可以叫它静态权重。
状态反馈函数()t λ表示着神经元的动态表现,称作动态反馈系数。
这个神经模型不仅能够显示神经元的静态记忆特性,也可以表示动态演变性能。
这个模型称作状态反馈神经元模型。
三、状态反馈神经元模型神经系统处理信息的能力不仅与神经元性能有关,还与神经系统的构造有关,后者直接决定着神经系统的性能。
因此,神经系统的结构研究是十分必要的。
状态反馈神经模型依照信息流动的方向与网络结合。
为了方便计算,假设不同的层面上没有信息传递,这样,具有不同反馈系数的前反馈神经系统模型就可以建立起来,如图2所示。
假设状态反馈神经系统模型输入模式向量是12()((),(),...,())T n u t u t u t u t =,动态方程状态向量为12()((),(),...,())Tp s t s t s t s t =,反馈系数向量为12()((),(),...,())Tp t t t t λλλλ=,隐藏的输出模式向量为12()((),(),...,())Tp x t x t x t x t =;输出模式向量为12()((),(),...,())Tm y t y t y t y t =;从输入到隐藏的加权矩阵为{()},1,2,...,,1,2,...,ji w t i n j p ==,从隐藏函数到输出的加权矩阵为{()},1,2,...,,1,2,...,kj w t j p k m ==,隐藏函数的神经元极值为{()},1,2,...,j b t j p =;输出极值为{()},1,2,...,k b t k m =。
四、状态反馈神经系统的学习算法人工神经网络处理信息的性能不仅与结构有关,还与神经元的加权参数,神经元的活跃方程等等有关。
如果神经网络的机构相同而参量不同,也可以显示出不同的特性。
通常来说,一旦神经网络的结构和活跃方程确定了,神经网络的性能就主要决定于神经元的关系参数。
神经元参数可以从学习外部环境中得到,在应用中也是会产生变化的。
这就需要对神经系统的学习算法进行研究了 A 、前转换过程当状态反馈神经系统输入层面的神经元接收到输入信号时,输入信号进入输入层,一层一层的到达输出层面。
当输入新号转换到第一级隐藏层是,在第一级隐藏层的低j 个神经元的所有输入累积为:1111111s ()()()()()(1)njji i j j j i t w t x t b t t s t λ==-+-∑ (4)第一级隐藏层的第j 个神经元的响应为:112()(())()j j j y t f s t x t ==(5)此处,1()ji w t 是与第一层第j 个神经元和第i 个输入有关的加权系数,上标1代表第一层,下标j 代表第j 个神经元,下标i 代表第i 个输入信号,()j t λ代表第j 个神经元的状态反馈系数。
在第k-1层,第j 个神经元的输入累积是:1s ()()()()()(1)nk k k k k kjji i j j j i t w t x t b t t s t λ==-+-∑ (6)它的输出为:1()(())()k k k j j j y t f s t x t +==(7)(m-1)层的输入为:1111111s()()()()()(1)nm m m m m m jji i j j ji t w t x t b t t s t λ------==-+-∑ (8)输出为:112()(())()m m m j j jy t f s t x t ---== (9)输出层面第k 个神经元的输入累加为:1s ()()()()()(1)nm m m m m m jji i j j j i t w t x t b t t s t λ==-+-∑ (10)输出为:()(()),1,2,...,m mj j y t f s t k m == (11)输入信号传输是输入型号逐层的经过神经元最后到达输出层并在神经元中形成响应的过程。
B 、状态反馈神经系统学习从神经系统信号传递的过程我们可以看到神经系统输出是一个机遇输入信号()i u t ,加权函数()ji w t 和状态反馈函数()j t λ的一个方程。
如果输入信号不变,系统的加权函数()ji w t 和状态反馈函数()j t λ进行调整,那么系统的输出将会随着变化。
因此,加权函数()ji w t 和状态反馈函数()j t λ可以进行调整以改进系统的性能,使得系统的性能达到预期的要求。
他们的不同在于,加权函数用来调整系统的静态特征而状态反馈函数用来调整系统的动态性能。
学习算法在研究最小误差性能方程中是必须的。
此算法中应用的方法是非线性过程的变形下调,也就是,权重可以被负斜率误差方程进行更正。
为了说明误差斜率算法,首先,定义期望输出值()m k d t 与真实输出值()mk y t 差的平方和为误差性能方程()E t ,表示为:22111()(()())()()22m m m k k k E t d t y t d t y t ==-=-∑(12)此处,()m k d t 输出层m 中的第k 个神经元的期望输出值,是一个指导信号;()mk y t 是第k个神经元的输出值。
误差性能方程()E t 随着关联权重而呈梯度下降的改变,这时对于输出()mk y t 误差()E t 的局部导数要求随着误差梯度下降而改变。
将误差()E t 定义扩大到隐藏层,就有:21211()(()()){()22(()...(()()()(1))...()(1))}m m mm k k k k pnm k k k k m m kj ji i j j k k j i E t d t y t d t f w t f w t x t t s t t s t λλ====-=-+-++-∑∑∑ (13)由此我们可以看到,神经网络输出误差是一个权重()kkj w t 和状态反馈()k i t λ的方程,所以权重()kkj w t 和状态反馈()k i t λ的调整时改变系统误差()E t 的方法。
很显然,静态权重和状态反馈系数可以进行调整,目标是减小实际输出值和期望输出值的误差。
因此,静态权重和状态反馈系数可以进行调整,以使得其改变与误差的负梯度成比例。
也就是:()()()()k ji k ji E t w t t w t η∂∆=-∂(14)()()()()k j kj E t t t t λβλ∂∆=-∂ (15)此处,负号表明梯度下降,系数()(0,1)t η∈和()(0,1)t β∈是比例系数,就是在训练中的学习效率。
由此我们可以看到状态反馈神经系统学习算法属于Delta 学习方法,通常被称作误差梯度下降算法。