当前位置:文档之家› 人工神经网络复习题解读

人工神经网络复习题解读

人工神经网络复习题解读
人工神经网络复习题解读

《神经网络原理》

一、填空题

1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。

2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。

3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。

4、神经网络研究的发展大致经过了四个阶段。

5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。

6、联想的形式有两种,它们分是自联想和异联想。

7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。

8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。

9、神经元分兴奋性神经元和抑制性神经元。

10、汉明距离指两个向量中对应元素不同的个数。

二、简答题

1、人工神经元网络的特点?

答:(1)、信息分布存储和容错性。

(2)、大规模并行协同处理。

(3)、自学习、自组织和自适应。

(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂

的非线性动力学特性。

(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。

2、单个神经元的动作特征有哪些?

答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。

3、怎样描述动力学系统?

答:对于离散时间系统,用一组一阶差分方程来描述:

X(t+1)=F[X(t)];

对于连续时间系统,用一阶微分方程来描述:

dU(t)/dt=F[U(t)]。

4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?

答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。

在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。

X F(X)

0 a b (1) X F(X) 0 a (2)

5、对于单个神经元的离散模型,Hebb 学习假设是什么,基本学习方程是什么?

答:对于单个神经元的离散模型,Hebb 学习假设是:只有当神经元兴奋时,与其连接的突触结合权才被强化而增大;当两个神经元同时处于兴奋状态时,它们之间的连接权应该加强。 基本学习方程是:j i ij ij ij x y n w n w w η=-+=?)()1(

6、联想形式中的自联想和异联想有何区别?

答:自联想指的是由某种代表事物(或该事物的主要特征或可能是部分主在特征)联想到其所表示的实际事物。其数学模型为:当输入X =X0+V 时,输出Y=X0。异联想指的是由某一事物(或该事物的主要特征或可能是部分主在特征)联想到与其相关的另一事物。其数学模型为:在映射X0→Y0下,当输入X =X0+V 时,输出Y=Y0。

7、网络的稳定吸引子和吸引子的吸引域分别指什么?

答:当t=0时,对网络输入模式x ,网络处于状态v(0),到时刻t 网络达到状态v(t),若v(t)稳定,则称v(t)为网络的稳定吸引子。 吸引子的吸引域是指所有经过一定时间能够稳定在吸引子v(t)上的所有初始状态的集合。

三、论述题

1、 前馈式神经元网络与反馈式神经元网络有何不同?

答:(1)、前馈型神经元网络取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系。

反馈式神经元网络可以用离散变量也可以用连续取值,考虑输出与输入之间在时间上和延迟,需要用动态方程来描述系统的模型。

(2)、前馈型网络的学习主要采用误差修正法(如BP 算法),计算过程一般比较慢,收敛速度也比较慢。而反馈型网络主要采用Hebb 学习规则,一般情况下计算的收敛速度很快。

反馈网络也有类似于前馈网络的应用,例如用作联想记忆或分类,而在优化计算方面的应用更能显出反馈网络的特点。

2、 试述离散型Hopfield 神经元网络的结构及工作原理。

(1) Hopfield 神经元网络的结构如下:

① 这种网络是一种单层网络,由n 个单元组成。

②每个神精元既是输入单元,又是输出单元;各节点一般选用相同的转移函数,且为符号函数,即: ③ 为网络的输入; 为网络的输出; 为网络在时刻t 的状态,其中t ∈{0,1,2,···} 为离散时间变量。

④Wij 为从Ni 到Nj 的连接权值,Hopfield 网络为对称的即有Wij = Wji 。

)

sgn()()()(21x x f x f x f n ==== {}n

n

y y y y y 1,1),,,,(21+-∈= {}n

n t v t v t v t v t v 1,1)()),(,),(),(()(21+-∈= {}n

n x x x x x 1,1),,,,(21+-∈=

(2)、工作原理:

①、网络经过训练后,可以认为网络处于等待工作状态,对网络给定初始输入x 时,网络就处于特定的初始状态,由此初始状态开始运行,可以得到网络的下一个输出状态。

②、这个输出状态通过反馈回送到网络的输入端,作为网络下一个阶段的输入信号,这个输入信号可能与初始输入信号不同,由这个新的输入又可得到下一步的输出,如此重复。

③、如果网络是稳定的,经过若干次反馈运行后网络将会达到稳态。

④、Hopfield 网络的工作过程可用下式表示:

N 1

N 2 N n-1 N n

x 1 x 2 x n-1 x n

y 1 y 2 Y n-1 y n

V 1(t) V 2(t) V n-1(t) V n (t) w 21

W n-1 2

))(()1()0(1j

n i i ij j j j j t v w f t v x v θ-∑=+==

研究生神经网络试题A 卷参考答案 一、名词解释(共5题,每题5分,共计25分)

1、泛化能力

答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。

2、有监督学习

答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。

3、过学习

答:过学习(over-fitting ),也叫过拟和。在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC 维太大,所以期望风险仍然很高。也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。典型的过学习是多层前向网络的BP 算法

4、Hebb 学习规则

答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。如

果用i v 、j v 表示神经元i 和j 的激活值(输出),

ij ?表示两个神经元之间的连接权,则Hebb 学习规则可以表示为: ij i j w v v α?= ,这里α表示学习速率。Hebb 学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb 学习规则的变形。

5、自学习、自组织与自适应性

答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力

方面的特征是神经网络的自学习、自组织与自性适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。

二、问答题(共7题,每题8分,共计56分)

3、人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?

答; 1.单元上的差别对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。而人工神经元则忽略了这些影响,输入、输出关系十分简单。

2.信息上的差别生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。

3.规模与智能上的差别目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。

4、感知器神经网络存在的主要缺陷是什么?

答: 1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;

2)感知器仅能够线性地将输入矢量进行分类。理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;

3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。

5、请比较前馈型神经网络与反馈型神经网络的异同点。(8分)

答:前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神

经网络是一个非线性动力学系统。

(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。

(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。

(3)两者都有局部极小问题。

6、BP算法的基本思想是什么,它存在哪些不足之处?(9分)

答:BP算法(即反向传播法)的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。

1)正向传播:输入样本->输入层->各隐层(处理)->输出层

注1:若输出层实际输出与期望输出(教师信号)不符,则转入2)(误差反向传播过程)

2)误差反向传播:输出误差(某种形式)->隐层(逐层)->输入层

其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。注2:权值调整的过程,也就是网络的学习训练过程(学习也就是这么的由来,权值调整)。

虽然BP算法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定上。具体说明如下:

1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;

BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。

2)训练次数多使得学习效率低下,收敛速度慢(需做大量运算);

对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。这主要是由于学习速率太小所造成的。可采用变化的学习速率或自适应的学习速率来加以改进。

3)隐节点的选取缺乏理论支持;

4)训练时学习新样本有遗忘旧样本趋势

1、人工神经网络:在对人脑神经网络基本认识的基础上,用数理方法从信息处理的角度对

人脑神经网络进行抽象,并建立某种简化模型,就称为人工神经网络。

2、自适应:自适应性是指一个系统能改变自身的性能以适应环境变化的能力。

3、自学习:当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。

4、自组织:神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络,这一构建过程称为网络的自组织。

5、泛化能力:BP 网络训练后将所提取的样本对中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。

6、模式:模式是对某些感兴趣的客体的定量描述或结构描述,模式类是具有某些共同特征的模式的集合

7、分类:分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。

8、聚类:无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开,其结果实现了模式样本的类内相似性和类间分离性。

9、死节点:在训练过程中,某个节点从未获胜过且远离其他获胜节点,因此它们的权向量从未得到过调整。

10、网络吸引子:若网络的状态)(f T WX X -=,则成称X 为网络的吸引子。

11、人工神经网络发展阶段及标志:可分为四个时期:启蒙时期开始于1890年W.James 关于人脑结构与功能的研究,结束于1969年Minsky 和Papert 出版的《感知器》一书;低潮时期开始于1969年,结束于1982年Hopfield 发表的著名的文章《神经网络和物理系统》;复兴时期开始于J.J.Hopfield 的突破性研究论文,结束与1986年 D.E.Rumelhart 和J.L.McClelland 领导的研究小组编写出版的《并行分布式处理》一书。高潮时期以1987年首届国际神经网络学术会议为开端,迅速在全世界范围内掀起人工神经网络的研究应用热潮。

12、神经网络的基本特征:结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算、存储与处理一体化的特点。而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。能力方面的特征是神经网络的自学习、自组织和自适应性。自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习和自组织两层含义。自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。

13、人脑神经元的基本结构与功能:神经元在结构上由细胞体、树突、轴突和突触四部分组成 功能:细胞体:处理信息的功能 树突:输入信息 轴突:输出信息 突触:传递信息的节点

14、人脑信息传递过程:

突触前 突触间隙 突触后

15、BP 网络的主要能力是什么?

神经 电脉冲 神经递质产生 神经递质释

递质与受体结合 电生理反应

答:1、非线性映射能力2、泛化能力3、容错能力

16、BP 算法的缺陷及改进方案

BP 算法的缺陷

①易形成局部极小而得不到全局最优;

②训练次数多,使得学习效率低,收敛速度慢;

③隐节点的选取缺乏理论指导;

④训练时学习新样本有遗忘旧样本的趋势。

改进方案:

1 增加动量项

2 自适应调节学习率

3 引入陡度因子

17、对输入、输出数据进行尺度变换的主要原因是什么?

①网络的各个输入数据常常具有不同的物理意义和不同的量纲,如某输入分量在510

1~0?范围内变化,而另一输入分量则在5-101~0?范围内变化。尺度变换使所有分量都在1~0或

1~1-之间变化,从而使网络训练一开始就给各输入分量以同等重要的地位;②BP 网的神经元均采用Sigmoid 转移函数,变换后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区;③Sigmoid 转移函数的输出在1~0或1~1-之间,作为教师信号的期望输出数据如不进行变换处理,势必使数值大的分量绝对误差大,数值小的分量的绝对误差小,网络训练时只针对输出的总误差调整权值,其结果是在总误差中占份额小的输出分量相对误差较大,对输出分量进行尺度变换后这个问题可迎刃而解。

18、BP 网络初始值的设计的原则和方法?

答:原则:使每个神经元一开始都工作在其转移函数变化最大的位置。

方法:①使初始权值足够小;②使初始值为+1和-1的权值数相等。应用中对隐层权值可采用第一种方法,而对输出层可采用第二种办法。

19、胜者为王学习规则的三个步骤。①向量归一化 首先将自组织网络中的当前输入模式向

量X 和竞争层中各神经元对应的内星向量),,2,1j m j W ???=(全部进行归一化处理,得到^

X 和),,2,1(^j m j W =。②寻找获胜神经元 当网络得到一个输入模式向量^X 时,竞争层的所有神经元对应的内星权向量),,2,1(^j m j W =均与^X 进行相似性比较,将与^X 最相似的内星权向量判为竞争获胜神经元,其权向量记为^*j W 。测量相似性的方法是对j ^W 和^X 计算欧式距离(或夹角余弦):}{min X ^

^},,2,1{^^*j m j j W X W -=-∈ (可补充)③网络输出与权值调整 胜者为王竞争学习算法规定,获胜神经元输出为1,其余输出为零。

20、SOM 网权值初始化的原则和一般方法有哪些?

答:SOM 网的权值一般初始化为较小的随机数,这样做的目的是使权向量充分分散在样本空间。但在某些应用中,样本整体上相对集中于高维空间的某个局部区域,权向量的初始位置却随机的分散于样本空间的广阔区域,训练时必然是离整个样本群最近的权向量被不断调整,并逐渐进入全体样本的中心位置,而其他权向量因初始位置远离样本群而永远得不到调

整。如此训练的结果可能使全部样本聚为一类。解决这类问题的思路是尽量使权值的初始位置与输入样本的大致分布区域充分重合。根据上述思路,一中简单易行的方法是从训练集中随机抽取m 个输入样本作为初始权值,即:k

ram j X 0=)(W ),,2,1(m j = 式中,ram k 是输入样本的顺序随机数,}2,1{k ram P ,∈。因为任何ram k X 一定是输入空间

某个模式类的成员,各个权向量按上式初始化后从训练一开始就分别接近了输入空间的各模式类,占据了十分有利的“地形”。另外一种可行的办法是先计算出全体样本的中心向量:

∑==P 1

p p X P 1X 在该中心向量基础上叠加小随机数作为权向量初始值,也可将权向量的初始位置确定在样本群中。

21、SOM 网的局限性

①隐层神经元数目难以确定,因此隐层神经元往往未能充分利用,某些距离学习向量远的神经元不能获胜,从而成为死节点;

②聚类网络的学习速率需要人为确定,学习终止往往需要人为控制,影响学习进度; ③隐层的聚类结果与初始权值有关。

22、正则化RBF 网络与广义RBF 网络的不同:

①径向基函数的个数M 与样本的个数P 不相等,且M 常常远小于P 。

②径向基函数的中心不再限制在数据点上,而是由训练算法确定。

③各径向基函数的扩展常数不再统一,其值由训练算法确定。

④输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之间的差别。

23、BP 网络与RBF 网络的不同

①RBF 网络只有一个隐层,而BP 网络的隐层可以是一层也可以是多层的。

②BP 网络的隐层和输出层其神经元模型是一样的;而RBF 网络的隐层神经元和输出层神经元不仅模型不同,而且在网络中起到的作用也不一样。

③RBF 网络的隐层是非线性的,输出层是线性的。然而,当用BP 网络解决模式分类问题时,它的隐层和输出层通常选为非线性的。当用BP 网络解决非线性回归问题时,通常选择线性输出层。

④RBF 网络的基函数计算的是输入向量和中心的欧氏距离,而BP 网络隐单元的激励函数计算的是输入单元和连接权值间的内积。

⑤RBF 网络使用局部指数衰减的非线性函数(如高斯函数)对非线性输入输出映射进行局部逼近。BP 网络的隐节点采用输入模式与权向量的内积作为激活函数的自变量,而激活函数则采用Sigmoid 函数或硬限幅函数,因此BP 网络是对非线性映射的全局逼近。RBF 网络最显著的特点是隐节点采用输入模式与中心向量的距离(如欧式距离)作为函数的自变量,并用径向基函数(如Gauss 函数)作为激活函数。径向基函数关于N 维空间的的一个中心点具有径向对称性,而且神经元的输入离该中心越远,神经元的激活程度就越低。隐层节点的这个特性常被称为“局部特性”。

24、支持向量机的基本思想/方法是什么?

答:支持向量机的主要思想是建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的距离最大化,从而对分类问题提供良好的泛化能力。对于非线性可分模式分类问题,根据Cover 定理:将复杂的模式分类问题非线性的投射到高维特征空间可能是线性可分

的,因此只要变换是非线性的且特征空间的维数足够高,则原始模式空间能变换为一个新的高维特征空间,使得在特征空间中模式以较高的概率为线性可分的。此时,应用支持向量机算法在特征空间建立分类超平面,即可解决非线性可分的模式识别问题。

25、cover 定理:将复杂的模式分类问题非线性的投射到高维空间比投射到低维空间更可能是线性可分的。

26、画图并说明权值调整的通用学习规则。

答:通用学习规则可表达为:权向量j W 在t 时刻的调整量)

(t W j ?与t 时刻的输入向量)

(t X 和学习信号r 的乘积成正比。用数学表达式为: )()](),(),([r W j t X t d t X t W j j η=?

式中,η为正数,称为学习常数,其值决定了学习速率。基于离散时间调整时,下一时刻的权向量应为:

)()](),(X )(W [)(W )1(W j j j t X t d t t r t t j ,η+=+(补充图)

27、BP 算法的误差曲线存在平坦区,利用图形、相关公式说明造成平坦区的原因、平坦区造成的问题、如何改进进而快速度过平坦区。

答:造成平坦区的原因:造成这种情况的原因与各节点的净输入过大有关。平坦区造成的问题:会使训练次数大大增加,从而影响了收敛速度。如何改进进而快速度过平坦区:①自适应调节学习率②引入陡度因子

28、批训练BP 算法步骤

29、SOM 神经网络学习算法

⑴初始化 对输出层各权向量赋予小随机数并进行归一化处理,得到j ^

W ,;,,m 2,1j =建立初始优胜邻域)0(N *j ;学习率η赋初始值。

⑵接受输入 从训练集中选取一个输入模式并进行归一化处理,得到^p X ,。

,,P}2,1{p ∈ ⑶寻找获胜节点 计算^p X 与j ^

W 的点积,m 2,1j ,, =,从中选出点积最大的获胜节点*j ;如果输入模式未经归一化,应计算欧式距离,从中找出距离最小的获胜节点。

⑷定义优胜邻域)(t *N j 以*j 为中心确定t 时刻的权值调整域,一般初始邻域)(0*N j 较

大,训练过程中)(t *N j 随训练时间逐渐收缩。

⑸调整权值 对优胜邻域)(t *N j 内的所有节点调整权值:

)]t (w )[,()t (w )1t (w ij ij ij -+=+p i x N t η ;2,1i n ,,

= )(t *N j j ∈ 30、K-means 聚类算法确定数据中心

(1)初始化 选择M 个互不相同向量作为初始聚类中心:

),0(,),0(),0(21M c c c 选择时可采用对各聚类中心向量赋小随机数的方法。

(2) 计算输入空间各样本点与聚类中心点的欧式距离:

(k c -X j p ;,,2,1P p = M j ,,2,1 = (3)相似匹配 令*j 代表竞争获胜隐节点的下标,对每一个输入样本p X 根据其与聚类中

心的最小欧式距离确定其归类)(*p X j ,即当有如下等式时:

)(m in )(*k c X X j j p j

p -= P p ,,2,1 = p X 被归为第*j 类,从而将全部样本划分M 个子集,),(,),(),(21k U k U k U M 每个子集构成一个以聚类中心为典型代表的聚类域。

(4)更新各类的聚类中心 可采用两种调整方法,一种方法是对各聚类域中的样本取均值,令)(k U j 表示第j 个聚类域,j N 为第j 个聚类域中的样本数,则:

∑∈=+)(j 1

)1(c k U X l j X N k

另一种方法是采用竞争学习规则进行调整,即

??

???≠=-+=+*),(*)],([)()1(j j k c j j k c X k c k c j j p j j η 式中,η是学习率,且10<<η。可以看出,当1=η时,该竞争规则即为Winner-Take-All 规则。

(5)将k 值加1,转到第(2)步。重复上述过程直到k c 的改变量小于要求的值。 各聚类中心确定后,可根据各中心之间的距离确定对应径向基函数的扩展常数。令: i j i

j c c d -=min 则扩展常数取:j j d λδ= 式中,λ为重叠系数。 31、结合cover 定理,从模式可分性观点论述RBF 处理线性不可分问题的原理。

(1)cover 定理 将复杂的模式分类问题非线性的投射到高维空间比投射到低维空间更可能是线性可分的。

(2)RBF 神经元模型 )()(1∑=-=P p p p

X X w X F ?

(3)RBF 的拓扑结构

dist

y n X1

X2 X3

读书的好处

1、行万里路,读万卷书。

2、书山有路勤为径,学海无涯苦作舟。

3、读书破万卷,下笔如有神。

4、我所学到的任何有价值的知识都是由自学中得来的。——达尔文

5、少壮不努力,老大徒悲伤。

6、黑发不知勤学早,白首方悔读书迟。——颜真卿

7、宝剑锋从磨砺出,梅花香自苦寒来。

8、读书要三到:心到、眼到、口到

9、玉不琢、不成器,人不学、不知义。

10、一日无书,百事荒废。——陈寿

11、书是人类进步的阶梯。

12、一日不读口生,一日不写手生。

13、我扑在书上,就像饥饿的人扑在面包上。——高尔基

14、书到用时方恨少、事非经过不知难。——陆游

15、读一本好书,就如同和一个高尚的人在交谈——歌德

16、读一切好书,就是和许多高尚的人谈话。——笛卡儿

17、学习永远不晚。——高尔基

18、少而好学,如日出之阳;壮而好学,如日中之光;志而好学,如炳烛之光。——刘向

19、学而不思则惘,思而不学则殆。——孔子

20、读书给人以快乐、给人以光彩、给人以才干。——培根

人工智能期末试题及答案完整版

xx学校 2012—2013学年度第二学期期末试卷 考试课程:《人工智能》考核类型:考试A卷 考试形式:开卷出卷教师: 考试专业:考试班级: 一单项选择题(每小题2分,共10分) 1.首次提出“人工智能”是在(D )年 A.1946 B.1960 C.1916 D.1956 2. 人工智能应用研究的两个最重要最广泛领域为:B A.专家系统、自动规划 B. 专家系统、机器学习 C. 机器学习、智能控制 D. 机器学习、自然语言理解 3. 下列不是知识表示法的是 A 。 A:计算机表示法B:“与/或”图表示法 C:状态空间表示法D:产生式规则表示法 4. 下列关于不确定性知识描述错误的是 C 。 A:不确定性知识是不可以精确表示的 B:专家知识通常属于不确定性知识 C:不确定性知识是经过处理过的知识 D:不确定性知识的事实与结论的关系不是简单的“是”或“不是”。 5. 下图是一个迷宫,S0是入口,S g是出口,把入口作为初始节点,出口作为目标节点,通道作为分支,画出从入口S0出发,寻找出口Sg的状态树。根据深度优先搜索方法搜索的路径是 C 。 A:s0-s4-s5-s6-s9-sg B:s0-s4-s1-s2-s3-s6-s9-sg C:s0-s4-s1-s2-s3-s5-s6-s8-s9-sg D:s0-s4-s7-s5-s6-s9-sg 二填空题(每空2分,共20分) 1.目前人工智能的主要学派有三家:符号主义、进化主义和连接主义。 2. 问题的状态空间包含三种说明的集合,初始状态集合S 、操作符集合F以及目标

状态集合G 。 3、启发式搜索中,利用一些线索来帮助足迹选择搜索方向,这些线索称为启发式(Heuristic)信息。 4、计算智能是人工智能研究的新内容,涉及神经计算、模糊计算和进化计算等。 5、不确定性推理主要有两种不确定性,即关于结论的不确定性和关于证据的不确 定性。 三名称解释(每词4分,共20分) 人工智能专家系统遗传算法机器学习数据挖掘 答:(1)人工智能 人工智能(Artificial Intelligence) ,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等 (2)专家系统 专家系统是一个含有大量的某个领域专家水平的知识与经验智能计算机程序系统,能够利用人类专家的知识和解决问题的方法来处理该领域问题.简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统 (3)遗传算法 遗传算法是一种以“电子束搜索”特点抑制搜索空间的计算量爆炸的搜索方法,它能以解空间的多点充分搜索,运用基因算法,反复交叉,以突变方式的操作,模拟事物内部多样性和对环境变化的高度适应性,其特点是操作性强,并能同时避免陷入局部极小点,使问题快速地全局收敛,是一类能将多个信息全局利用的自律分散系统。运用遗传算法(GA)等进化方法制成的可进化硬件(EHW),可产生超出现有模型的技术综合及设计者能力的新颖电路,特别是GA独特的全局优化性能,使其自学习、自适应、自组织、自进化能力获得更充分的发挥,为在无人空间场所进行自动综合、扩展大规模并行处理(MPP)以及实时、灵活地配置、调用基于EPGA的函数级EHW,解决多维空间中不确定性的复杂问题开通了航向 (4)机器学习 机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎 (5)数据挖掘 数据挖掘是指从数据集合中自动抽取隐藏在数据中的那些有用信息的非平凡过程,这些信息的表现形式为:规则、概念、规律及模式等。它可帮助决策者分析历史数据及当前数据,并从中发现隐藏的关系和模式,进而预测未来可能发生的行为。数据挖掘的

基于人工神经网络的通信信号分类识别

基于人工神经网络的通信信号分类识别 冯 涛 (中国电子科技集团公司第54研究所,河北石家庄050081) 摘 要 通信信号的分类识别是一种典型的统计模式识别问题。系统地论述了通信信号特征选择、特征提取和分类识别的原理和方法。设计了人工神经网络分类器,包括神经网络模型的选择、分类器的输入输出表示、神经网络拓扑结构和训练算法,并提出了分层结构的神经网络分类器。 关键词 模式识别;特征提取;分类器;神经网中图分类号 TP391 文献标识码 A Classification and Identification of Communication Signal Using Artificial Neural Networks FE NG Tao (T he 54th Research Institute of CETC,Shijia zhuan g Hebei 050081,China) Abstract The classification and identificati on of communication signal is a typical statistical pattern identification.The paper discusses the theory and method of feature selection,feature extraction and classi fication &identificaiton of communication signal.A classifier based on artificial neural networks is designed,includin g the selection of neural network model,the input and output expression of the classifier,neural network topology and trainin g algorithm.Finally a hierarchical archi tecture classifier based on artificial neural networks is presented. Key words pattern recognition;features extraction;classifier;neural networks 收稿日期:2005-12-16 0 引言 在通信对抗侦察中,侦察接收设备在截获敌方通信信号后,必须经过对信号的特征提取和对信号特征的分析识别,才能变为有价值的通信对抗情报。通过对信号特征的分析识别,可以得到信号种类、通信体制、网路组成等方面的情报,从而为研究通信对抗策略、研制和发展通信对抗装备提供重要参考依据。 1 通信信号分类识别的原理 通信信号的分类识别是一种典型的模式识别应用,其作用和目的就是将某一接收到的信号正确地归入某一种类型中。一般过程如图1 所示。 图1 通信信号分类识别的一般过程 下面简单介绍这几部分的作用。 信号获取:接收来自天线的信号x (t),并对信号进行变频、放大和滤波,输出一个中频信号; A/D 变换:将中频模拟信号变换为计算机可以运算的数字信号x (n); 以上2步是信号空间x (t)到观察空间x (n )的变换映射。 特征提取:为了有效地实现分类识别,必须对原始数据进行变换,得到最能反映分类差别的特征。这些特征的选择和提取是非常重要的,因为它强烈地影响着分类器的设计和性能。理想情况下,经过特征提取得到的特征向量对不同信号类型应该有明显的差别; 分类器设计和分类决策:分类问题是根据识别对象特征的观察值将其分到某个类别中去。首先,在样本训练集基础上确定合适的规则和分类器结构,然后,学习训练得到分类器参数。最后进行分类决策,把待识别信号从特征空间映射到决策空间。 2 通信信号特征参数的选择与特征提取 2 1 通信信号特征参数的选择 选择好的特征参数可以提高低信噪比下的正确 识别率,降低分类器设计的难度,是基于统计模式识别方法最为关键的一个环节。试图根据有限的信号 信号与信息处理 24 2006Radio Engineering Vo1 36No 6

人工神经网络大作业

X X X X大学 研究生考查课 作业 课程名称:智能控制理论与技术 研究生姓名:学号: 作业成绩: 任课教师(签名) 交作业日时间:2010年12月22日

人工神经网络(artificial neural network,简称ANN)是在对大脑的生理研究的基础上,用模拟生物神经元的某些基本功能元件(即人工神经元),按各种不同的联结方式组成的一个网络。模拟大脑的某些机制,实现某个方面的功能,可以用在模仿视觉、函数逼近、模式识别、分类和数据压缩等领域,是近年来人工智能计算的一个重要学科分支。 人工神经网络用相互联结的计算单元网络来描述体系。输人与输出的关系由联结权重和计算单元来反映,每个计算单元综合加权输人,通过激活函数作用产生输出,主要的激活函数是Sigmoid函数。ANN有中间单元的多层前向和反馈网络。从一系列给定数据得到模型化结果是ANN的一个重要特点,而模型化是选择网络权重实现的,因此选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法就能得到包含学习训练样本范围的输人和输出的关系。如果用于学习训练的样本不能充分反映体系的特性,用ANN也不能很好描述与预测体系。显然,选用合适的学习训练样本、优化网络结构、采用适当的学习训练方法是ANN的重要研究内容之一,而寻求应用合适的激活函数也是ANN研究发展的重要内容。由于人工神经网络具有很强的非线性多变量数据的能力,已经在多组分非线性标定与预报中展现出诱人的前景。人工神经网络在工程领域中的应用前景越来越宽广。 1人工神经网络基本理论[1] 1.1神经生物学基础 可以简略地认为生物神经系统是以神经元为信号处理单元,通过广泛的突触联系形成的信息处理集团,其物质结构基础和功能单元是脑神经细胞即神经元(neu ron)。(1)神经元具有信号的输入、整合、输出三种主要功能作用行为。突触是整个神经系统各单元间信号传递驿站,它构成各神经元之间广泛的联接。(3)大脑皮质的神经元联接模式是生物体的遗传性与突触联接强度可塑性相互作用的产物,其变化是先天遗传信息确定的总框架下有限的自组织过程。 1.2建模方法 神经元的数量早在胎儿时期就已固定,后天的脑生长主要是指树突和轴突从神经细胞体中长出并形成突触联系,这就是一般人工神经网络建模方法的生物学依据。人脑建模一般可有两种方法:①神经生物学模型方法,即根据微观神经生物学知识的积累,把脑神经系统的结构及机理逐步解释清楚,在此基础上建立脑功能模型。②神经计算模型方法,即首先建立粗略近似的数学模型并研究该模型的动力学特性,然后再与真实对象作比较(仿真处理方法)。 1.3概念 人工神经网络用物理可实现系统来模仿人脑神经系统的结构和功能,是一门新兴的前沿交叉学科,其概念以T.Kohonen.Pr的论述最具代表性:人工神经网络就是由简单的处理单元(通常为适应性)组成的并行互联网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。 1.4应用领域 人工神经网络在复杂类模式识别、运动控制、感知觉模拟方面有着不可替代的作用。概括地说人工神经网络主要应用于解决下述几类问题:模式信息处理和模式识别、最优化问题、信息的智能化处理、复杂控制、信号处理、数学逼近映射、感知觉模拟、概率密度函数估计、化学谱图分析、联想记忆及数据恢复等。 1.5理论局限性 (1)受限于脑科学的已有研究成果由于生理试验的困难性,目前对于人脑思维与记忆机制的认识尚很肤浅,对脑神经网的运行和神经细胞的内部处理机制还没有太多的认识。 (2)尚未建立起完整成熟的理论体系目前已提出的众多人工神经网络模型,归纳起来一般都是一个由节点及其互连构成的有向拓扑网,节点间互连强度构成的矩阵可通过某种学

《人工神经网络原理与应用》试题

1 / 1 《人工神经网络原理与应用》试题 试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。 试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )试论述神经网络系统建模的几种基本方法。利用BP 网络对以下非线性系统进行辨识。 非线性系统 )(5.1) 1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 首先利用[-1,1]区间的随机信号u(k),样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。 试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。 试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。 谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。《人工神经网络原理与应用》试题 试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。 试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )试论述神经网络系统建模的几种基本方法。利用BP 网络对以下非线性系统进行辨识。 非线性系统 )(5.1) 1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 首先利用[-1,1]区间的随机信号u(k), 样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。 试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。 试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。 谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。

人工智能习题&答案-第4章-计算智能1-神经计算-模糊计算

第四章计算智能(1):神经计算模糊计算4-1 计算智能的含义是什么?它涉及哪些研究分支? 贝兹德克认为计算智能取决于制造者提供的数值数据,而不依赖于知识。计算智能是智力的低层认知。 主要的研究领域为神经计算,模糊计算,进化计算,人工生命。 4-2 试述计算智能(CI)、人工智能(AI)和生物智能(BI)的关系。 计算智能是智力的低层认知,主要取决于数值数据而不依赖于知识。人工智能是在计算智能的基础上引入知识而产生的智力中层认知。生物智能,尤其是人类智能,则是最高层的智能。即CI包含AI包含BI 4-3 人工神经网络为什么具有诱人的发展前景和潜在的广泛应用领域? 人工神经网络具有如下至关重要的特性: (1) 并行分布处理 适于实时和动态处理 (2)非线性映射 给处理非线性问题带来新的希望 (3) 通过训练进行学习 一个经过适当训练的神经网络具有归纳全部数据的能力,能够解决那些由数学模型或描述规则难以处理的问题 (4) 适应与集成 神经网络的强适应和信息融合能力使得它可以同时输入大量不同的控制信号,实现信息集成和融合,适于复杂,大规模和多变量系统 (5) 硬件实现 一些超大规模集成是电路实现硬件已经问世,使得神经网络成为具有快速和大规模处理能力的网络。 4-4 简述生物神经元及人工神经网络的结构和主要学习算法。

生物神经元 大多数神经元由一个细胞体(cell body或soma)和突(process)两部分组成。突分两类,即轴突(axon)和树突(dendrite),轴突是个突出部分,长度可达1m,把本神经元的输出发送至其它相连接的神经元。树突也是突出部分,但一般较短,且分枝很多,与其它神经元的轴突相连,以接收来自其它神经元的生物信号。 轴突的末端与树突进行信号传递的界面称为突触(synapse),通过突触向其它神经元发送信息。对某些突触的刺激促使神经元触发(fire)。只有神经元所有输入的总效应达到阈值电平,它才能开始工作。此时,神经元就产生一个全强度的输出窄脉冲,从细胞体经轴突进入轴突分枝。这时的神经元就称为被触发。突触把经过一个神经元轴突的脉冲转化为下一个神经元的兴奋或抑制。学习就发生在突触附近。 每个人脑大约含有10^11-10^12个神经元,每一神经元又约有10^3-10^4个突触。神经元通过突触形成的网络,传递神经元间的兴奋与抑制。大脑的全部神经元构成极其复杂的拓扑网络群体,用于实现记忆与思维。 人工神经网络的结构 人工神经网络由神经元模型构成。每个神经元具有单一输出,并且能够与其它神经元连接,存在许多输出连接方法,每种连接方法对应于一个连接权系数。 人工神经网络的结构分为2类, (1)递归(反馈)网络 有些神经元的输出被反馈至同层或前层神经元。信号能够从正向和反向流通。Hopfield网络,Elmman网络和Jordan网络是代表。 (2) 前馈网络 具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通,神经元从一层连接至下一层,不存在同层神经元之间的连接。多层感知器(MLP),学习矢量量化网络(LVQ),小脑模型连接控制网络(CMAC)和数据处理方法网络(GMDH)是代表。 人工神经网络的主要学习算法 (1) 指导式(有师)学习 根据期望和实际的网络输出之间的差来调整神经元连接的强度或权。包括Delta规则,广义Delta规则,反向传播算法及LVQ算法。 (2) 非指导(无导师)学习 训练过程中,神经网络能自动地适应连接权,以便按相似特征把输入模式分组聚集。包括

人工神经网络发展前景111

人工神经网络发展前景 姓名 单位 摘要 在分析人工神经网络的发展过程、基本功能、应用范围的基础上,着重论述了神经网络与专家系统、模糊技术、遗传算法、灰色系统及小波分析的融合。 关键词 英文摘要 英文关键词 1前言 人工神经网络的发展起源于何时,说法不一。一般认为,其起源可追溯到Warren WcCulloch和Walter Pitts提出的MP模型。从此拉开了神经网络的序幕。20世纪50年代后期,Frank Rosenblatt定义了一种以后常用的神经网络结构,称为感知器。这是人工神经网络第一个实际应用;20世纪60年代,Bernard Widrow和Ted Hoff提出了一个新的学习算法用于训练自适应线性神经网络;20世纪70年代,Grossberg 提出了自适应共振理论。他研究了两种记忆机制(短期记忆和长期记忆),提出了一种可视系统的自组织神经网络,这是一种连续时间竞争网络,是构成自适应谐振理论网络基础;20世纪80年代,Hopfield 及一些学者提出了Hopfield网络模型,这是一种全连接的反馈网络。此外,Hinton等提出了Boltzman机。Kumellhart等人提出误差反向

传播神经网络,简称BP网络。目前BP神经网络已成为广泛使用的网络。 2应用现状 神经网络以及独特的结构和处理信息的方法,在许多实际应用领域中取得了显著的成效,主要应用如下: 1)信号处理。神经网络广泛应用于自适应信号处理和非线性信号处理中。前者如信号的自适应滤波、时间序列预测、谱估计、噪声消除等;后者如非线性滤波、非线性预测、非线性编码、调制/解调等。2)模式识别。神经网络不仅可以处理静态模式如固定图像、固定能谱等,还可以处理动态模式如视频图像、连续语音等。 3)系统识别。基于神经网络的系统辨识是以神经网络作为被识对象的模型,利用其非线性特性,可建立非线性系统的静态或动态模型。 4)智能检测。在对综合指标的检测(例如对环境舒适度这类综合指标检测)中,以神经网络作为智能检测中的信息处理联想等数据融合处理,从而实现单一传感器不具备的功能。 5)汽车工程。神经网络在汽车刹车自动控制系统中也有成功的应用,该系统能在给定刹车距离、车速和最大减速度的情况下,以人体能感受到的最小冲击实现平稳刹车,而不受路面坡度和车重影响。 6)化学工程。神经网络在光谱分析、判定化学反应的生成物、判定离子浓度及研究生命体中某些化合物的含量与生物活性的对应关系都有广泛应用并取得了一定成果。 7)卫生保健、医疗。比如通过训练自主组合的多层感知器可以区分

实验报告 人工神经网络

实验报告人工神经网络 实验原理:利用线性回归和神经网络建模技术分析预测。 实验题目:利用给出的葡萄酒数据集,解释获得的分析结论。 library(plspm); data(wines); wines 实验要求: 1、探索认识意大利葡萄酒数据集,对葡萄酒数据预处理,将其随机划分为训练集和测试集,然后创建一个线性回归模型; 2、利用neuralnet包拟合神经网络模型; 3、评估两个模型的优劣,如果都不理想,提出你的改进思路。 分析报告: 1、线性回归模型 > rm(list=ls()) > gc() used (Mb) gc trigger (Mb) max used (Mb) Ncells 250340 13.4 608394 32.5 408712 21.9 Vcells 498334 3.9 8388608 64.0 1606736 12.3 >library(plspm) >data(wines) >wines[c(1:5),] class alcohol malic.acid ash alcalinity magnesium phenols flavanoids 1 1 14.23 1.71 2.43 15.6 127 2.80 3.06 2 1 13.20 1.78 2.14 11.2 100 2.65 2.76 3 1 13.16 2.36 2.67 18.6 101 2.80 3.24 4 1 14.37 1.9 5 2.50 16.8 113 3.85 3.49 5 1 13.24 2.59 2.87 21.0 118 2.80 2.69 nofla.phen proantho col.intens hue diluted proline 1 0.28 2.29 5.64 1.04 3.9 2 1065 2 0.26 1.28 4.38 1.05 3.40 1050 3 0.30 2.81 5.68 1.03 3.17 1185 4 0.24 2.18 7.80 0.86 3.4 5 1480 5 0.39 1.82 4.32 1.04 2.93 735 > data <- wines > summary(wines)

人工神经网络复习题

《神经网络原理》 一、填空题 1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。 2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。 3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。 4、神经网络研究的发展大致经过了四个阶段。 5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。 6、联想的形式有两种,它们分是自联想和异联想。 7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。 8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。 9、神经元分兴奋性神经元和抑制性神经元。 10、汉明距离指两个向量中对应元素不同的个数。 二、简答题 1、人工神经元网络的特点? 答:(1)、信息分布存储和容错性。 (2)、大规模并行协同处理。 (3)、自学习、自组织和自适应。 (4)、人工神经元网络是大量的神经元的集体行为,表现为复杂

的非线性动力学特性。 (5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。 2、单个神经元的动作特征有哪些? 答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。 3、怎样描述动力学系统? 答:对于离散时间系统,用一组一阶差分方程来描述: X(t+1)=F[X(t)]; 对于连续时间系统,用一阶微分方程来描述: dU(t)/dt=F[U(t)]。 4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态? 答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。 在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。

人工神经网络的发展及应用

人工神经网络的发展与应用 神经网络发展 启蒙时期 启蒙时期开始于1980年美国著名心理学家W.James关于人脑结构与功能的研究,结束于1969年Minsky和Pape~发表的《感知器》(Perceptron)一书。早在1943年,心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型(即M—P模型),该模型把神经细胞的动作描述为:1神经元的活动表现为兴奋或抑制的二值变化;2任何兴奋性突触有输入激励后,使神经元兴奋与神经元先前的动作状态无关;3任何抑制性突触有输入激励后,使神经元抑制;4突触的值不随时间改变;5突触从感知输入到传送出一个输出脉冲的延迟时问是0.5ms。可见,M—P模型是用逻辑的数学工具研究客观世界的事件在形式神经网络中的表述。现在来看M—P 模型尽管过于简单,而且其观点也并非完全正确,但是其理论有一定的贡献。因此,M—P模型被认为开创了神经科学理论研究的新时代。1949年,心理学家D.0.Hebb 提出了神经元之间突触联系强度可变的假设,并据此提出神经元的学习规则——Hebb规则,为神经网络的学习算法奠定了基础。1957年,计算机学家FrankRosenblatt提出了一种具有三层网络特性的神经网络结构,称为“感知器”(Perceptron),它是由阈值性神经元组成,试图模拟动物和人脑的感知学习能力,Rosenblatt认为信息被包含在相互连接或联合之中,而不是反映在拓扑结构的表示法中;另外,对于如何存储影响认知和行为的信息问题,他认为,存储的信息在神经网络系统内开始形成新的连接或传递链路后,新 的刺激将会通过这些新建立的链路自动地激活适当的响应部分,而不是要求任何识别或坚定他们的过程。1962年Widrow提出了自适应线性元件(Ada—line),它是连续取值的线性网络,主要用于自适应信号处理和自适应控制。 低潮期 人工智能的创始人之一Minkey和pape~经过数年研究,对以感知器为代表的网络系统的功能及其局限性从数学上做了深入的研究,于1969年出版了很有影响的《Perceptron)一书,该书提出了感知器不可能实现复杂的逻辑函数,这对当时的人工神经网络研究产生了极大的负面影响,从而使神经网络研究处于低潮时期。引起低潮的更重要的原因是:20世纪7O年代以来集成电路和微电子技术的迅猛发展,使传统的冯·诺伊曼型计算机进入发展的全盛时期,因此暂时掩盖了发展新型计算机和寻求新的神经网络的必要性和迫切性。但是在此时期,波士顿大学的S.Grossberg教授和赫尔辛基大学的Koho—nen教授,仍致力于神经网络的研究,分别提出了自适应共振理论(Adaptive Resonance Theory)和自组织特征映射模型(SOM)。以上开创性的研究成果和工作虽然未能引起当时人们的普遍重视,但其科学价值却不可磨灭,它们为神经网络的进一步发展奠定了基础。 复兴时期 20世纪80年代以来,由于以逻辑推理为基础的人工智能理论和冯·诺伊曼型计算机在处理诸如视觉、听觉、联想记忆等智能信息处理问题上受到挫折,促使人们

基于人工神经网络的图像识别

本文首先分析了图像识别技术以及bp神经网络算法,然后详细地阐述了人工神经网络图像识别技术。 【关键词】人工神经网络 bp神经网络图像识别识别技术 通常而言,所谓图像处理与识别,便是对实际图像进行转换与变换,进而达到识别的目的。图像往往具有相当庞大的信息量,在进行处理图像的时候要进行降维、数字化、滤波等程序,以往人们进行图像识别时采用投影法、不变矩法等方法,随着计算机技术的飞速发展,人工神经网络的图像识别技术将逐渐取代传统的图像识别方法,获得愈来愈广泛的应用。 1 人工神经网络图像识别技术概述 近年来,人工智能理论方面相关的理论越来越丰富,基于人工神经网络的图像识别技术也获得了非常广泛的应用,将图像识别技术与人工神经网络技术结合起来的优点是非常显著的,比如说: (1)由于神经网络具有自学习功能,可以使得系统能够适应识别图像信息的不确定性以及识别环境的不断变化。 (2)在一般情况下,神经网络的信息都是存储在网络的连接结构以及连接权值之上,从而使图像信息表示是统一的形式,如此便使得知识库的建立与管理变得简便起来。 (3)由于神经网络所具有的并行处理机制,在处理图像时可以达到比较快的速度,如此便可以使图像识别的实时处理要求得以满足。 (4)由于神经网络可增加图像信息处理的容错性,识别系统在图像遭到干扰的时候仍然能正常工作,输出较准确的信息。 2 图像识别技术探析 2.1 简介 广义来讲,图像技术是各种与图像有关的技术的总称。根据研究方法以及抽象程度的不同可以将图像技术分为三个层次,分为:图像处理、图像分析以及图像理解,该技术与计算机视觉、模式识别以及计算机图形学等学科互相交叉,与生物学、数学、物理学、电子学计算机科学等学科互相借鉴。此外,随着计算机技术的发展,对图像技术的进一步研究离不开神经网络、人工智能等理论。 2.2 图像处理、图像识别与图像理解的关系 图像处理包括图像压缩、图像编码以及图像分割等等,对图像进行处理的目的是判断图像里是否具有所需的信息并滤出噪声,并对这些信息进行确定。常用方法有灰度,二值化,锐化,去噪等;图像识别则是将经过处理的图像予以匹配,并且对类别名称进行确定,图像识别可以在分割的基础之上对所需提取的特征进行筛选,然后再对这些特征进行提取,最终根据测量结果进行识别;所谓图像理解,指的是在图像处理与图像识别的基础上,根据分类作结构句法分析,对图像进行描述与解释。所以,图像理解包括图像处理、图像识别和结构分析。就图像理解部分而言,输入是图像,输出是对图像的描述解释。 3 人工神经网络结构和算法 在上个世纪八十年代,mcclelland与rumelhant提出了一种人工神经网络,截止现在,bp神经网络已经发展成为应用最为广泛的神经网络之一,它是一种多层前馈神经网络,包括输入层、输出层和输入层输出层之间隐藏层,如图1所示,便是一种典型的bp神经网络结构。 bp神经网络是通过不断迭代更新权值使实际输入与输出关系达到期望,由输出向输入层反向计算误差,从而通过梯度下降方法不断修正各层权值的网络。 bp神经网络结构算法如下所述: (1)对权值矩阵,学习速率,最大学习次数,阈值等变量和参数进行初始化设置; (2)在黑色节点处对样本进行输入;

人工神经网络作业

西安建筑科技大学研究生课程考试试卷 考试科目:人工神经网络课程编码:071032 任课教师:谷立臣考试时间:2014.4.30 学号:1307841390 学生姓名:李宇峰

SOM神经网络在滚动轴承振动诊断中的应用 摘要:SOM网络是一种重要的无导师学习训练算法的神经网络,使用该算法进行训练后,可以将高维输入空间映射到二维空间上,并对故障现象进行自动分类,从而得出它们对应的故障原因。本文归纳和总结了SOM神经网络多参数诊断法的实施步骤,阐述了轴承故障与振动信号之间的关系以及神经网络的工作原理和实现过程,通过实验研究,提取了反映滚动轴承故障类型的振动信号的特征参数,以构建训练神经网络的特征向量,利用MA TLAB人工神经网络工具箱模拟和仿真SOM神经网络,然后用训练后的SOM神经网络对故障模式进行识别。 关键词:振动;滚动轴承;故障诊断;SOM神经网络 1故障轴承振动与信号的关系 故障滚动轴承在受载运转时,当缺陷部位与工作表面接触,都将产生一次冲击力。这种冲击力将激起轴承系统的振动,并通过适当的振动传递通道,以振动和声音的形式传出。信号传递过程,如图1所示。滚动轴承工作时,由传感器拾取的振动信号成分比较复杂,损伤引起的固有衰减振动只是其中的组成部分。当损伤微小时,往往被其他信号淹没而难以被发现。信号处理的目的就是突出这些损伤特征成分。 图1轴承振动信号传递过程 2 SOM神经网络的结构和学习算法 2.1神经网络结构 自组织特征映射神经网络是芬兰神经网络专家Kohnen于1981年提出的,网络结构由输入层和输出层组成。输入层为单层神经元排列,其作用是通过权向量将外界信息转到输出层神经元。输出层也叫竞争层,输出层的神经元同它周围的神经元侧向连接,成棋盘状平面。其神经元排列有多种形式,其最典型的是二维形式。在初始状态下,这些二维的处理单元阵列上没有这些信号特征的分布拓扑图。利用SOM模型的这一特性,可以从外界环境中按照某种测度或者是某种可有序化的拓扑空间来抽取特征或者是表达信号的、概念性的元素。自组织特征映射神经网络模型结构如图2所示。

人工神经网络的发展及应用

人工神经网络的发展及应用 西安邮电学院电信系樊宏西北电力设计院王勇日期:2005 1-21 1 人工神经网络的发展 1.1 人工神经网络基本理论 1.1.1 神经生物学基础生物神经系统可以简略地认为是以神经元为信号的处理单元,通过广泛的突触联系形成的信息处理集团,其物质结构基础和功能单元是脑神经细胞,即神经元(neuron) 。 (1)神经元具有信号的输人、整合、输出三种主要功能作用行为,结构如图1 所示: (2)突触是整个神经系统各单元间信号传递驿站,它构成各神经元之间广泛的联接。 (3)大脑皮质的神经元联接模式是生物体的遗传性与突触联接强度可塑性相互作用的产物,其变化是先天遗传信息确定的总框架下有限的自组织过程。 1.1.2 建模方法神经元的数量早在胎儿时期就已固定,后天的脑生长主要是指树突和轴突从神经细胞体中长出并形成突触联系,这就是一般人工神经网络建模方法的生物学依据。人脑建模一般可有两种方法:①神经生物学模型方法,即根据微观神经生物学知识的积累,把脑神经系统的结构及机理逐步解释清楚,在此基础上建立脑功能模型;②神 经计算模型方法,即首先建立粗略近似的数学模型并研究该模型的动力学特性,然后冉与真实对象作比较(仿真处理方法)。1.1.3 概

念人工神经网络用物理町实现系统采模仿人脑神经系统的结构和功能,是一门新兴的前沿交义学科,其概念以T.Kohonen.Pr 的论述 最具代表性:人工神经网络就是由简单的处理单元(通常为适应性神经元,模型见图2)组成的并行互联网络,它的组织能够模拟生物神 经系统对真实世界物体所作出的交互反应。 1.2 人工神经网络的发展 人工神经网络的研究始于40 年代初。半个世纪以来,经历了兴起、高潮与萧条、高潮及稳步发展的较为曲折的道路。1943 年,心理学家W.S.Mcculloch 和数理逻辑学家W.Pitts 提出了M—P 模型, 这是第一个用数理语言描述脑的信息处理过程的模型,虽然神经元的功能比较弱,但它为以后的研究工作提供了依据。1949 年,心理学家D. O. Hebb提出突触联系可变的假设,根据这一假设提出的学习规律为神经网络的学习算法奠定了基础。1957 年,计算机科学家Rosenblatt 提出了著名的感知机模型,它的模型包含了现代计算机的一些原理,是第一个完整的人工神经网络。1969 年,美国著名人工智能学者M.Minsky 和S.Papert 编写了影响很大的Perceptron 一书,从理论上证明单层感知机的能力有限,诸如不能解决异或问题,而且他们推测多层网络的感知能也不过如此,在这之后近10 年,神经网络研究进入了一个缓慢发展的萧条期。美国生物物理学家J.J.Hopfield 于1982年、1984 年在美国科学院院刊发表的两篇文章,有力地推动了神经网络的研究,引起了研究神经网络的

人工神经网络在聚类分析中的运用

摘要:本文采用无导师监督的som网络,对全国31个省市自治区的人民生活质量进行了综合评价,在没有先验信息的条件下,不采用人为主观赋予各指标权重的办法,转而运用自组织神经网络自组织竞争学习的网络方法来进行赋值、计算和评价,消除了主观确定各指标的权重的主观性,得到的结果较为符合各省市自治区的实际结果。 关键词:聚类分析;k-means聚类;系统聚类;自组织神经网络;人民生活质量 一、引言(研究现状) 自改革开放以来,我国生产力极大发展,生活水平总体上得到了提高。但是,地区间的发展不平衡始终存在,而且差距越来越大,不同地区人民的生活水平也存在显著的差异。据此,我们利用自组织人工神经网络方法对全国31个省市自治区的人民生活水平质量进行分析评价。 二、指标选取与预处理 1.指标选取 遵循合理性、全面性、可操作性、可比性的原则,从以下5个层面共11个二级指标构建了人民生活质量综合评价指标体系(如下表所示)。 人民生活质量综合评价指标体系 2.指标预处理 (1)正向指标是指标数据越大,则评价也高,如人均可支配收入,人均公园等。 正向指标的处理规则如下(1): kohonen 自组织神经网络 输入层是一个一维序列,该序列有n个元素,对应于样本向量的维度;竞争层又称为输出层,该层是由m′n=h个神经元组成的二维平面阵列其神经元的个数对应于输出样本空间的维数,可以使一维或者二维点阵。 竞争层之间的神经元与输入层之间的神经元是全连接的,在输入层神经元之间没有权连接,在竞争层的神经元之间有局部的权连接,表明竞争层神经元之间的侧反馈作用。训练之后的竞争层神经元代表者不同的分类样本。 自组织特征映射神经网络的目标:从样本的数据中找出数据所具有的特征,达到能够自动对样本进行分类的目的。 2.网络反馈算法 自组织网络的学习过程可分为以下两步: (1)神经元竞争学习过程 对于每一个样本向量,该向量会与和它相连的竞争层中的神经元的连接权进行竞争比较(相似性的比较),这就是神经元竞争的过程。相似性程度最大的神经元就被称为获胜神经元,将获胜神经元称为该样本在竞争层的像,相同的样本具有相同的像。 (2)侧反馈过程 竞争层中竞争获胜的神经元会对周围的神经元产生侧反馈作用,其侧反馈机制遵循以下原则:以获胜神经元为中心,对临近邻域的神经元表现为兴奋性侧反馈。以获胜神经元为中心,对邻域外的神经元表现为抑制性侧反馈。 对于竞争获胜的那个神经元j,其邻域内的神经元在不同程度程度上得到兴奋的侧反馈,而在nj(t)外的神经元都得到了抑制的侧反馈。nj(t)是时间t的函数,随着时间的增加,nj(t)围城的面积越来越小,最后只剩下一个神经元,而这个神经元,则反映着一个类的特征或者一个类的属性。 3.评价流程 (1)对n个输入层输入神经元到竞争层输出神经元j的连接权值为(6)式:

人工神经网络复习资料题

《神经网络原理》 、填空题 1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。 2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。 3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为 离散型和连续型,按学习方式可分为有导师和无导师。 4、神经网络研究的发展大致经过了四个阶段。 5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+ △)=▼(◎,(t>0),称网络稳定。 6、联想的形式有两种,它们分是自联想和异联想。 7、存储容量指网络稳定点的个数,提高存储容量的途径一是改—进网络的拓扑结构,二是改进学习方法。 8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。 9、神经元分兴奋性神经元和抑制性神经元。 10、汉明距离指两个向量中对应元素不同的个数。 二、简答题 1、人工神经元网络的特点? 答:(1 )、信息分布存储和容错性。 (2 )、大规模并行协同处理。 (3)、自学习、自组织和自适应。

(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂

的非线性动力学特性。 (5)人式神经元网络具有不适合高精度计算、学习算法和网络 设计没有统一标准等局限性。 2、单个神经元的动作特征有哪些? 答:单个神经元的动作特征有:(1 )、空间相加性;(2 )、时间相加性;(3)、阈值作用;(4 )、不应期;(5 )、可塑性;(6)疲劳。 3、怎样描述动力学系统? 答:对于离散时间系统,用一组一阶差分方程来描述: X(t+1)=F[X(t)]; 对于连续时间系统,用一阶微分方程来描述: dU(t)/dt=F[U(t)]。 4、F(x)与x的关系如下图,试述它们分别有几个平衡状态,是 否为稳定的平衡状态? 答:在图(1、中,有两个平衡状态a、b,其中,在a点曲线斜率|F' (X)|>1 ,为非稳定平稳状态;在b点曲线斜率|F' (X)|<1 ,为稳定平稳状态。 在图(2、中,有一个平稳状态a,且在该点曲线斜率|F' (X)|>1 ,为非稳定平稳状态。

关于人工神经网络的分析

人工神经网络 分析 班级: 学号: 姓名: 指导教师: 时间:

摘要: 人工神经网络也简称为神经网络,是一种模范动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。 自从认识到人脑的计算与传统的计算机相比是完全不同的方式开始,关于人工神经网络的研究就开始了。半个多世纪以来,神经网络经历了萌芽期、第一次高潮期、反思低潮期、第二次高潮期、再认识与应用研究期五个阶段。而近年来,人工神经网络通过它几个突出的优点更是引起了人们极大的关注,因为它为解决大复杂度问题提供了一种相对来说比较有效的简单方法。目前,神经网络已成为涉及计算机科学、人工智能、脑神经科学、信息科学和智能控制等多种学科和领域的一门新兴的前言交叉学科。 英文摘要: Artificial neural networks are also referred to as the neural network is a neural network model of animal behavior, distributed parallel information processing algorithm mathematical model. This network relies on system complexity, achieved by adjusting the number of nodes connected to the relationship between, so as to achieve the purpose of processing information. Since the understanding of the human brain compared to traditional computer calculation and are completely different way to start on artificial neural network research began. Over half a century, the neural network has experienced infancy, the first high tide, low tide reflections, the second peak period, and again knowledge and applied research on five stages. In recent years, artificial neural networks through which several prominent advantage is attracting a great deal of attention because it is a large complex problem solving provides a relatively simple and effective way. Currently, neural networks have become involved in computer science, artificial intelligence, brain science, information science and intelligent control and many other disciplines and fields of an emerging interdisciplinary foreword. 关键字:

相关主题
文本预览
相关文档 最新文档