人工神经网络概论
- 格式:doc
- 大小:58.50 KB
- 文档页数:9
人工神经网络简介本文主要对人工神经网络基础进行了描述,主要包括人工神经网络的概念、发展、特点、结构、模型。
本文是个科普文,来自网络资料的整理。
一、人工神经网络的概念人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。
该模型以并行分布的处理能力、高容错性、智能化和自学习等能力为特征,将信息的加工和存储结合在一起,以其独特的知识表示方式和智能化的自适应学习能力,引起各学科领域的关注。
它实际上是一个有大量简单元件相互连接而成的复杂网络,具有高度的非线性,能够进行复杂的逻辑操作和非线性关系实现的系统。
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。
每个节点代表一种特定的输出函数,称为激活函数(activation function)。
每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),神经网络就是通过这种方式来模拟人类的记忆。
网络的输出则取决于网络的结构、网络的连接方式、权重和激活函数。
而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
神经网络的构筑理念是受到生物的神经网络运作启发而产生的。
人工神经网络则是把对生物神经网络的认识与数学统计模型相结合,借助数学统计工具来实现。
另一方面在人工智能学的人工感知领域,我们通过数学统计学的方法,使神经网络能够具备类似于人的决定能力和简单的判断能力,这种方法是对传统逻辑学演算的进一步延伸。
人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。
网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。
输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。
人工神经网络知识概述人工神经网络(Artificial Neural Networks,ANN)系统是20世纪40年代后出现的。
它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。
BP(Back Propagation)算法又称为误差反向传播算法,是人工神经网络中的一种监督式的学习算法。
BP 神经网络算法在理论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。
而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许多领域都有着广泛的应用前景。
人工神经元的研究起源于脑神经元学说。
19世纪末,在生物、生理学领域,Waldeger等人创建了神经元学说。
人们认识到复杂的神经系统是由数目繁多的神经元组合而成。
大脑皮层包括有100亿个以上的神经元,每立方毫米约有数万个,它们互相联结形成神经网络,通过感觉器官和神经接受来自身体内外的各种信息,传递至中枢神经系统内,经过对信息的分析和综合,再通过运动神经发出控制信息,以此来实现机体与内外环境的联系,协调全身的各种机能活动。
神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。
但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。
细胞体内有细胞核,突起的作用是传递信息。
树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。
树突是细胞体的延伸部分,它由细胞体发出后逐渐变细,全长各部位都可与其他神经元的轴突末梢相互联系,形成所谓“突触”。
在突触处两神经元并未连通,它只是发生信息传递功能的结合部,联系界面之间间隙约为(15~50)×10米。
突触可分为兴奋性与抑制性两种类型,它相应于神经元之间耦合的极性。
每个神经元的突触数目正常,最高可达10个。
各神经元之间的连接强度和极性有所不同,并且都可调整、基于这一特性,人脑具有存储信息的功能。
人工神经网络概论梁飞(中国矿业大学计算机科学与技术学院信科09-1班,江苏,徐州,221116)摘要:进入21世纪以来,神经网络近来越来越受到人们的关注,因为神经网络可以很容易的解决具有上百个参数的问题,它为大复杂度问题提供了解决一种相对来说比较有效的简单方法。
人工神经网络是涉及神经科学、思维科学、人工智能、计算机科学等多个领域的交叉学科。
本文简要介绍了人工神经网络的工作原理、属性、特点和优缺点、网络模型、发展历史及它的应用和发展前景等。
关键词:人工神经网络;人工智能;神经网络;神经系统1.人工神经网络的简介人工神经网络(Artificial Neural Networks,简写为 ANN),一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。
这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。
人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”。
2.人工神经网络的工作原理人脑的处理机制极其复杂,从结构上看它是包含有140亿神经细胞的大规模网络。
单个神经细胞的工作速度并不高,但它通过超并行处理使得整个系统实现处理的高速性和表现的多样性。
因此,从处理的角度对人脑进行研究,并由此研制出一种象人脑一样能够“思维”的智能计算机和智能处理方法,一直是人工智能追求的目标。
人脑神经系统的基本构造单元是神经细胞,也称神经元。
它和人体中其他细胞的关键区别在于具有产生、处理和传递信号的功能。
每个神经元都包括三个主要部分:细胞体、树突和轴突。
树突的作用是向四方收集由其他神经细胞传来的信息,轴突的功能是传出从细胞体送来的信息。
每个神经细胞所产生和传递的基本信息是兴奋或抑制。
在两个神经细胞之间的相互接触点称为突触。
从信息的传递过程来看,一个神经细胞的树突,在突触处从其他神经细胞接受信号。
这些信号可能是兴奋性的,也可能是抑制性的。
所有树突接受到的信号都传到细胞体进行综合处理,如果在一个时间间隔内,某一细胞接受到的兴奋性信号量足够大,以致于使该细胞被激活,而产生一个脉冲信号。
这个信号将沿着该细胞的轴突传送出去,并通过突触传给其他神经细胞.神经细胞通过突触的联接形成神经网络。
人们正是通过对人脑神经系统的初步认识,尝试构造出人工神经元以组成人工神经网络系统来对人的智能,甚至是思维行为进行研究:尝试从理性角度阐明大脑的高级机能。
经过几十年的努力与发展,己涌现出上百种人工神经网络模型,它们的网络结构、性能、算法及应用领域各异,但均是根据生物学事实衍生出来的。
由于其基本处理单元是对生物神经元的近似仿真,因而被称之为人工神经元。
它用于仿效生物神经细胞最基本的特性,与生物原型相对应。
人工神经元的主要结构单元是信号的输入、综合处理和输出,其输出信号的强度大小反映了该单元对相邻单元影响的强弱。
人工神经元之间通过互相联接形成网络,称为人工神经网络。
神经元之间相互联接的方式称为联接模式,相互之间的联接度由联接权值体现在人工神经网络中,改变信息处理过程及其能力,就是修改网络权值的过程。
人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。
网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。
输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。
神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。
人工神经网络处理信息的方式和人类大脑的工作方式类似。
神经网络通过对示例进行学习,而不是通过编程用于完成某一具体任务。
示例必须经过挑选,否则,会浪费宝贵的时间甚至有可能引起网络不能正常地发挥作用。
而这样做的缺点就是因为网络完全依靠自己的能力来寻找解决该问题的方法,那么也就是说它的运行时间是不可预测的。
3.人工神经网络与人工智能从广义上说,人工智能是计算机科学的一个分支,对于人工智能的研究,有实现功能的模拟和生理结构的模拟两种方法,前者即通常所说的人工智能(AI),后者即人工神经网络(ANN)。
人工神经网络是并行分布式系统,采用了与传统人工智能和信息处理技术完全不同的机理,克服了传统的基于逻辑符号的人工智能在处理直觉、非结构化信息方面的缺陷,具有自适应、自组织和实时学习的特点。
人工神经网络具有某些和人工智能相同的目的,两者都试图建立智能机器,都试图模拟人类的思考推理能力,两种技术的研究人员也都试图理解和揭示人类的智能特性。
两者在历史上有过共同的发展,然而两者从不同的方向去研究智能性质问题。
人工神经网络把注意力放在大脑的工作机理上。
它采用自下而上的方法,从基础开始研究,即从生物学角度,由最简单的人工神经元开始,然后将它们按照大脑的基本结构连接组合为层次模型;它通过神经元的兴奋和抑制产生信息,通过神经元之间的相互作用对信息经行处理和传递,通过学习使其具备智能性。
人工智能方法则是自上而下的。
即试图给予心理学的理论建立系统模型。
该系统模仿的是大脑做什么,很少涉及大脑如何做。
最初的人工智能问题就是在计算机上编程实现的,并经常用到像“if-then”这样的规则形式。
人工智能和人工神经网络之间一个重要区别就是自学习能力。
人工神经网络的自学习能力很强,一般用于学习所收集的数据越多,学习的就越完全、越精确。
另一个巨大的差别就是速度和实时处理能力。
人工神经网络的并行结构对此有极大的优越性,它可以迅速作出判决响应,同时它具有较强的容错能力。
而人工智能技术在解决某些问题时遇到了困难,如视觉问题、连接语音的识别与综合问题、机器人的学习问题、单处理器的运算速度限制问题等,有些任务的算法太复杂以致无法实现。
虽然人工智能的研究目标仍未改变,但人工神经网络却使某些陷入困境的人工智能项目得到了帮助。
人工神经网络与人工智能的结合将具有巨大的潜力。
4.人工神经网络发展历史1943年,心理学家W.S.McCulloch和数理逻辑学家W.Pitts提出了第一个神经元数学模型—MP模型,从而开创了人工神经网络研究的时代。
1948年,John V on Neumann研究比较过人脑结构和指令存储式计算机的联系与区别,提出以简单神经元构成自再生自动机网络。
1949年,心理学家D.O.Hebb提出神经元群、突触和返响回路的概念。
1958年,F.RoSenblatt提出具有学习能力的“感知机”模型,完成了从单个神经元到三层神经网络的过渡。
1960年,Widrow和Hoff提出自适应线性元Adaline网络,人工神经网络的到了进一步发展。
1961年,Caianiello发表了关于神经网络数学的理论著作,提出了神经元方程,用布尔代数模拟机能的动力过程,分析并研制细胞有限自动机的理论模型。
1969年,美国人工智能学家M.Minsky和S.Papert出版了《Perceptron》(《感知机》)一书,证明了单层神经网络甚至不能解决像“异或”这种简单的运算问题,并且不能训练已发现的许多模式。
1981年,Kohonen提出了具有竞争的自组织特征映射(SOM)网络。
1982年,美国加州工学院物理学家J.J.Hopfield提出了Hopfield神经网格模型,采用全互连型神经网络模型,应用能量函数的概念,成功地解决了数字电子计算机不善于解决的经典人工智能难题—旅行商最优路径(TSP)问题。
1984年,他又提出了连续时间Hopfield神经网络模型,为神经计算机的研究做了开拓性的工作,开创了神经网络用于联想记忆和优化计算的新途径,有力地推动了神经网络的研究。
1983年,Sejnowski和Hinton提出了“隐单元”概念,推出大规模并行处理的Boltzmann机,使用多层神经网络并行分布改变个单元连接权,克服了单层网络的局限性为神经网络进入非线性处理领域奠定了基础。
1987年6月21日至24日,第一届神经网络会议在美国SanDiego市召开,标志着ANN研究已遍及全世界。
20世纪90年代后,ANN再现热潮,产生的各类模型已达几十种,与之相伴的是大量出现的边缘交叉学科。
人工神经网络的研究受到了各个发达国家的重视,美国国会通过决议将1990年1月5日开始的十年定为“脑的十年”,国际研究组织号召它的成员国将“脑的十年”变为全球行为。
在日本的“真实世界计算(RWC)”项目中,人工智能的研究成了一个重要的组成部分。
5.人工神经网络的四个基本属性(1)非线性非线性关系是自然界的普遍特性。
大脑的智慧就是一种非线性现象。
人工神经元处于激活或抑制二种不同的状态,这种行为在数学上表现为一种非线性关系。
具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。
(2)非局限性一个神经网络通常由多个神经元广泛连接而成。
一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。
通过单元之间的大量连接模拟大脑的非局限性。
联想记忆是非局限性的典型例子。
(3)非常定性人工神经网络具有自适应、自组织、自学习能力。
神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化。
经常采用迭代过程描写动力系统的演化过程。
(4)非凸性一个系统的演化方向,在一定条件下将取决于某个特定的状态函数。
例如能量函数,它的极值相应于系统比较稳定的状态。
非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。
6.人工神经网络的特点及优越性ANN具有如下主要特点:(1)能较好地模拟人的形象思维、人脑神经系统结构和功能,对信息进行并行分布处理。
(2)具有大规模并行协同处理能力。
(3)具有较强的容错能力和联想能力。
(4)具有较强的学习能力。
(5)适应性集成。
(6)硬件实现。
ANN具有如下明显的优点:①信息处理是并行性的;②知识的存储是分布的;③具有联想、模糊处理、自适应或自学习的能力,可以通过训练自动总结规律;④局部错误对整体不会带来严重的影响,能够处理不完善的问题;⑤能够很好地完成多变量模式识别⑥能从部分样本中学到的知识推广到全体样本;⑦能通过直接的数值数据进行训练并能自动地确定因果关系此外,ANN还存在着很多问题:如训练时间长,需大量训练数据,不能保证最佳结果和完全可靠,容易陷入局部极小,不具备增量学习能力,联想存储网络容量小,所存储的信息相互干扰和退化,不适合高精度计算,没有很完善的学习方法,经验参数太多等。
在实际应用中也存在着难以设计通用的神经网络芯片,大量的、动态的神经元互联实现困难等问题。