第3章 神经元、感知器和BP网络(1)
- 格式:ppt
- 大小:1.44 MB
- 文档页数:55
神经网络基本知识、BP神经网络一.概述1.1神经网络的定义人工神经网络(Artificial Neural Networks,简写为 ANNs)是由大量类似于生物神经元的处理单元相互连接而成的非线性复杂网络系统。
它是用一定的简单的数学模型来对生物神经网络结构进行描述,并在一定的算法指导下,使其能够在某种程度上模拟生物神经网络所具有的智能行为,解决传统算法所不能胜任的智能信息处理的问题。
它是巨量信息并行处理和大规模并行计算的基础,神经网络既是高度非线性动力学系统,又是自组织自适应系统,可用来描述认知、决策和控制的智能行为。
1.2 神经网络的发展历史对人工神经网络的研究始于 1943 年,经历 60 多年的发展,目前已经在许多工程研究领域得到了广泛应用。
但它并不是从一开始就倍受关注,它的发展道路曲折、几经兴衰,大致可以分为以下五个阶段:①奠基阶段:1943 年,由心理学家 McCulloch 和数学家 Pitts 合作,提出第一个神经计算模型,简称 M-P 模型,开创了神经网络研究这一革命性的思想。
②第一次高潮阶段:20 世纪 50 年代末 60 年代初,该阶段基本上确立了从系统的角度研究人工神经网络。
1957 年 Rosenblatt 提出的感知器(Perceptron)模型,可以通过监督学习建立模式判别能力。
③坚持阶段:随着神经网络研究的深入开展,人们遇到了来自认识、应用实现等方面的难题,一时难以解决。
神经网络的工作方式与当时占主要地位的、以数学离散符号推理为基本特征的人工智能大相径庭,但是更主要的原因是:当时的微电子技术无法为神经网络的研究提供有效的技术保证,使得在其后十几年内人们对神经网络的研究进入了一个低潮阶段。
④第二次高潮阶段:20 世纪 70 年代后期,由于神经网络研究者的突出成果,并且传统的人工智能理论和 Von.Neumann 型计算机在许多智能信息处理问题上遇到了挫折,而科学技术的发展又为人工神经网络的物质实现提供了基础,促使神经网络的研究进入了一个新的高潮阶段。
BP神经网络框架BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。
BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。
它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。
BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)。
1BP神经网络基本原理BP神经网络的基本原理可以分为如下几个步骤:(1)输入信号Xi→中间节点(隐层点)→输出节点→输出信号Yk;(2)网络训练的每个样本包括输入向量X和期望输出量t,网络输出值Y 和期望输出值t之间的偏差。
(3)通过调整输入节点与隐层节点的联接强度取值Wij和隐层节点与输出节点之间的联接强度取值Tjk,以及阈值,使误差沿梯度方向下降。
(4)经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练到此停止。
(5)经过上述训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线性转换的信息。
2BP神经网络涉及的主要模型和函数BP神经网络模型包括输入输出模型、作用函数模型、误差计算模型和自学习模型。
输出模型又分为:隐节点输出模型和输出节点输出模型。
下面将逐个介绍。
(1)作用函数模型作用函数模型,又称刺激函数,反映下层输入对上层节点刺激脉冲强度的函数。
一般取(0,1)内的连续取值函数Sigmoid函数:f x=11+e^(−x)(2)误差计算模型误差计算模型反映神经网络期望输出与计算输出之间误差大小的函数:Ep=12(tpi−Opi)2其中,tpi为i节点的期望输出值;Opi为i节点的计算输出值。
(3)自学习模型自学习模型是连接下层节点和上层节点之间的权重矩阵Wij的设定和修正过程。
PS:这篇介绍神经网络是很详细的,有一步一步的推导公式!神经网络是DL(深度学习)的基础。
如果对神经网络已经有所了解,可以直接跳到“三、BP算法的执行步骤“ 部分,算法框架清晰明了。
另外,如果对NN 很感兴趣,也可以参阅最后两篇参考博文,也很不错!学习是神经网络一种最重要也最令人注目的特点。
在神经网络的发展进程中,学习算法的研究有着十分重要的地位。
目前,人们所提出的神经网络模型都是和学习算法相应的。
所以,有时人们并不去祈求对模型和算法进行严格的定义或区分。
有的模型可以有多种算法.而有的算法可能可用于多种模型。
不过,有时人们也称算法为模型。
自从40年代Hebb提出的学习规则以来,人们相继提出了各种各样的学习算法。
其中以在1986年Rumelhart等提出的误差反向传播法,即BP(error BackPropagation)法影响最为广泛。
直到今天,BP算法仍然是自动控制上最重要、应用最多的有效算法。
1.2.1 神经网络的学习机理和机构在神经网络中,对外部环境提供的模式样本进行学习训练,并能存储这种模式,则称为感知器;对外部环境有适应能力,能自动提取外部环境变化特征,则称为认知器。
神经网络在学习中,一般分为有教师和无教师学习两种。
感知器采用有教师信号进行学习,而认知器则采用无教师信号学习的。
在主要神经网络如BP网络,Hopfield网络,ART网络和Kohonen 网络中;BP网络和Hopfield网络是需要教师信号才能进行学习的;而ART网络和Kohonen网络则无需教师信号就可以学习。
所谓教师信号,就是在神经网络学习中由外部提供的模式样本信号。
一、感知器的学习结构感知器的学习是神经网络最典型的学习。
目前,在控制上应用的是多层前馈网络,这是一种感知器模型,学习算法是BP法,故是有教师学习算法。
一个有教师的学习系统可以用图1—7表示。
这种学习系统分成三个部分:输入部,训练部和输出部。
图1-7 神经网络学习系统框图输入部接收外来的输入样本X ,由训练部进行网络的权系数W 调整,然后由输出部输出结果。
BP神经网络BP神经网络,也称为反向传播神经网络(Backpropagation Neural Network),是一种常见的人工神经网络类型,用于机器学习和深度学习任务。
它是一种监督学习算法,用于解决分类和回归问题。
以下是BP神经网络的基本概念和工作原理:神经元(Neurons):BP神经网络由多个神经元组成,通常分为三层:输入层、隐藏层和输出层。
输入层接收外部数据,隐藏层用于中间计算,输出层产生网络的最终输出。
权重(Weights):每个连接两个神经元的边都有一个权重,表示连接的强度。
这些权重是网络的参数,需要通过训练来调整,以便网络能够正确地进行预测。
激活函数(Activation Function):每个神经元都有一个激活函数,用于计算神经元的输出。
常见的激活函数包括Sigmoid、ReLU(Rectified Linear Unit)和tanh(双曲正切)等。
前向传播(Forward Propagation):在训练过程中,输入数据从输入层传递到输出层的过程称为前向传播。
数据经过一系列线性和非线性变换,最终产生网络的预测输出。
反向传播(Backpropagation):反向传播是BP神经网络的核心。
它用于计算网络预测的误差,并根据误差调整网络中的权重。
这个过程分为以下几个步骤:1.计算预测输出与实际标签之间的误差。
2.将误差反向传播回隐藏层和输入层,计算它们的误差贡献。
3.根据误差贡献来更新权重,通常使用梯度下降法或其变种来进行权重更新。
训练(Training):训练是通过多次迭代前向传播和反向传播来完成的过程。
目标是通过调整权重来减小网络的误差,使其能够正确地进行预测。
超参数(Hyperparameters):BP神经网络中有一些需要人工设置的参数,如学习率、隐藏层的数量和神经元数量等。
这些参数的选择对网络的性能和训练速度具有重要影响。
BP神经网络在各种应用中都得到了广泛的使用,包括图像分类、语音识别、自然语言处理等领域。
1.最早的神经元数学模型是( )A.BP模型B.感知器模型N模型D.M-P模型答案:D解释:最早的形式化神经元数学模型是M-P模型,由美国心理学家McCulloch和数理逻辑学家Pitts合作于1943年提出2.生物神经元包括树突和轴突,其中树突相当于( ),轴突相当于( )A.输入端处理端B.输出端处理端C.输入端输出端D.输出端输入端答案:A3.下列哪个函数不可以做激活函数?A. y = tanh(x)B. y = sin(x)C. y = 2xD. y = sigmiod(x)答案:C解释激活函数的作用:引入非线性值,并且映射-1~1,所以y=2x不符合作为激活函数的要求4.tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中在下一层是更好的选择,请问正确吗?A.TrueB.False答案: A5.下面哪个选项不是神经网络训练过程中过拟合的防止方法?A.提前终止B.增加学习率C.L2正则化D.dropou答案:B6.卷积神经网络的正向传播过程是指从输入层到输出层的信息传播过程,该过程包括的操作有( )B.池化操作C.Relu操作D.全连接分类答案:D7.以下哪些结构属于BP神经网络A.输入层B.隐含层C.输出层D.卷积层答案:D8.前馈神经网络通过误差后向传播(BP算法)进行参数学习,这是一种()机器学习手段A.监督学习B.半监督学习C.无监督学习D.无监督学习和监督学习的结合答案:A9.下面对前馈神经网络描述不正确的是()A.层与层之间通过“全连接”进行连接,即两个相邻层之间神经元完全成对连接B.各个神经元接受前一级神经元的输入,并输出到下一级C.同一层内神经元之间存在全连接D.同一层内的神经元相互不连接答案:C10.下面对前馈神经网络这种深度学习方法描述不正确的是()A.实现了非线性映射B.是一种端到端学习的方法C.隐藏层数目大小对学习性能影响不大D.是一种监督学习的方法答案:C二、填空题1、进行深度学习应用开发的第一步也是至关重要的一步就是数据处理。
Neural Networks & Application1第3章感知器神经网络z 单层感知器z 多层感知器z 基本BP 算法z 标准BP 算法的改进z 基于BP 算法的多层感知器设计基础z 基于BP 算法的多层感知器应用与设计实例z课件下载::8080/aiwebdrive/wdshare/getsh are.do?action=exhibition&theParam=liangjing@zzu.e Neural Networks & Application23.1 单层感知器z 1958年,美国心理学家Frank Rosenblatt 提出一种具有单层计算单元的神经网络,称为Perceptron, 及感知器。
z感知器研究中首次提出了自组织、自学习的思想,而且对于所能解决的问题存在着收敛算法,并能从数学上严格证明,因而对神经网络的研究起了重要推动作用。
z单层感知器的结构与功能都非常简单,所以在解决实际问题时很少被采用,但在神经网络研究中具有重要意义,是研究其他网络的基础,而且较易学习和理解,适合于作为学习神经网络的起点。
Neural Networks & Application33.1 单层感知器z3.1.1 感知器模型单层感知器:只有一层处理单元的感知器12(,,...,)Tm o o o =O 单层感知器输入层(感知层)输出层(处理层)12(,,...,)Tn x x x =X 12(,,...,),1,2,...,T j j nj w w w j m==j W Neural Networks & Application43.1 单层感知器对于处理层中任一节点,其净输入net ’j 为来自输入层各节点的输入加权和离散型单层感知器的变换函数一般采用符号函数1'nj ij ii net w x ==∑0sgn(')sgn()sgn()nT j j j ij i j i o net T w x ==−==∑W XNeural Networks & Application53.1 单层感知器z 3.1.2 感知器的功能z单计算节点感知器就是一个M-P 神经元模型,采取符号变换函数,又称为符号单元。