了解神经网络,你需要知道的名词都在这里
- 格式:pdf
- 大小:1.45 MB
- 文档页数:8
深度学习名词解释题引言深度研究是一种基于人工神经网络的机器研究方法,近年来在人工智能领域取得了重大突破。
在深度研究中,有许多重要的名词和概念需要了解和掌握。
本文将解释并介绍一些关键的深度研究名词,帮助读者更好地理解和应用深度研究技术。
名词解释1. 人工神经网络(Artificial Neural Network,ANN)人工神经网络是一种模拟人脑神经元之间连接的计算模型。
它由多个神经元层组成,每个神经元层包含多个节点,每个节点表示一个神经元。
节点之间以权重相连,通过输入数据的传递和计算,最终得到输出结果。
人工神经网络是深度研究的核心结构,可以通过训练和优化,实现从输入到输出的自动化任务。
2. 前馈神经网络(Feedforward Neural Network)前馈神经网络是一种最基础的神经网络结构,信息只能从输入层经过各隐藏层传递到输出层,信息流只有一方向,没有反馈连接。
前馈神经网络广泛用于分类、回归、模式识别等任务。
它的特点是结构简单、计算高效,但对于一些复杂的问题可能存在局限性。
3. 卷积神经网络(Convolutional Neural Network,CNN)卷积神经网络是一种特殊的前馈神经网络,其中的神经元层之间采用了卷积操作。
CNN主要应用于图像处理和计算机视觉任务,通过卷积层、池化层和全连接层的组合,能够有效地提取图像的特征,并进行分类、识别等任务。
相比于其他神经网络结构,CNN在处理图像数据上具有更好的表现和效果。
4. 递归神经网络(Recurrent Neural Network,RNN)递归神经网络是一种具有反馈连接的神经网络结构,主要用于处理序列数据,如语音识别、自然语言处理等任务。
与前馈神经网络不同,RNN的隐藏层之间存在循环连接,使得信息能够在网络中传递和记忆。
这种循环结构使得RNN在处理时序数据时具有优势,并广泛应用于语音、文本等领域。
5. 生成对抗网络(Generative Adversarial Network,GAN)生成对抗网络由一个生成器和一个判别器组成,通过交互训练来产生逼真的数据样本。
neural information processing systems介绍Neural information processing systems,简称neural nets,是一种模拟人类神经系统的计算模型,用于处理和解释大量数据。
它们在许多领域都有广泛的应用,包括但不限于机器学习、人工智能、自然语言处理、图像识别等。
一、神经网络的基本原理神经网络是由多个神经元互联而成的计算系统,通过模拟人脑的工作方式,能够学习和识别复杂的数据模式。
神经元是神经网络的基本单元,它接收输入信号,通过非线性变换和权重的加权和,产生输出信号。
多个神经元的组合形成了一个复杂的网络结构,能够处理大量的输入数据,并从中提取有用的信息。
二、神经网络的类型神经网络有多种类型,包括感知机、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)和Transformer等。
每种类型都有其特定的应用场景和优势,可以根据具体的问题和数据特点选择合适的网络模型。
三、神经网络的发展历程神经网络的发展经历了漫长的历程,从最初的感知机到现在的深度学习技术,经历了多次变革和优化。
在这个过程中,大量的研究者投入了大量的时间和精力,不断改进网络结构、优化训练方法、提高模型的泛化能力。
四、神经网络的应用领域神经网络的应用领域非常广泛,包括但不限于图像识别、语音识别、自然语言处理、推荐系统、机器人视觉等。
随着技术的不断发展,神经网络的应用场景也在不断扩展,为许多领域带来了革命性的变革。
五、神经网络的未来发展未来神经网络的发展将面临许多挑战和机遇。
随着数据量的不断增加和计算能力的提升,神经网络将更加深入到各个领域的应用中。
同时,如何提高模型的泛化能力、降低计算复杂度、解决过拟合问题等也是未来研究的重要方向。
此外,神经网络的算法和理论也需要不断完善和深化,为未来的应用提供更加坚实的基础。
六、结论神经信息处理系统是一种强大的计算模型,具有广泛的应用领域和巨大的发展潜力。
神经⽹络CNN名词解释隐藏层不是输⼊或输出层的所有层都称为隐藏层.激活和池化都没有权重使层与操作区分开的原因在于层具有权重。
由于池操作和激活功能没有权重,因此我们将它们称为操作,并将其视为已添加到层操作集合中。
例如,我们说⽹络中的第⼆层是⼀个卷积层,其中包含权重的集合,并执⾏三个操作,即卷积操作,relu激活操作和最⼤池化操作。
传⼊Linear层之前展平张量在将输⼊传递到第⼀个隐藏的Linear层之前,我们必须reshape()或展平我们的张量。
每当我们将卷积层的输出作为Linear层的输⼊传递时,都是这种情况。
正向传播正向传播是将输⼊张量转换为输出张量的过程。
神经⽹络的核⼼是将输⼊张量映射到输出张量的功能,⽽正向传播只是将传递输⼊到⽹络并从⽹络接收输出的过程的特殊名称。
in_channels对于最初输⼊图⽚样本的通道数in_channels取决于图⽚的类型,如果是彩⾊的,即RGB类型,这时候通道数固定为3,如果是灰⾊的,通道数为1。
out_channels卷积完成之后,输出的通道数out_channels取决于过滤器的数量。
从这个⽅向理解,这⾥的out_channels设置的就是过滤器的数⽬。
对于第⼆层或者更多层的卷积,此时的 in_channels 就是上⼀层的 out_channels , out_channels 还是取决于过滤器数⽬。
为什么GPU在深度学习中能够如此⼴泛的使⽤?因为神经⽹络是易并⾏的(embarrassing parallel),即:很容易就能够将任务分解成⼀组独⽴的⼩任务;神经⽹络的很多计算都可以很容易地分解成更⼩的相互独⽴的计算,这使得GPU在深度学习任务中⾮常有⽤。
⼀个卷积核对⼀张图像进⾏卷积的每个运算是独⽴且相继发⽣的,故可将其分成⼀个个⼩任务,使⽤GPU加速运算; (图像分块后送⼊神经⽹络是否同理?)张量张量是神经⽹络中使⽤的主要数据结构,⽹络中的输⼊、输出和转换均使⽤张量表⽰.张量与张量之间的运算必须是相同数据类型在相同的设备上发⽣的.张量是包含⼀个同⼀类型的数据.索引数量计算机科学中的名称数学中的名称Tensor表⽰0数字标量0维张量1数组⽮量1维张量2⼆维数组矩阵2维张量n N维数组N维张量n维张量张量的阶是指张量中的维数。
神经网络基本知识一、内容简述神经网络是机器学习的一个重要分支,是一种模拟生物神经网络结构和功能的计算模型。
它以其强大的学习能力和自适应能力广泛应用于多个领域,如图像识别、语音识别、自然语言处理等。
《神经网络基本知识》这篇文章将带领读者了解神经网络的基本概念、原理和应用。
1. 神经网络概述神经网络是一种模拟生物神经系统结构和功能的计算模型。
它由大量神经元相互连接构成,通过学习和调整神经元之间的连接权重来进行数据处理和模式识别。
神经网络的概念自上世纪五十年代提出以来,经历了漫长的发展历程,逐渐从简单的线性模型演变为复杂的多层非线性结构。
神经网络在人工智能领域发挥着核心作用,广泛应用于计算机视觉、语音识别、自然语言处理等领域。
神经网络的基本构成单元是神经元,每个神经元接收来自其他神经元的输入信号,通过特定的计算方式产生输出信号,并传递给其他神经元。
不同神经元之间的连接强度称为权重,通过训练过程不断调整和优化。
神经网络的训练过程主要是通过反向传播算法来实现的,通过计算输出层误差并反向传播到输入层,不断调整权重以减小误差。
神经网络具有强大的自适应能力和学习能力,能够处理复杂的模式识别和预测任务。
与传统的计算机程序相比,神经网络通过学习大量数据中的规律和特征,自动提取高级特征表示,避免了手动设计和选择特征的繁琐过程。
随着深度学习和大数据技术的不断发展,神经网络的应用前景将更加广阔。
神经网络是一种模拟生物神经系统功能的计算模型,通过学习和调整神经元之间的连接权重来进行数据处理和模式识别。
它在人工智能领域的应用已经取得了巨大的成功,并将在未来继续发挥重要作用。
2. 神经网络的历史背景与发展神经网络的历史可以追溯到上个世纪。
最初的神经网络概念起源于仿生学,模拟生物神经网络的结构和功能。
早期的神经网络研究主要集中在模式识别和机器学习的应用上。
随着计算机科学的快速发展,神经网络逐渐成为一个独立的研究领域。
在20世纪80年代和90年代,随着反向传播算法和卷积神经网络的提出,神经网络的性能得到了显著提升。
神经网络简介神经网络简介:人工神经网络是以工程技术手段来模拟人脑神经元网络的结构和特征的系统。
利用人工神经网络可以构成各种不同拓扑结构的神经网络,他是生物神经网络的一种模拟和近似。
神经网络的主要连接形式主要有前馈型和反馈型神经网络。
常用的前馈型有感知器神经网络、BP 神经网络,常用的反馈型有Hopfield 网络。
这里介绍BP (Back Propagation )神经网络,即误差反向传播算法。
原理:BP (Back Propagation )网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。
BP 神经网络模型拓扑结构包括输入层(input )、隐层(hide layer)和输出层(output layer),其中隐层可以是一层也可以是多层。
图:三层神经网络结构图(一个隐层)任何从输入到输出的连续映射函数都可以用一个三层的非线性网络实现 BP 算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。
正向传播时,传播方向为输入层→隐层→输出层,每层神经元的状态只影响下一层神经元。
若在输出层得不到期望的输出,则转向误差信号的反向传播流程。
通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。
单个神经元的计算:设12,...ni x x x 分别代表来自神经元1,2...ni 的输入;12,...i i ini w w w 则分别表示神经元1,2...ni 与下一层第j 个神经元的连接强度,即权值;j b 为阈值;()f ∙为传递函数;j y 为第j 个神经元的输出。
若记001,j j x w b ==,于是节点j 的净输入j S 可表示为:0*nij ij i i S w x ==∑;净输入j S 通过激活函数()f ∙后,便得到第j 个神经元的输出:0()(*),nij j ij i i y f S f w x ===∑激活函数:激活函数()f ∙是单调上升可微函数,除输出层激活函数外,其他层激活函数必须是有界函数,必有一最大值。
神经网络的学习名词解释神经网络是一种模拟人脑神经系统功能的计算模型,通过大量的节点(或称为神经元)之间的连接,实现信息的传递和处理。
随着机器学习和人工智能的发展,神经网络逐渐成为重要的工具,被广泛应用于图像识别、自然语言处理等领域。
本文将介绍神经网络中常见的学习名词,并对其进行解释。
1. 感知器(Perceptron):感知器是神经网络中最基本的模型,模拟了人脑中的神经元。
它接收多个输入,并通过一个激活函数产生输出。
感知器的学习过程是通过调整连接权重来使感知器输出逼近期望输出。
2. 前馈神经网络(Feedforward Neural Network):前馈神经网络是一种直接将数据从输入层传输到输出层的网络结构。
每个神经元只与下一层的神经元连接,信息只能向前传递,不能产生回路。
前馈神经网络的训练过程主要通过反向传播算法来调整网络的权重,以达到期望的输出。
3. 反向传播算法(Backpropagation):反向传播算法是神经网络中最常用的训练算法。
它通过计算权重的梯度,不断调整网络的连接权重,使网络的输出逼近期望的输出。
反向传播算法主要分为前向传播和误差反向传播两个过程,前向传播计算各层的输出,而误差反向传播则从输出层开始,逐层计算误差并反向传播到输入层。
4. 激活函数(Activation Function):激活函数决定了神经元输出的形式,常见的激活函数有Sigmoid、ReLU、Tanh 等。
激活函数引入非线性因素,使神经网络具有非线性表示能力。
它们的选择在神经网络的性能和收敛速度中起着重要的作用。
5. 损失函数(Loss Function):损失函数是用来衡量网络输出与期望输出之间的差异。
在训练过程中,通过最小化损失函数来调整网络的参数,以达到更准确的预测结果。
常见的损失函数有均方误差(MSE)、交叉熵等。
6. 优化算法(Optimization Algorithm):优化算法用来求解损失函数最小化的问题。
神经网络基本知识、BP神经网络一.概述1.1神经网络的定义人工神经网络(Artificial Neural Networks,简写为 ANNs)是由大量类似于生物神经元的处理单元相互连接而成的非线性复杂网络系统。
它是用一定的简单的数学模型来对生物神经网络结构进行描述,并在一定的算法指导下,使其能够在某种程度上模拟生物神经网络所具有的智能行为,解决传统算法所不能胜任的智能信息处理的问题。
它是巨量信息并行处理和大规模并行计算的基础,神经网络既是高度非线性动力学系统,又是自组织自适应系统,可用来描述认知、决策和控制的智能行为。
1.2 神经网络的发展历史对人工神经网络的研究始于 1943 年,经历 60 多年的发展,目前已经在许多工程研究领域得到了广泛应用。
但它并不是从一开始就倍受关注,它的发展道路曲折、几经兴衰,大致可以分为以下五个阶段:①奠基阶段:1943 年,由心理学家 McCulloch 和数学家 Pitts 合作,提出第一个神经计算模型,简称 M-P 模型,开创了神经网络研究这一革命性的思想。
②第一次高潮阶段:20 世纪 50 年代末 60 年代初,该阶段基本上确立了从系统的角度研究人工神经网络。
1957 年 Rosenblatt 提出的感知器(Perceptron)模型,可以通过监督学习建立模式判别能力。
③坚持阶段:随着神经网络研究的深入开展,人们遇到了来自认识、应用实现等方面的难题,一时难以解决。
神经网络的工作方式与当时占主要地位的、以数学离散符号推理为基本特征的人工智能大相径庭,但是更主要的原因是:当时的微电子技术无法为神经网络的研究提供有效的技术保证,使得在其后十几年内人们对神经网络的研究进入了一个低潮阶段。
④第二次高潮阶段:20 世纪 70 年代后期,由于神经网络研究者的突出成果,并且传统的人工智能理论和 Von.Neumann 型计算机在许多智能信息处理问题上遇到了挫折,而科学技术的发展又为人工神经网络的物质实现提供了基础,促使神经网络的研究进入了一个新的高潮阶段。
了解神经网络的不同类型及其优势神经网络是一种模拟人脑神经系统的计算模型,它通过各个神经元之间的连接以及连接权值的调整来实现信息的处理和学习。
随着人工智能领域的发展,神经网络在图像识别、自然语言处理、推荐系统等应用中发挥着重要的作用。
本文将介绍神经网络的不同类型及其优势。
一、前馈神经网络(Feedforward Neural Network)前馈神经网络是最基本的神经网络类型之一,它的信息流只能沿着前向的路径传递,不允许回路出现。
前馈神经网络通常由输入层、隐含层(可能存在多个)、输出层组成。
其中,输入层接收外部输入的数据,隐含层进行信息的处理和转换,输出层输出网络的结果。
前馈神经网络的优势在于其简单性和易于理解。
通过调整连接权值和选择合适的激活函数,前馈神经网络可以实现各种复杂的非线性映射关系,从而适用于多种任务。
二、循环神经网络(Recurrent Neural Network)循环神经网络是一种具有循环连接的神经网络类型,它可以根据以前的计算结果进行自我反馈。
相比于前馈神经网络,循环神经网络具有记忆功能,适用于处理序列数据,比如语音识别、语言模型等。
循环神经网络的优势在于其能够捕捉序列数据中的时间依赖关系。
通过循环连接,网络可以利用之前的状态信息来影响当前的输出,从而实现对历史信息的记忆和利用。
三、卷积神经网络(Convolutional Neural Network)卷积神经网络是一种专门用于处理网格结构数据的神经网络类型,如图像、视频等。
其核心思想是利用卷积层和池化层来提取图像中的特征,最终通过全连接层进行分类或回归任务。
卷积神经网络的优势在于其能够自动学习图像中的特征。
通过卷积操作,网络可以提取图像的局部特征,并通过池化操作减少参数量,使网络具有更好的计算效率和推广能力。
四、生成对抗网络(Generative Adversarial Network)生成对抗网络是由生成器和判别器两个部分组成的,它们通过对抗的方式相互协调来提高网络的性能。
什么是神经网络?神经网络是一种模仿人脑神经系统构建的计算模型。
它由一组互相连接的神经元单元组成,这些神经元单元可以传输和处理信息。
神经网络可以通过研究和训练来理解和解决问题。
结构神经网络由多个层级组成,包括输入层、隐藏层和输出层。
每个层级都由多个神经元单元组成。
输入层接收外部的数据输入,隐藏层和输出层通过连接的权重来处理和传递这些输入信息。
工作原理神经网络的工作原理主要包括两个阶段:前向传播和反向传播。
- 前向传播:输入数据通过输入层传递给隐藏层,然后进一步传递到输出层。
在传递的过程中,神经网络根据权重和激活函数计算每个神经元的输出值。
- 反向传播:通过比较神经网络的输出和期望的输出,计算误差,并根据误差调整权重和偏差。
这个过程不断重复,直到神经网络的输出接近期望结果。
应用领域神经网络在许多领域有广泛的应用,包括:- 机器研究:神经网络可以用于图像识别、语音识别、自然语言处理等任务。
- 金融领域:用于预测股票价格、风险评估等。
- 医疗领域:用于疾病诊断、药物发现等。
- 自动驾驶:神经网络在自动驾驶汽车中的感知和决策中有重要作用。
优势和局限性神经网络的优势包括:- 可以研究和适应不同的数据模式和问题。
- 能够处理大量的数据和复杂的非线性关系。
- 具有并行计算的能力,可以高效处理大规模数据。
神经网络的局限性包括:- 需要调整许多参数,并且结果可能不稳定。
- 解释性较差,很难理解模型的内部工作原理。
总结神经网络是一种模仿人脑神经系统构建的计算模型,具有广泛的应用领域和一定的优势和局限性。
随着技术的不断发展,神经网络在各个领域的应用将会越来越广泛。
神经网络的介绍范文
神经网络(Neural Networks)是一种利用统计学习的方法,来解决
计算机视觉,自然语言处理,以及其他各种智能问题。
基本的神经网络架
构是由多个由具有可学习的权重的神经元构成的多层网络,每个神经元都
有一个可以被其他神经元影响的活动函数(例如逻辑函数或非线性函数)。
在简单的神经网络中,神经元可以接收输入信号并输出一个基于输入
信号。
输入信号可以是一维数组或多维数组,输出值可以是一维数组,也
可以是多维数组。
神经元可以有不同的连接强度,一些强连接的神经元可
以更大程度的影响输出,而连接弱的神经元则起到一个较小的作用。
神经
元之间的权重(weights)可以用梯度下降算法调整,以更精确的拟合数据。
分类器神经网络(Classifier Neural Networks)是使用神经网络来
实现分类任务的一种技术,类似于支持向量机(SVM)和朴素贝叶斯分类
器(Naive Bayes Classifier)。
该网络包含多个输入层,隐藏层和输出层。
输入层接收原始信号,隐藏层处理特征和聚类,然后输出层将结果转
换为有意义的分类结果。
入门 | 了解神经网络,你需要知道的名词都在这里
近日,Mate Labs 联合创始人兼 CTO 在 Medium 上撰文《Everything you need to know about Neural Networks》,从神经元到 Epoch,扼要介绍了神经网络的主要核心术语。
理解什么是人工智能,以及机器学习和深度学习如何影响它,是一种不同凡响的体验。
在 Mate Labs 我们有一群自学有成的工程师,希望本文能够分享一些学习的经验和捷径,帮助机器学习入门者理解一些核心术语的意义。
神经元(节点)—神经网络的基本单元,它包括特定数量的输入和一个偏置值。
当一个信号(值)输入,它乘以一个权重值。
如果一个神经元有 4 个输入,则有 4 个可在训练中调节的权重值。
神经网络中一个神经元的运算
连接—它负责连接同层或两层之间的神经元,一个连接总是带有一个权重值。
训练的目标是更新这一权重值以降低损失(误差)。
偏置(Offset)—它是神经元的额外输入,值总是 1,并有自己的连接权重。
这确保即使当所有输入为 0 时,神经元中也存在一个激活函数。
激活函数(迁移函数)—激活函数负责为神经网络引入非线性特征。
它把值压缩到一个更小范围,即一个Sigmoid 激活函数的值区间为 [0,1]。
深度学习中有很多激活函数,ReLU、SeLU 、TanH 较 Sigmoid 更为常用。
更多激活函数,请参见《一文概览深度学习中的激活函数》。
各种激活函数
基本的神经网络设计
输入层—神经网络的第一层。
它接收输入信号(值)并将其传递至下一层,但不对输入信号(值)执行任何运算。
它没有自己的权重值和偏置值。
我们的网络中有 4 个输入信号 x1、x2、x3、x4。
隐藏层—隐藏层的神经元(节点)通过不同方式转换输入数据。
一个隐藏层是一个垂直堆栈的神经元集。
下面的图像有 5 个隐藏层,第 1 个隐藏层有 4 个神经元(节点),第 2 个 5 个神经元,第 3 个 6 个神经元,第 4个 4 个神经元,第 5 个 3 个神经元。
最后一个隐藏层把值传递给输出层。
隐藏层中所有的神经元彼此连接,下一层的每个神经元也是同样情况,从而我们得到一个全连接的隐藏层。
输出层—它是神经网络的最后一层,接收来自最后一个隐藏层的输入。
通过它我们可以得到合理范围内的理想数值。
该神经网络的输出层有 3 个神经元,分别输出 y1、y2、y3。
输入形状—它是我们传递到输入层的输入矩阵的形状。
我们的神经网络的输入层有 4 个神经元,它预计 1 个样本中的 4 个值。
该网络的理想输入形状是 (1, 4, 1),如果我们一次馈送它一个样本。
如果我们馈送 100 个样本,输入形状将是 (100, 4, 1)。
不同的库预计有不同格式的形状。
权重(参数)—权重表征不同单元之间连接的强度。
如果从节点 1 到节点 2 的权重有较大量级,即意味着神将元 1 对神经元 2 有较大的影响力。
一个权重降低了输入值的重要性。
权重近于 0 意味着改变这一输入将不会改变输出。
负权重意味着增加这一输入将会降低输出。
权重决定着输入对输出的影响力。
前向传播
前向传播—它是把输入值馈送至神经网络的过程,并获得一个我们称之为预测值的输出。
有时我们也把前向传播称为推断。
当我们馈送输入值到神经网络的第一层时,它不执行任何运算。
第二层接收第一层的值,接着执行乘法、加法和激活运算,然后传递至下一层。
后续的层重复相同过程,最后我们从最后一层获得输出值。
反向传播
反向传播—前向传播之后我们得到一个输出值,即预测值。
为了计算误差我们对比了带有真实输出值的预测值。
我们使用一个损失函数(下文提及)计算误差值。
接着我们计算每个误差值的导数和神经网络的每个权重。
反向传播运用微分学中的链式法则,在其中我们首先计算最后一层中每个误差值的导数。
我们调用这些导数、梯度,并使用这些梯度值计算倒数第二层的梯度,并重复这一过程直到获得梯度以及每个权重。
接着我们从权重值中减去这一梯度值以降低误差。
通过这种方式我们不断接近局部最小值(即最小损失)。
学习率—训练神经网络的时候通常会使用梯度下降优化权重。
在每一次迭代中使用反向传播计算损失函数对每一个权重的导数,并从当前权重减去导数和学习率的乘积。
学习率决定了更新权重(参数)值的快慢。
学习率应
该尽可能高而不会花费太多时间达到收敛,也应该尽可能低从而能找到局部最优。
精度和召回率
准确率—测量值对标准(或已知)值的接近程度。
精度—两个测量值之间的接近程度,表示测量的可重复性或可再现性。
召回率(敏感度)—全部相关实例中被恢复的相关实例的比率。
Tp 指真正,Tn 指真负,Fp 指假正,Fn 指假负。
混淆矩阵—维基百科的解释是:
机器学习领域和统计分类问题中,混淆矩阵(也称为误差矩阵/error matrix)是一个算法性能的可视化表格,通常在监督学习中使用(无监督学习中混淆矩阵通常称为匹配矩阵,/matching matrix)。
矩阵的每一行表示一个预测类,每一列表示一个真实类(或相反)。
使用真实的名词使其易于解读,能简单地看出系统对两个类别的混淆程度(即将一个类别的物体标记为另一个)。
混淆矩阵
收敛—随着迭代次数增加,输出越来越接近具体的值。
正则化—用于克服过拟合问题。
正则化过程中通过添加一个 L1(LASSO)或 L2(Ridge)规范到权重向量w(通过给定算法学习到的参数)上以「惩罚」损失项:
L(损失函数)+λN(w)—这里的λ是正则项,N(w)是 L1 或 L2 规范。
归一化—数据归一化是将一个或多个属性缩放至 0 到 1 的范围的过程。
当不知道数据分布或分布不是高斯分布(钟形曲线)()的时候,归一化是很有用的,可加速学习过程。
全连接层—一个层所有的节点的激活函数值作为下一层的每个节点的输入,若这对所有的层都成立,则称这些层为全连接层。
全连接层
损失函数/代价函数—损失函数计算单个训练样本的误差,代价函数是整个训练集的损失函数的平均。
「mse」—平均方差
「binary_crossentropy」—二分类对数损失(logloss)
「categorical_crossentropy」—多分类对数损失(logloss)
模型优化器—优化器是一种搜索技术,用于更新模型的权重。
SGD—随机梯度下降,支持动量算法。
RMSprop—适应性学习率优化方法,由 Geoff Hinton 提出。
Adam—适应性矩估计(Adam)并同样使用了适应性学习率。
性能指标—用于测量神经网络性能的指标,例如,准确率、损失、验证准确率、验证损失、平均绝对误差、精度、召回率和 f1 分数等等。
批大小—一次前向/反向传播中适用的样本数,批大小越大,占用的内存量越大。
训练 epochs—模型在训练数据集上重复训练的总次数。
一个 epoch = 全部训练实例的一次前向和一次反向传播。
原文链接:https:///@matelabs_ai/everything-you-need-to-know-about-neural-networks-8988c3ee4491。