深度神经网络
- 格式:docx
- 大小:503.94 KB
- 文档页数:6
了解深度学习和神经网络的基本原理深度学习和神经网络的基本原理深度学习(Deep Learning)作为人工智能领域的一个重要分支,利用神经网络来模拟人脑神经元的工作方式,实现机器对数据进行学习和理解的能力。
本文将简要介绍深度学习和神经网络的基本原理,并分点列出以下内容:1. 深度学习的基本概念- 深度学习是机器学习的一个子领域,主要以神经网络为基础,通过训练模型实现对数据的学习和预测。
- 深度学习最大的特点就是能够对大规模的数据进行处理,并从中提取有用的特征。
2. 神经网络的基本原理- 神经网络是深度学习的基石,它是由大量的神经元相互连接而成的,类似于人脑的神经元网络。
- 神经网络通常包括输入层、隐藏层和输出层。
输入层接收外部输入的数据,隐藏层通过计算和处理数据,输出层给出结果。
- 每个神经元都有多个输入和一个输出,输入通过权重和偏差进行加权求和,再经过激活函数进行处理,最后输出给下一层的神经元。
3. 深度学习的核心技术- 激活函数:激活函数在神经元中起到非线性变换的作用,常用的激活函数有sigmoid、ReLU等。
- 反向传播算法:用于对神经网络中的权重和偏差进行调整,使得神经网络的输出与实际结果更加接近。
- 损失函数:损失函数用于衡量神经网络输出结果与实际结果的差距,常用的损失函数有均方差、交叉熵等。
4. 深度学习的应用领域- 计算机视觉:深度学习在图像识别、目标检测、图像分割等方面取得了巨大的突破,例如人脸识别技术、自动驾驶等。
- 自然语言处理:深度学习在机器翻译、文本分类、情感分析等方面的应用越来越广泛,例如谷歌翻译、智能客服等。
- 语音识别:深度学习在语音识别方面具有重要的应用,例如苹果的Siri语音助手、亚马逊的Alexa等。
5. 深度学习的发展与挑战- 硬件提升:随着硬件计算能力的提升,如GPU的应用以及新型的神经网络加速器,加快了深度学习模型的训练和推断速度。
- 数据集和算法:大规模的数据集以及更加高级的算法模型,会对深度学习的发展产生积极影响。
深度学习技术在语音识别中的研究与进展随着人工智能技术的迅猛发展,深度学习技术在各个领域取得了重大突破。
语音识别作为其中一项关键技术,在近年来也取得了巨大的进展。
本文将探讨深度学习技术在语音识别领域的研究现状以及相关进展。
一、概述语音识别旨在将人类的语言转换为计算机可识别的形式。
长期以来,语音识别一直是人工智能领域的研究热点之一。
传统的语音识别技术主要基于统计模型和人工设计的特征提取算法,但在面对复杂而多变的语音信号时,效果有限。
而随着深度学习技术的崛起,特别是深度神经网络的广泛应用,语音识别领域开始迎来新的机遇。
二、深度学习在语音识别中的应用1. 深度神经网络的构建深度神经网络(Deep Neural Network,DNN)是深度学习技术在语音识别中的核心应用之一。
DNN通过多层神经元构成的网络实现对语音信号的建模。
其优势在于可以自动地从数据中学习到更高层次的抽象特征,从而提高语音识别的准确率。
2. 卷积神经网络的运用卷积神经网络(Convolutional Neural Network,CNN)作为深度学习领域的另一项重要技术,也被广泛应用于语音识别中。
CNN通过卷积层、池化层等结构对语音信号进行特征提取,进而实现对语音信号的分类与识别。
相比于传统的手工特征提取方法,CNN在语音识别中取得了更好的表现。
3. 递归神经网络的引入递归神经网络(Recurrent Neural Network,RNN)在语音识别中的应用也不可忽视。
RNN通过引入循环结构,可以处理时间序列数据。
语音信号具有时序性,因此RNN在语音识别中有着独特的优势。
通过RNN的使用,可以更好地捕捉语音信号中的时序信息,提高语音识别的准确性。
三、深度学习技术在语音识别中取得的进展1. 识别准确率的提升传统的语音识别技术在面对复杂的语音信号时,准确率通常较低。
而深度学习技术在语音识别中的应用,极大地改善了这一状况。
通过深度神经网络和卷积神经网络等模型的建立,语音识别的准确率显著提高。
神经网络的深度学习应用案例分析近年来,随着人工智能技术的飞速发展,神经网络的深度学习成为了研究的热点之一。
深度学习通过模拟人脑的神经网络结构,通过大量数据的训练来提高机器的学习能力。
在各个领域中,神经网络的深度学习都取得了一系列令人瞩目的成果。
本文将从医疗、金融和图像识别三个方面,分别介绍神经网络的深度学习在实际应用中的案例分析。
1. 医疗领域在医疗领域,神经网络的深度学习被广泛应用于疾病的诊断和预测。
例如,在肺癌的早期诊断中,研究人员使用深度学习算法对大量的CT影像进行训练,建立了一个肺癌诊断模型。
该模型能够准确地识别患者是否患有肺癌,提高了早期发现的准确率,为患者提供了更好的治疗机会。
此外,在医学影像分析方面,神经网络的深度学习也发挥了重要作用。
研究人员使用深度学习算法对MRI和CT等医学影像进行分析,能够准确地检测出肿瘤、血管等病变,并提供详细的定量分析结果。
这种技术的应用,不仅提高了医生的诊断准确性,还为患者提供了更加精准和个性化的治疗方案。
2. 金融领域在金融领域,神经网络的深度学习被广泛应用于风险评估和投资决策。
例如,在信用评估方面,研究人员使用深度学习算法对大量的借贷数据进行训练,建立了一个信用评估模型。
该模型能够准确地预测借款人的还款能力,帮助金融机构降低风险,提高贷款的准确性。
此外,在股票市场的预测方面,神经网络的深度学习也发挥了重要作用。
研究人员使用深度学习算法对历史股票数据进行分析,建立了一个股票预测模型。
该模型能够准确地预测股票的涨跌趋势,帮助投资者做出更加明智的投资决策。
3. 图像识别领域在图像识别领域,神经网络的深度学习被广泛应用于人脸识别、物体检测和图像分类等任务。
例如,在人脸识别方面,研究人员使用深度学习算法对大量的人脸图像进行训练,建立了一个人脸识别模型。
该模型能够准确地识别出人脸的特征,提高了人脸识别的准确率,广泛应用于安防领域和人脸支付等场景。
此外,在物体检测和图像分类方面,神经网络的深度学习也取得了重要突破。
深度图神经⽹络(GNN)论⽂part1/经典款论⽂1. KDD 2016,Node2vec 经典必读第⼀篇,平衡同质性和结构性《node2vec: Scalable Feature Learning for Networks》2. WWW2015,LINE 1阶+2阶相似度《Line: Large-scale information network embedding》3. KDD 2016,SDNE 多层⾃编码器《Structural deep network embedding》4. KDD 2017,metapath2vec 异构图⽹络《metapath2vec: Scalable representation learning for heterogeneous networks》5. NIPS 2013,TransE 知识图谱奠基《Translating Embeddings for Modeling Multi-relational Data》6. ICLR 2018,GAT attention机制《Graph Attention Network》7. NIPS 2017,GraphSAGE 归纳式学习框架《Inductive Representation Learning on Large Graphs 》8. ICLR 2017,GCN 图神经开⼭之作《SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS》9. ICLR 2016,GGNN 门控图神经⽹络《Gated Graph Sequence Neural Networks》10. ICML 2017,MPNN 空域卷积消息传递框架《Neural Message Passing for Quantum Chemistry》part2/热门款论⽂2020年之前11.[arXiv 2019]Revisiting Graph Neural Networks: All We Have is Low-Pass Filters重温图神经⽹络:我们只有低通滤波器[论⽂]12.[NeurIPS 2019]Break the Ceiling: Stronger Multi-scale Deep Graph Convolutional Networks 打破天花板:更强的多尺度深度图卷积⽹络[论⽂]13.[ICLR 2019] Predict then Propagate: Graph Neural Networks meet Personalized PageRank先预测后传播:图神经⽹络满⾜个性化 PageRank[论⽂][代码]14.[ICCV 2019]DeepGCNs: Can GCNs Go as Deep as CNNs?DeepGCN:GCN能像CNN⼀样深⼊吗?[论⽂][代码(Pytorch)][代码(TensorFlow)]15.[ICML 2018]Representation Learning on Graphs with Jumping Knowledge Networks基于跳跃知识⽹络的图表征学习[论⽂]16.[AAAI 2018]Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning深⼊了解⽤于半监督学习的图卷积⽹络[论⽂]2020年17.[arXiv 2020]Deep Graph Neural Networks with Shallow Subgraph Samplers具有浅⼦图采样器的深图神经⽹络[论⽂]18.[arXiv 2020]Revisiting Graph Convolutional Network on Semi-Supervised Node Classification from an Optimization Perspective从优化的⾓度重新审视半监督节点分类的图卷积⽹络[论⽂]19.[arXiv 2020]Tackling Over-Smoothing for General Graph Convolutional Networks解决通⽤图卷积⽹络的过度平滑[论⽂]20.[arXiv 2020]DeeperGCN: All You Need to Train Deeper GCNsDeeperGCN:训练更深的 GCN 所需的⼀切[论⽂][代码]21.[arXiv 2020]Effective Training Strategies for Deep Graph Neural Networks深度图神经⽹络的有效训练策略[论⽂][代码]22.[arXiv 2020]Revisiting Over-smoothing in Deep GCNs重新审视深度GCN中的过度平滑[论⽂]23.[NeurIPS 2020]Graph Random Neural Networks for Semi-Supervised Learning on Graphs⽤于图上半监督学习的图随机神经⽹络[论⽂][代码]24.[NeurIPS 2020]Scattering GCN: Overcoming Oversmoothness in Graph Convolutional Networks 散射GCN:克服图卷积⽹络中的过度平滑[论⽂][代码]25.[NeurIPS 2020]Optimization and Generalization Analysis of Transduction through Gradient Boosting and Application to Multi-scale Graph Neural NetworksTransduction through Gradient Boosting 的优化和泛化分析及其在多尺度图神经⽹络中的应⽤[论⽂][代码]26.[NeurIPS 2020]Towards Deeper Graph Neural Networks with Differentiable Group Normalization 迈向具有可微组归⼀化的更深图神经⽹络[论⽂]27.[ICML 2020 Workshop GRL+]A Note on Over-Smoothing for Graph Neural Networks关于图神经⽹络过度平滑的说明[论⽂]28.[ICML 2020]Bayesian Graph Neural Networks with Adaptive Connection Sampling具有⾃适应连接采样的贝叶斯图神经⽹络[论⽂]29.[ICML 2020]Continuous Graph Neural Networks连续图神经⽹络[论⽂]30.[ICML 2020]Simple and Deep Graph Convolutional Networks简单和深度图卷积⽹络[论⽂] [代码]31.[KDD 2020] Towards Deeper Graph Neural Networks⾛向更深的图神经⽹络[论⽂] [代码]32.[ICLR 2020]Graph Neural Networks Exponentially Lose Expressive Power for Node Classification 图神经⽹络对节点分类的表达能⼒呈指数级 下降[论⽂][代码]33.[ICLR 2020] DropEdge: Towards Deep Graph Convolutional Networks on Node Classification DropEdge:迈向节点分类的深度图卷积⽹络[Paper][Code]34.[ICLR 2020] PairNorm: Tackling Oversmoothing in GNNsPairNorm:解决GNN中的过度平滑问题[论⽂][代码]35.[ICLR 2020]Measuring and Improving the Use of Graph Information in Graph Neural Networks测量和改进图神经⽹络中图信息的使⽤[论⽂] [代码]36.[AAAI 2020]Measuring and Relieving the Over-smoothing Problem for Graph Neural Networks from the Topological View从拓扑⾓度测量和缓解图神经⽹络的过度平滑问题[论⽂]同学们是不是发现有些论⽂有代码,有些论⽂没有代码?学姐建议学概念读没代码的,然后再读有代码的,原因的话上周的⽂章有写,花⼏分钟看⼀下【学姐带你玩AI】公众号的——《图像识别深度学习研究⽅向没有导师带该怎么学习》part3/最新款论⽂37.[arXiv 2021]Two Sides of the Same Coin: Heterophily and Oversmoothing in Graph Convolutional Neural Networks同⼀枚硬币的两⾯:图卷积神经⽹络中的异质性和过度平滑[论⽂]38.[arXiv 2021]Graph Neural Networks Inspired by Classical Iterative Algorithms受经典迭代算法启发的图神经⽹络[论⽂]39.[ICML 2021]Training Graph Neural Networks with 1000 Layers训练 1000 层图神经⽹络[论⽂][代码]40.[ICML 2021] Directional Graph Networks ⽅向图⽹络[论⽂][代码]41.[ICLR 2021]On the Bottleneck of Graph Neural Networks and its Practical Implications 关于图神经⽹络的瓶颈及其实际意义[论⽂]42.[ICLR 2021] Adaptive Universal Generalized PageRank Graph Neural Network[论⽂][代码]43.[ICLR 2021]Simple Spectral Graph Convolution简单的谱图卷积[论⽂]。
深度神经网络的应用及分类深度神经网络(Deep Neural Network,DNN)是一种模仿人脑神经网络结构和工作原理的人工神经网络,具有多层非线性数据转换、特征提取和决策的能力。
由于其强大的表达能力和高效的训练方法,深度神经网络在计算机视觉、自然语言处理、语音识别、推荐系统等领域取得了巨大的成功。
本文将介绍深度神经网络的应用和分类,并着重讨论其在计算机视觉和自然语言处理中的具体应用。
深度神经网络的应用可以分为以下几个方面:1. 计算机视觉:深度神经网络在计算机视觉领域有广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。
其中,图像分类是最早也是最成功的深度学习任务之一,通过训练深度神经网络可以实现对图像进行分类,例如将图像分为“猫”、“狗”、“汽车”等。
目标检测则是在图像中找出目标物体的位置和类别,常用的算法有R-CNN、Faster R-CNN、YOLO等。
图像分割目标是将图像中的每个像素分别标注为目标物体的一部分,常用的算法有U-Net、FCN等。
人脸识别则是通过深度神经网络对人脸进行特征提取和匹配,实现人脸的识别和验证。
2. 自然语言处理:深度神经网络在自然语言处理领域也有广泛的应用,包括文本分类、命名实体识别、情感分析、机器翻译等。
在文本分类任务中,深度神经网络可以将文本分为不同的类别,例如将一篇新闻文章分类为“体育”、“娱乐”等。
命名实体识别是将文本中的特定实体(如人名、地名、组织机构等)识别出来,常用的算法有BiLSTM-CRF等。
情感分析则是分析文本的情感倾向,例如判断一句话是积极的还是消极的。
机器翻译是将一种语言的文本转换为另一种语言的文本,常用的算法有Seq2Seq等。
3. 推荐系统:推荐系统是根据用户的历史行为和兴趣,为其推荐感兴趣的物品或信息,深度神经网络在推荐系统中有重要的应用。
通过训练深度神经网络,可以将用户的行为数据(如点击、购买、收藏等)作为输入,预测用户对未来物品的评分或兴趣程度,从而实现个性化的推荐。
深度学习与神经网络深度学习和神经网络是近年来在人工智能领域取得重大突破的两个概念。
它们的出现改变了传统机器学习的方式,为我们提供了更强大、更高效的算法和模型。
本文将介绍深度学习与神经网络的基本概念和原理,并探讨它们在各个领域的应用。
一、深度学习的基本概念深度学习是一种基于神经网络模型的机器学习方法。
它的核心思想是通过多层次、逐层抽象的方式,从数据中自动学习特征,并用于任务的求解。
与传统机器学习相比,深度学习能够处理大规模的数据集,并能够自主学习和提取复杂高级特征。
神经网络是深度学习的基本构件,它是由人工神经元相互连接而成的网络模型。
神经网络的节点称为神经元,它们通过权重、偏置和激活函数来计算输入信号的输出。
通过调整权重和偏置,神经网络能够自我适应地学习和调整参数,达到更好的拟合数据和解决问题的效果。
二、深度学习的原理与算法深度学习的原理基于反向传播算法。
反向传播算法通过计算误差的梯度,以梯度下降的方式,不断调整神经网络的参数,使得网络输出尽可能接近实际标签。
例如,在图像识别任务中,反向传播算法能够让神经网络自动学习到图像的边缘、纹理等特征。
为了提高神经网络的性能和训练效率,人们提出了一系列深度学习算法和模型。
其中,卷积神经网络(CNN)是处理图像和视觉任务的经典模型;循环神经网络(RNN)则适用于语言处理和时序数据分析;生成对抗网络(GAN)则能够生成逼真的图像样本。
这些模型的结构和算法都经过不断改进和优化,使得深度学习在多个领域中都取得了令人瞩目的成果。
三、深度学习的应用领域深度学习的应用领域非常广泛,包括计算机视觉、自然语言处理、语音识别、医学影像分析等多个方向。
在计算机视觉中,深度学习可以用于图像分类、物体检测、人脸识别等诸多任务。
在自然语言处理中,深度学习能够实现文本分类、机器翻译、情感分析等任务。
在医疗领域,深度学习可以帮助医生进行病理判断、癌症检测等。
这些应用不仅提高了工作效率,也改善了我们的生活质量。
深度学习的神经网络与前馈神经网络深度学习在近几年取得了巨大的成功,成为人工智能领域的热门话题之一。
其中,神经网络作为深度学习的核心,一直扮演着至关重要的角色。
前馈神经网络作为最简单的神经网络结构之一,也是深度学习中最基础的模型之一。
本文将探讨深度学习的神经网络与前馈神经网络之间的关系,介绍它们的基本原理、发展历程以及在实际应用中的表现。
神经网络是受到人类大脑神经元连接方式的启发而设计出来的一种计算模型。
它由多个神经元(也称为节点)组成的层次结构组成,每个神经元会收到上一层神经元的输出,并通过对这些输出进行加权求和后传递给下一层神经元。
而深度学习则是指通过对大量数据进行训练来调整神经网络中的参数,从而使得网络能够更准确地进行预测和分类。
深度学习的核心思想是通过增加网络的深度来提高网络的表达能力,从而提高网络的性能。
前馈神经网络是最简单的一种神经网络结构,它由一个输入层、一个或多个隐藏层和一个输出层组成。
在前馈神经网络中,数据只能从输入层向输出层单向传播,不会存在循环连接。
这种结构使得前馈神经网络能够很好地处理一些简单的分类和回归任务。
然而,由于前馈神经网络的局限性,它在处理一些复杂的模式识别问题时性能有限。
深度学习的神经网络则是基于前馈神经网络的基础上发展起来的一种更加复杂的网络结构。
深度学习的神经网络可以包括多个隐藏层,每一层都可以学习到数据的不同抽象特征。
这种分层的结构能够使得神经网络更好地学习到数据的高阶表示,从而在复杂的模式识别问题中表现更加出色。
在深度学习的神经网络中,深度卷积神经网络(CNN)是一种非常流行的网络结构。
CNN通过使用卷积层和池化层来提取输入数据中的空间结构信息,从而实现对图像、视频等二维数据的准确分类和识别。
另外,循环神经网络(RNN)是一种能够处理序列数据的神经网络结构,它通过循环连接来记忆之前的信息,从而更好地适应时序数据的处理。
与前馈神经网络相比,深度学习的神经网络具有更强的表达能力和泛化能力。
深度学习神经网络在电信欺诈检测中的应用电信欺诈是一种被犯罪者利用电话、短信等电信手段实施的犯罪行为,其种类众多,如话费诈骗、短信诈骗、通讯录诈骗等。
这些欺诈行为给用户造成了经济损失和心理压力,也严重影响了电信服务的稳定和信誉。
为了解决电信欺诈问题,深度学习神经网络被用于欺诈检测分析中,实现了一定的成果。
深度学习神经网络是一种机器学习算法,通过模拟人脑神经系统的工作方式,进行大规模高效复杂数据的训练和分析。
在电信欺诈检测中,深度学习神经网络通过对用户通话、短信、上网等相关数据进行分析和模型训练,实现自动识别欺诈行为的目的。
为了应对电信欺诈问题,研究人员提出了基于深度学习神经网络的欺诈检测方法。
该方法主要包括以下步骤:1. 数据预处理:将用户通话、短信、上网等相关数据进行清洗、归一化等预处理操作,对数据进行格式化处理,以便后续的模型训练和分析。
2. 特征提取:提取用户通话、短信、上网等相关数据的特征,如通话时间、通话次数、通话长度等,将其转化为深度学习神经网络可处理的格式。
3. 模型训练:利用提取的特征,基于深度学习神经网络构建欺诈检测模型,进行模型参数的训练和优化,以达到欺诈检测的最优效果。
4. 模型测试:将模型应用于实际的电信欺诈检测中,对用户通话、短信、上网等相关数据进行分析和判断,实现自动识别和预测是否存在欺诈行为。
可以看到,基于深度学习神经网络的电信欺诈检测方法具有以下优点:1. 自动化:通过深度学习神经网络的自动化处理,无需人工干预,实现自动化智能化的欺诈检测,提高检测的效率和准确度。
2. 高效性:通过大规模高效复杂数据的训练和分析,能够快速准确地识别和预测欺诈行为,对电信服务的稳定和信誉提供了有效的保障。
3. 可靠性:通过模型的训练和测试,可以有效地降低误判和漏判的概率,提高欺诈检测的可靠性和准确性。
4. 可扩展性:基于深度学习神经网络的欺诈检测方法可以不断地更新和改进,从而实现对新型欺诈行为的适应和应对,具有较好的可扩展性。
深度强化学习中的神经网络算法深度强化学习(Deep Reinforcement Learning)是指结合神经网络和强化学习的一种学习方法。
神经网络算法在深度强化学习中起着重要的作用,通过其优秀的非线性拟合能力和自动学习能力,使得智能体能够从环境中获取更加复杂的知识和策略。
本文将深入探讨深度强化学习中的神经网络算法,包括基本概念、常用算法以及应用案例。
一、基本概念1. 强化学习强化学习是一种机器学习方法,其目标是通过与环境的交互来学习最优的行为策略。
在强化学习中,智能体通过观察环境的状态,采取相应的动作,根据环境的反馈获得奖励或惩罚,以此来调整自身的策略以获得最大的累积奖励。
2. 神经网络神经网络是一种模拟生物神经系统功能的数学模型,通过分层的结构和连接的神经元单元之间的权重来模拟输入和输出之间的关系。
神经网络算法能够根据输入数据自动学习并进行非线性的拟合,具有优秀的特征提取和模式识别能力。
二、常用算法1. 深度Q网络(Deep Q-Network, DQN)深度Q网络是深度强化学习中的经典算法,通过使用神经网络估计当前状态下采取各种动作所能获得的累积奖励值(Q值),并采用贪心策略选择最优动作。
DQN通过经验回放和目标网络等技术解决了强化学习中样本间相关性和目标值不稳定的问题。
2. 策略梯度(Policy Gradient, PG)策略梯度是一种基于概率的强化学习算法,通过直接学习策略函数,即状态到动作的映射关系。
PG通过采样的方式获取样本,并使用概率上升的方式更新策略参数。
相比于传统的值函数估计方法,策略梯度可以对连续动作空间进行建模,并具有较好的收敛性能。
3. 深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)深度确定性策略梯度是一种可以处理连续动作空间的深度强化学习算法。
DDPG通过同时学习策略和值函数,利用确定性策略优化器更新策略参数,并通过值函数优化器更新值函数参数。
1. 自联想神经网络与深度网络
自联想神经网络是很古老的神经网络模型,简单的说,它就是三层BP网络,只不过它的输出等于输入。
很多时候我们并不要求输出精确的等于输入,而是允许一定的误差存在。
所以,我们说,输出是对输入的一种重构。
其网络结构可以很简单的表示如下:
如果我们在上述网络中不使用sigmoid函数,而使用线性函数,这就是PCA模型。
中间网络节点个数就是PCA模型中的主分量个数。
不用担心学习算法会收敛到局部最优,因为线性BP网络有唯一的极小值。
在深度学习的术语中,上述结构被称作自编码神经网络。
从历史的角度看,自编码神经网络是几十年前的事情,没有什么新奇的地方。
既然自联想神经网络能够实现对输入数据的重构,如果这个网络结构已经训练好了,那么其中间层,就可以看过是对原始输入数据的某种特征表示。
如果我们把它的第三层去掉,这样就是一个两层的网络。
如果,我们把这个学习到特征再用同样的方法创建一个自联想的三层BP网络,如上图所示。
换言之,第二次创建的三层自联想网络的输入是上一个网络的中间层的输出。
用同样的训练算法,对第二个自联想网络进行学习。
那么,第二个自联想网络的中间层是对其输入的某种特征表示。
如果我们按照这种方法,依次创建很多这样的由自联想网络组成的网络结构,这就是深度神经网络,如下图所示:
注意,上图中组成深度网络的最后一层是级联了一个softmax分类器。
深度神经网络在每一层是对最原始输入数据在不同概念的粒度表示,也就是不同级别的特征描述。
这种层叠多个自联想网络的方法,最早被Hinton想到了。
从上面的描述中,可以看出,深度网络是分层训练的,包括最后一层的分类器也是单独训练的,最后一层分类器可以换成任何一种分类器,例如SVM,HMM等。
上面的每一层单独训练使用的都是BP算法。
相信这一思路,Hinton早就实验过了。
2. DBN神经网络模型
使用BP算法单独训练每一层的时候,我们发现,必须丢掉网络的第三层,才能级联自联想神经网络。
然而,有一种更好的神经网络模型,这就是受限玻尔兹曼机。
使用层叠波尔兹曼机组成深度神经网络的方法,在深度学习里被称作深度信念网络DBN,这是目前非
常流行的方法。
下面的术语,将把自联想网络称作自编码网络autoencoder.。
通过层叠自编码网络的深度网络在深度学习里另外一个属于叫栈式自编码网络。
经典的DBN网络结构是由若干层RBM 和一层BP 组成的一种深层神经网络, 结构如下图所示.
DBN 在训练模型的过程中主要分为两步:
第1 步:分别单独无监督地训练每一层RBM 网络,确保特征向量映射到不同特征空间时,都尽可能多地保留特征信息;
第2 步:在DBN 的最后一层设置BP 网络,接收RBM 的输出特征向量作为它的输入特征向量,有监督地训练实体关系分类器.而且每一层RBM 网络只能确保自身层内的权值对该层特征向量映射达到最优,并不是对整个DBN 的特征向量映射达到最优,所以反向传播网络还将错误信息自顶向下传播至每一层RBM,微调整个DBN 网络.RBM 网络训练模型的过程可以看作对一个深层BP 网络权值参数的初始化,使DBN 克服了BP
网络因随机初始化权值参数而容易陷入局部最优和训练时间长的缺点.
上述训练模型中第一步在深度学习的术语叫做预训练,第二步叫做微调。
最上面有监督学习的那一层,根据具体的应用领域可以换成任何分类器模型,而不必是BP网络。
3. 深度信念网络的应用
由于自编码网络可以对原始数据在不同概念的粒度上进行抽象,深度网络一种自然的应用是对数据进行压缩或者叫降维。
胡邵华等,他们用一种自编码网络实现了对经典的"瑞士卷"数据的重构:
" 瑞士卷"数据是经典的机器学习中难于分类的数据之一,其隐含的数据内在模式难以在二维数据中描述。
然而,胡邵华等,采用深度信念网络实现了对三维瑞士卷数据的2维表示,其自编码网络节点大小依次为3-100-50-25-10-2. 具体的实现细节请参考文献:胡邵华、宋耀良:基于autoencoder网络的数据降维与重构。
深度神经网络的另一个常见的应用是特征提取。
文献:Philippe Hamel and Douglas Eck, LEARNING FEATURES FROM MUSIC AUDIO WITH DEEP BELIEF NETWORKS.
通过训练一个5层的深度网络提取音乐的特征,用于音乐风格的分类,其分类精度比基于梅尔倒谱系数特征分类的方法提到了14个百分点。
他们的实现思路非常简单,用上述层叠的多个RBM网络组成深度网络结构来提取音乐的特征。
输入的原始数据是经过分帧,加窗之后的信号的频谱。
分类器采用的是支撑矢量机SVM。
对比的方法则是提取MFCC特征系数,分类器同样采用SVM。
更多的细节和实验结果可以参考上面提到的文献。
深度网络是一种良好的无监督学习方法,其特征提取功能能够针对不同概念的粒度大小,能够在很多领域得到广泛的应用。
通常,DBN主要用于对一维数据的建模比较有效,例如语音。
而通过级联多层卷积网络组成深度网络的模型主要用于二维数据,例如图像等。
今后,本人将会更多的关注其具体应用领域的具体算法细节的工程化实现。