基于Tanh多层函数的量子神经网络算法及其应用的研究
- 格式:pdf
- 大小:321.62 KB
- 文档页数:4
对Tanh函数法的推广及其在非线性方程中的应用罗琳;徐国进【期刊名称】《湖北工程学院学报》【年(卷),期】2004(024)003【摘要】为了得到非线性偏微方程的行波解,提出了一种推广的tanh函数法.这种方法的主要思想是充分利用涉及两个参变量的广义Riccati方程,用它的解去代替tanh函数解,并且能从参数的符号准确地判断出行波解的类型和个数.%An extended tanh-function method is proposed for constructing multiple traveling wave solutions of nonlinear partial differential equations in a unified way. The key idea of this method is to take full advantage of a generalized Riccati equation involving two parameters and use its solutions to replace the tanh function in the tanh-function method. It is quite interesting that the sign of the parameters can be used to exactly judge the numbers and types of these traveling wave solutions.【总页数】5页(P58-62)【作者】罗琳;徐国进【作者单位】孝感学院,数学系,湖北,孝感,432000;孝感学院,数学系,湖北,孝感,432000【正文语种】中文【中图分类】O175.23【相关文献】1.利用推广的Tanh函数法求解两个非线性发展方程 [J], 刘雪梅;接贤2.推广的Tanh-函数法及其应用 [J], 徐振民;李柱3.Tanh函数法的推广及应用 [J], 夏鸿鸣;何万生;温志贤4.tanh函数法及其在Joseph-Egri方程中的推广和应用 [J], 李萍;白羽5.tanh函数法及其在Joseph-Egri方程中的推广和应用 [J], 李萍;白羽因版权原因,仅展示原文概要,查看原文内容请购买。
基于神经网络的可逆和量子计算研究进展及应用展望近年来,随着计算机科学与量子力学的结合,量子计算逐渐成为了一个备受关注的研究领域。
神经网络作为一种优秀的数据处理算法,也被广泛应用于各种计算机科学领域之中,包括量子计算。
在这篇文章中,我们将探讨基于神经网络的可逆和量子计算的研究进展,以及它们未来的应用展望。
一、可逆计算和神经网络可逆计算(Reversible computing)是指一种特殊的计算方式,在该计算方式下,计算机的每一个操作均可逆转。
这种计算方式可以极大地降低计算机的能量消耗,并且可以使得计算机进行的计算更加高效。
传统的计算机计算方式是非可逆计算,也就是说由于信息的丢失,计算结果难以还原。
而可逆计算恰能避免这个问题。
神经网络(Neural Network)是指模仿人脑神经元之间的连接模式进行计算和分析的一种算法。
在神经网络上进行的计算是可逆的,也就是说,每一次计算操作都会产生对应的反向操作,可以使得计算结果可逆转。
因此,基于神经网络的可逆计算算法逐渐成为了研究的热点。
二、量子计算和可逆计算量子计算(Quantum Computing)是基于量子力学原理,利用量子比特的叠加和纠缠等特性进行信息处理和计算的一种计算方式。
相较于传统的计算机,量子计算机可以更加高效地解决某些问题,如因子分解等。
在量子计算中,也需要使用可逆计算来保证计算的高效性。
传统的可逆计算主要通过布尔函数和可逆逻辑门实现,这种方式对于简单的计算问题来说已经足够。
但是在量子计算中,由于量子态的特殊性质,我们需要使用不同的可逆计算方式。
基于神经网络的可逆计算算法可以解决这个问题。
同时,神经网络也可以被应用于量子计算中,用于解决某些特定的计算问题。
三、基于神经网络的可逆和量子计算的应用展望基于神经网络的可逆和量子计算具有广泛的应用前景。
首先,这种算法可以大幅度提高计算机计算的效率和能源利用率,减少计算成本,对于能源紧缺国家来说具有很大的意义。
基于量子计算的深度神经网络模型优化研究在当前快速发展的人工智能领域,深度神经网络被广泛应用于各种任务,例如图像识别、语音识别、自然语言处理等。
然而,由于深度网络结构过于复杂,网络参数众多,传统的计算方法已经无法满足其训练和优化的需求。
因此,如何通过新的计算方法来提高深度网络的性能成为了当下研究的热点问题之一。
量子计算作为一种新兴的计算方法,具有处理海量数据和复杂算法的优越性能,因此,将量子计算引入深度神经网络的优化中,成为了近年来研究的新方向。
一、深度神经网络简介深度神经网络是一种基于人脑神经系统设计的机器学习模型,通过模拟人脑神经元之间的联通方式,来实现对数据的处理和学习。
深度神经网络的层数和节点数较多,使其具有更强的表达能力和泛化能力,能够在各种复杂任务中取得优秀的表现。
但是,如此庞大的网络模型,训练和优化所需的计算时间和计算资源也非常巨大,这是深度神经网络面临的缺点之一。
二、量子计算简介量子计算是使用量子力学的原理来进行计算的一种新型计算方法。
相比于传统计算机中使用的比特,量子计算机使用的是量子比特(qubit),它具有一些传统比特所没有的特性,例如超级叠加和纠缠束缚等。
这些特性使得量子计算机能够在可接受的时间内处理一些传统计算机无法完成的复杂问题,例如因子分解和大数据模拟等。
三、基于量子计算的深度神经网络模型优化近年来,一些研究者开始尝试将量子计算引入深度神经网络的训练中,以期能够加速网络的训练和优化过程。
基于量子计算的深度神经网络优化模型,主要分为三种:量子神经网络、量子支持向量机和量子遗传算法。
量子神经网络是一种新型的神经网络模型,采用的是量子比特作为神经元的表示形式。
这种网络模型具有比传统神经网络更强的计算能力和更好的优化性能。
量子支持向量机是一种基于量子计算思想的分类算法,主要用于处理高维和非线性的数据。
与传统的支持向量机模型不同的是,量子支持向量机使用的量子算法具有更高的计算速度和更好的分类性能。
神经网络算法在量子化学计算中的应用随着计算机科学和量子物理学的不断发展,数值计算在化学领域的应用越来越广泛。
特别是量子化学计算,已经成为化学研究中不可或缺的工具。
但是,由于量子化学计算的复杂性,现有的计算方法往往无法实现实际酉量子计算机上的高效计算。
这就引发了量子化学计算中算法和计算方法的进一步研究。
其中,神经网络算法在近年来的量子化学计算中引起了广泛的关注。
神经网络算法的基本思想是模拟人脑神经元之间的传递信息的过程,通过多层次的处理,提取出有用的信息。
在量子化学计算中,神经网络算法可以用于处理分子的结构、电子态密度、能量和领域等信息,具有很强的自适应性和非线性建模能力,能够更精确地模拟量子化学现象。
在一般的计算机上,神经网络算法的运算速度比较缓慢。
但是,在量子计算机上,神经网络算法的运行速度可以得到极大的提高。
由于量子计算机使用的量子比特可以同时处于多个状态,因此能够以更高的速度处理数据和信息。
此外,量子计算机还具有强大的并行计算能力和优异的内存性能,可以有效地解决传统计算机在处理大规模和复杂的量子化学问题时所面临的困难。
神经网络算法在量子化学计算中的应用是一个新兴领域,涉及到许多重要问题。
例如,如何设计和优化神经网络算法的结构和算法参数,以提高神经网络算法的有效性和精度。
另外,如何选择和处理适当的量子化学数据集,以保证计算的准确性和可靠性。
此外,如果将神经网络算法与其他现有的量子化学计算方法相结合,可以达到更好的计算结果和更高的计算效率。
为了更好地实现神经网络算法在量子化学计算中的应用,需要今后的研究工作的全面和深入。
未来,为了更好地推进量子化学计算的发展,需要更多的人才和投资来支持这个领域的研究。
通过全面和深入的研究,神经网络算法在量子化学计算中的应用将会发挥更大的作用,带来更多的实际应用和科学突破。
量子神经网络的构建和训练方法量子神经网络是一种结合了量子计算和机器学习的新兴领域,其独特的能力和潜力吸引了众多研究人员和技术公司的关注。
本文将介绍量子神经网络的构建和训练方法,以期为读者提供深入了解这一领域的基础知识。
从经典神经网络到量子神经网络,构建一个量子神经网络首先需要确定网络结构和基本的神经元单元。
传统的经典神经网络通常使用人工神经元模型,而量子神经网络则使用量子比特(qubit)作为基本的计算单元。
一个量子比特可以表示0和1两种状态的叠加态,同时具有量子纠缠和量子干涉等量子特性。
在量子神经网络的构建中,我们通常使用量子比特的自旋表示其状态。
构建一个量子神经网络需要选择合适的量子门来实现网络之间的连接和计算操作。
量子门是量子系统中的基本操作,类似于经典计算中的逻辑门。
不同类型的量子门可以用来实现不同的计算功能。
常见的量子门有Hadamard门、CNOT门和RX门等。
Hadamard门用于将量子比特从经典态转化为叠加态,CNOT门用于对两个量子比特进行量子纠缠操作,RX门用于对量子比特进行旋转操作。
在构建量子神经网络时,我们需要选择合适的激活函数来实现非线性的数据处理能力。
在经典神经网络中,常用的激活函数包括Sigmoid函数、ReLU函数和Tanh函数等。
而在量子神经网络中,我们可以通过量子门的选择和量子比特的纠缠来实现非线性的激活函数。
在量子神经网络中,训练模型需要考虑量子比特之间的量子纠缠和量子干涉等特性。
传统的经典神经网络使用反向传播算法来更新神经元之间的权重和偏差,而在量子神经网络中,我们需要使用量子态的概率幅值进行更新。
一种常见的方法是使用量子遗传算法来搜索合适的网络参数。
量子遗传算法是一种基于自然进化原理的优化算法,将经典遗传算法和量子计算相结合。
通过模拟自然选择、交叉和变异等过程,量子遗传算法可以搜索出适合的网络参数,并逐步提高网络性能。
这种方法利用了量子计算的并行性,可以在较短的时间内找到较优解。
深度神经网络的算法原理及其实现方式随着计算机和数据技术的不断发展,深度学习技术逐渐成为了机器学习领域中最热门和前沿的技术之一。
深度神经网络作为深度学习的重要组成部分,其算法原理和实现方式备受关注。
本文将从深度神经网络的基本原理入手,对其算法原理及实现方式进行探讨。
一、深度神经网络的基本原理深度神经网络是由多层神经元组成的神经网络,其中每一层与前一层相连。
每一层神经元负责处理不同的信息,经过多次迭代学习后可以对数据进行有效分类和识别。
深度神经网络的基本原理就是通过不断迭代,调整神经元之间的权重和偏置,使得网络对样本的分类和预测结果不断优化,从而提高整个网络的准确性。
在深度神经网络中,每一层的神经元数目和连接方式都需要进行人工调节,这也是深度学习算法的一个难点。
另外,深度神经网络常用的激活函数有sigmoid、ReLu、tanh等,这些函数的选择也会对网络的性能产生一定的影响。
二、深度神经网络的实现方式1. 前向传播深度神经网络的实现方式通常采用前向传播算法,它是深度神经网络中计算的核心算法。
前向传播的过程是将输入数据通过网络的层层传递,最终输出预测结果的过程。
具体来说,前向传播的实现方式可以分为以下几个步骤:首先,将输入数据传入网络的第一层,该层将对数据进行处理,输出结果传递至第二层。
接着,将第一层的输出结果传入第二层,该层也对数据进行处理,并将处理后的结果传递至第三层。
这样不断迭代直到网络的最后一层。
最后一层的输出结果就是整个网络的预测结果。
2. 反向传播反向传播算法是深度神经网络中对权重和偏置进行更新的核心算法。
反向传播的过程是将网络的误差逆向传播至每一层,从而根据误差更新权重和偏置。
具体来说,反向传播实现方式可以分为以下几个步骤:首先,计算网络最后一层的输出误差和损失函数,该误差表征了网络的预测误差。
接着,将误差逆向传播至倒数第二层,计算该层的误差,继续逆向传播至第一层。
这样不断迭代直到网络的第一层。
激活函数 tanh激活函数(Activation Function)是神经网络中非常重要的一个组成部分,它主要用于神经元的输出映射,将神经元的输入转换成一个比较符合实际情况的输出。
在激活函数中,tanh是一种比较常见的函数。
下面就从以下几个方面来详细阐述一下tanh函数。
一、什么是tanh函数tanh是一种非线性的单调函数,他的双曲正切(Hyperbolic Tangent)函数的缩写。
它的函数图形是一种S形曲线,其定义域为R,值域为[-1,1]。
这种函数是sigmoid函数的一种,也是一种非线性函数。
tanh函数的最大优点是它的导数连续且可微。
公式为:f(x) = tanh(x) = [exp(x) - exp(-x)] / [exp(x) + exp(-x)]二、tanh的优点1、tanh是sigmoid函数的变形,它修正了sigmoid函数的输出范围,从 [-1,1] 扩展到了 [0,1] 之间,并保留了原函数的非线性特性和平滑性。
2、tanh比sigmoid函数的转移速度更快,因为tanh的输出范围在 [0,1] 之间,比sigmoid函数在其线性区域中充分利用了输出结果。
3、tanh函数的导数比sigmoid函数的导数更陡峭,这意味着它对句法梯度下降(backpropagation)算法的学习率更大。
这就使得模型在学习时更容易避免梯度消失问题。
三、tanh的缺点1、tanh函数缺点在于输入为大负数或大正数时,函数极值附近梯度过小,而大范围梯度消失也导致了类似梯度爆炸和梯度消失等问题,这给训练带来了困难。
2、由于tanh函数是相对高精度的函数,所以当其处理较大数值时,需要进行更高的计算复杂度。
四、应用tanh的场景1、tanh常常被应用在涉及到均值为0的数据上,因为tanh能够对负数有很好的处理。
2、在神经网络中,多层神经网络中的神经元可以采用tanh函数,因为tanh函数可以将多层神经网络中的数据缩放到一个很小的值范围内,使它们更接近彼此。
一种量子衍生神经网络模型李滨旭;姚姜虹【摘要】为提高神经网络的逼近能力,通过在普通BP网络中引入量子旋转门,提出了一种新颖的量子衍生神经网络模型.该模型隐层由量子神经元组成,每个量子神经元携带一组量子旋转门,用于更新隐层的量子权值,输入层和输出层均为普通神经元.基于误差反传播算法设计了该模型的学习算法.模式识别和函数逼近的实验结果验证了提出模型及算法的有效性.【期刊名称】《计算机系统应用》【年(卷),期】2016(025)008【总页数】5页(P206-210)【关键词】量子计算;量子旋转门;量子衍生神经元;量子衍生神经网络【作者】李滨旭;姚姜虹【作者单位】东北石油大学计算机与信息技术学院,大庆163318;大庆市油田信息技术公司物联网分公司,大庆163318【正文语种】中文上世纪80年代, Benioff首次提出了量子计算的概念[1], 1994年, Shor提出了大数质因子分解的量子算法[2]. 1996年, Grover提出了无序数据库搜索的量子算法[3]. 目前虽然量子计算的发展还远未成熟, 但量子算法与经典算法的计算机制是截然不同的, 其高度并行的优良特性已引起国内外学者的广泛关注. 模糊逻辑、进化计算、神经元网络是人工智能领域的三个明珠, 三者统称为智能计算或软计算, 其与量子计算某种程度上存在融合的可行性. 1989年, Penrose指出人脑信息处理过程与量子信息处理有某种程度的相似性, 尽管这一理念目前没有被证实, 但有关量子信息处理的理论探索, 已经成为一个极富应用前景的研究领域.1995年, Kak首次提出了量子神经计算的概念[4]. 随后的二十年间, 量子神经网络研究吸引了很多学者的注意, 并已提出一些新颖的模型和算法. 基于量子计算中的叠加态, 文献[5]提出了一种含多个隐层的量子神经网络模型; 文献[6]提出了一种量子门线路的神经网络模型; 文献[7]提出了一种基于量子线路的无权神经网络模型, 该模型基于Grover算法训练, 是能在将来的量子计算机上运行的真正意义上的量子神经网络; 文献[8]提出了一种量子门节点神经网络模型和算法, 该模型比传统神经网络包含更多的生物神经系统的特征; 基于单比特量子旋转门和两比特量子受控非门, 文献[9]提出了一种量子BP网络模型和算法.在量子神经网络的应用方面, 已分别应用于频谱感知[10]、配电网实时故障定位[11]、音频水印[12]、岩性识别[13]等许多领域的实际问题.本文研究一种混合量子衍生神经网络模型, 该模型为三层结构, 隐层为量子神经元, 输出层为传统神经元, 基于量子计算原理给出了模型的输入输出关系, 采用梯度下降法详细设计了该模型的学习算法. 模式识别和函数逼近的实验结果表明, 提出的模型的收敛率、迭代步数、逼近误差均优于传统BP神经网络.2.1 量子比特和量子旋转门在量子计算中, 量子比特是存储信息的最小单位, 用于描述线路的状态. 量子比特有两个基态和, 符号“”称为狄拉克符号. 量子比特与经典比特的区别在于, 量子比特可以处于两个基态的线性叠加态, 如下式所示.其中和是复数, 称为量子比特的概率幅. 若对量子比特实时测量, 它将以的概率坍缩到态, 或者以的概率坍缩到态, 两个概率幅之间满足如下归一化关系.因此量子比特也能用概率福表述为.与单比特系统相似, 对于比特量子系统, 有个基态, 该系统也可处于这些基态的线性叠加态, 如下式所示.其中是基态的概率幅, 这些概率幅之间也满足归一化关系.在量子计算中, 在量子态上执行的一系列酉变换称为量子门, 它是执行量子计算的基础. 单比特量子旋转门的定义如下式.记量子态, 在上的作用效果如下式所示.显然, 在上执行了相位旋转.2.1 量子衍生神经元模型一个神经元可描述为一个四元组: 输入、权值、激励函数、输出. 输入和输出是神经元的外部特性, 而权值和激励函数是神经元的内部特性. 所以通过修改权值和激励函数可以构造不同类型的神经元模型. 根据这种观点, 本文提出的量子衍生神经元, 权值采用量子比特描述, 激励函数采用内积算子. 与传统神经元模型的区别在于, 每个量子衍生神经元携带一组量子旋转门, 用于更新量子权值的相位. 模型如图1所示.在图1中, 令权值, 输入向量, 量子衍生神经元的输入输出关系可表述为下式. 其中“”为内积算子, , , 是量子旋转门用于修改量子权值的相位.2.3 量子衍生神经网络模型在量子衍生神经网络(quantum-inspired neural networks, QINN)中, 输入、输出、各层链接权都可以是量子比特. QINN的结构和普通神经网络是相同的, 也包括输入层、隐层、输出层. 很明显, 包含图1中量子衍生神经元的网络是量子衍生神经网络. 全部采用量子神经元的网络称为正规量子神经网络, 同时采用量子神经元和传统神经元的网络称为混合量子神经网络, 由于量子神经元采用线性激励函数, 其映射能力不够理想, 所以本文采用包含一个量子神经元隐层的混合量子神经网络模型(hybrid QINN, HQINN), 它融合了量子计算和传统神经网络两者的优点, 模型如图2所示.该模型包含三层, 输入层和输出层各包含和个普通神经元, 隐层包含个量子衍生神经元, 输入输出关系如下式所示.其中,是隐层第个量子衍生神经元和输出层第个普通神经元之间的连接权, 是输出层激励函数, 本文采用Sigmoid函数.2.4 学习算法对于图2所示的HQINN, 若输出层激励函数连续可微, 则可采用BP算法调整网络参数. 输出误差函数定义为下式.其中为期望输出.根据梯度下降法, 输出层权值按下式调整.其中,为学习速率, 为当前为迭代步数.隐层量子权值由量子旋转门按下式调整.其中.根据梯度下降法按下式计算.其中是的相位. 记, 具体可按下式修改.关于本文提出的HQINN的收敛性, 我们给出如下结论: 当隐层神经元足够多时, 该网络能够逼近上的任意L2 函数. 对此结论, 我们简要解释如下.根据HQINN隐层量子神经元输出式(8)可知, 为量子旋转门的函数, 由式(11)知, 为正余弦函数; 因此为的复合函数. 由于正余弦函数及其复合函数均连续可微, 所以连续可微; 由量子衍生神经元输出式(7)可知, 必有界. 因此量子神经元可视为传统神经元在激励函数、聚合方式两方面的推广, 即将传统的Sigmoid函数改为, 而将对输入的加权聚合改为相位移动. HQINN的输出层就是普通神经元. 因此HQINN可视为一种特殊形式的传统两层神经网络. 根据文献[14]的结论“具有两层连接权值的误差反向传播神经网络, 在隐层节点足够多的情况下能够逼近上的任意L2 函数”可知, 本文提出的HIQNN是收敛的.综上所述, HQINN学些算法可描述如下.Step 1: 初始化网络参数. 包括: 各层节点数、学习速率、限定误差、限定步数、置当前步数.Step 2: 初始化网络权值. 隐层: , 输出层: , 其中为(0,1)内均匀分布的随机数, . Step 3: 根据式(8)计算网络输出, 根据式(10)和式(13)修改网络权值.Step 4: 根据式(9)计算网络输出误差, 如果或转步5, 否则转步3.Step 5: 保存权值, 结束.为验证HQINN的性能, 本文设计了两类实验并与传统BP网络对比. 为使对比公平, 两种模型采用相同的结构和参数.3.1 平面点集分类在图3所示平面上有两类25个样本点, 试用HQINN对其分类. 这是一个典型的两类模式识别问题. 可以看做异或问题的推广.网络结构取2-10-1型, 学习速率取0.8. 采用图3中的25个样本, HQINN和普通BP网络各训练50次, 然后统计平均迭代步数和收敛率, 训练结果对比如表1所示, 当限定误差取0.05时, 收敛曲线对比如图4所示.3.2 双螺旋线分类对于图5所示的双螺旋曲线, 每条曲线上分别取25个点, 组成包含50个样本的训练样本集, 试用HQINN对这些点分类. 网络结构却2-20-1型, 学习速率取0.7, HQINN和普通BP网络各训练30次, 然后统计平均迭代步数和收敛率, 训练结果对比如表2所示, 当限定误差取0.10时, 收敛曲线对比如图6所示.3.3 函数逼近问题本实验考虑如下函数,其中.为逼近上述非线性函数, 我们随机取40组离散数据, 前20组用于训练网络, 使其逼近式(14)所示的非线性函数关系, 余下的40组作为测试集, 检验网络的泛化推广能力. 最大迭代步数取5000. 通过改变隐层节点数和学习速率, 我们详细考察了HQINN的性能, 并与其它方法进行了对比.首先考察不同隐层节点数下的性能对比. 将学习速率固定为0.8, 隐层节点数分别取6和8, 分别用HQINN、BP网络、文献[12]中的网络独立训练30次, 并分别测试网络的泛化推广能力, 取30次平均误差作为对比指标, 实验结果对比如表3所示. 下面考察学习速率对收敛率的影响. 网络结构取3-5-1型, 限定误差取0.1, 限定步数取5000, 学习速率分别取, 对于学习速率的每种取值, 分别用HQINN和BP网络独立训练30次, 当学习速率变化时, HQINN的收敛率均为100%, 而BP网络的收敛率变化很大, 最高为80%, 最低只有10%. 对比结果如图7所示.对比结果表明, HQINN在收敛率和鲁棒性两方面, 均明显优于BP网络.最后考察学习速率对迭代步数的影响. 网络结构取3-5-1型, 限定误差取0.1, 学习速率分别取, 对于学习速率的每种取值, 分别用HQINN和BP网络独立训练30次, 当学习速率变化时, HQINN的平均迭代步数最大为958步, 最小仅为496步, 平均为693步; 然而对于BP网络, 最大为4619步, 最小为1532步, 平均为2489步. 因此当学习速率变化时, HIQNN不仅平均迭代步数明显少于BP网络, 而且波动范围也较小. 对比结果如图8所示. 对比结果表明, HIQNN在平均迭代步数和鲁棒性两方面均明显优于BP网络.HQINN是对量子计算和神经计算的模拟, 兼具量子计算的高效性和神经计算的连续性、逼近能力和推广能力等优点. 该模型的隐层权值采用量子比特描述, 采用量子旋转门更新量子比特的两个概率幅, 借助概率幅三角函数的周期性, 可使调整过程更为精细, 从而有效增强了网络的逼近能力. 实验结果表明, 提出的模型明显优于普通BP网络.1 Benioff P. Quantum mechanical hamiltonian models of Turing machines. Journal of Statistical Physics, 1982, 3: 515–546.2 Shor PW. Algorithm for quantum computing: Discrete logarithms and factoring. Proc. of the 35th Annual Symp on Foundations of Computer Science. New Mexico: IEEE Computer Society Press. 1994. 124–134.3 Grover LK. A fast quantum mechanical algorithm for database search. Proc. of the 28th Annual ACM Symposium on the Theory of Computing. Pennsylvania. 1996. 212–221.4 Kak S. On quantum neural computing. Information Sciences, 1995, 83: 143–160.5 Gopathy P, Nicolaos BK. Quantum Neural networks (QNN’s): Inherently fuzzy feedforward neural networks. IEEE Trans. on Neural Networks, 1997, 8: 679–693.6 Li PC, Xiao H. Model and algorithm of quantum inspired neural network with sequence input based on controlled rotation gates. Applied Intelligence, 2014, 40(1): 107–126.7 Adenilton J, Wilson R, Teresa B. Classical and superposed learning for quantum weightless neural network, Neurocomputing, 2012, 75: 52–60.8 Li PC. Xiao H. Sequence input-based quantum-inspired neural networks with applications. Neural Processing Letters. 2014, 40(2): 143–168.9 Li PC, Li SY. Learning algorithm and application of quantum BP neural networks based on universal quantum gates. Journal of Systems Engineering and Electronics, 2008, 19: 167–174.10 赵阳,孙学斌,周正.一种改进的量子神经网络频谱感知算法.通信系统与网络技术,2015,41(2):7–11.11 马亮,杨萍萍,高建宇.基于动态云—量子神经网络群的配电网实时故障定位方法.工矿自动化,2014,40(11):71–75.12 张翼鹏,陈亮,郝欢.采用量子神经网络的音频水印新算法.信号处理,2013,29(6):684–690.13 王团.量子神经网络在雷家地区岩性识别中的应用.长春大学学报,2015,25(4):56–59.14 Hecht-Nielsen R. Theory of the back propagation neural network. Proc. of the Int Joint Conf on Neural Networks. New York: IEEE Communications Society. 1989. 593–605.。