基于ELM的切换非线性动态系统神经网络控制
- 格式:pdf
- 大小:1.33 MB
- 文档页数:79
基于人工神经网络的非线性系统控制技术研究随着人工智能领域的不断发展,人工神经网络(Artificial Neural Network,简称ANN)技术广泛应用于各个领域,特别是在非线性系统的控制中。
非线性系统是普遍存在于实际工程中的一种系统,其特点是系统的输出与输入之间不遵循线性关系,具有较强的不确定性和非稳定性。
因此,如何有效地控制非线性系统成为了一个极具挑战性的问题。
而基于ANN的非线性系统控制技术应运而生。
一、人工神经网络简介人工神经网络是一种模拟人脑神经元工作方式的计算模型,具有学习和记忆能力。
神经网络由一组相互连接的神经元(节点)构成,每个神经元接受一定数量的输入,并产生相应的输出信号。
神经元之间的连接权重可以根据训练数据自适应地调整,从而实现模型的学习和优化。
二、基于ANN的非线性系统控制技术基于ANN的非线性系统控制技术主要应用于模糊控制、自适应控制、神经网络控制等领域。
通常,基于ANN的非线性系统控制可以分为两个步骤:一是将非线性系统建模为神经网络模型,二是通过模型训练和反馈控制实现系统控制。
1. 将非线性系统建模为神经网络模型将非线性系统建模为神经网络模型是基于ANN的非线性系统控制技术的第一步。
通常,使用多层前馈神经网络(Multi-Layer Feedforward Neural Network,简称MLFFNN)或递归神经网络(Recurrent Neural Network,简称RNN)来建模非线性系统。
在神经网络模型中,输入层接受系统的状态变量作为输入,输出层输出系统的控制量,隐藏层用于提取特征和学习系统的动态规律。
通过调整神经元之间的连接权重和偏置项,神经网络模型可以逐渐接近(或逼近)非线性系统的真实动态。
2. 通过模型训练和反馈控制实现系统控制基于ANN的非线性系统控制技术的第二步是通过模型训练和反馈控制实现系统控制。
在模型训练过程中,利用已知的输入和输出数据来训练神经网络模型,并通过误差反向传播算法(Back-Propagation,简称BP)来调整神经元之间的连接权重和偏置项。
非线性动态传感器系统 Hammerstein神经网络补偿法刘滔;韩华亭;焦楷哲;雷超【摘要】针对传感器动态特性中存在非线性的问题,提出一种基于Hammerstein 传感器模型的非线性动态神经网络补偿法。
先将补偿模型分解为与Hammerstein 模型对应的线性动态与非线性静态2个环节;再设计一种新型的神经网络结构,使网络权系数对应于相应的Hammerstein补偿模型参数,并推导反向传播的网络权系数调整方法;最后通过网络迭代训练,求得补偿模型的线性动态与非线性静态两个环节。
仿真与实际实验结果均表明该传感器非线性动态补偿方法使传感器具有理想的输入输出特性。
%Aiming at the nonlinear problem existed in dynamic characteristics of a sensor , a new approach to correc-ting dynamic measurement errors of nonlinear sensor systems based on Hammerstein model is investigated .The com-pensation model of Hammerstein is expressed as the accordant linear dynamic subunit and nonlinear static subunit . Secondly , a new neural network structure is designed , the weights in which are corresponding with the parameters of the Hammerstein compensation model , and the method of adjusting network weight coefficients based on back-propagation is deduced .Finally, the nonlinear static part and linear dynamic part of the compensator are identified simultaneously by iterative training .Simulations and experimental results show that the sensor obtains desired input and output characteristics through the nonlinear dynamic compensation method .【期刊名称】《应用科技》【年(卷),期】2014(000)004【总页数】4页(P6-9)【关键词】传感器;非线性动态补偿;Hammerstein模型;函数连接型神经网络;动态误差【作者】刘滔;韩华亭;焦楷哲;雷超【作者单位】空军工程大学防空反导学院,陕西西安710051;空军工程大学防空反导学院,陕西西安710051;空军工程大学防空反导学院,陕西西安710051;空军工程大学防空反导学院,陕西西安710051【正文语种】中文【中图分类】TP311现代工业生产要求实时并在线监控,动态测试能够满足这种要求,因而其已成为现代测试生产的趋势和主流。
基于深度学习的非线性动态系统控制方法研究随着人工智能技术的不断发展,深度学习技术在各个领域得到了广泛应用。
其中,针对动态系统控制的深度学习方法在控制领域中已经成为研究的热点。
传统的非线性动态系统控制方法面对系统非线性、时变等复杂问题容易遭遇困难,而基于深度学习的非线性动态系统控制方法可以更好地处理这些问题。
一、深度学习技术在非线性动态系统控制中的应用1.神经网络控制:神经网络控制利用神经网络模型对非线性动态系统进行建模和控制,具有较强的适应性、自适应性和鲁棒性,尤其适用于具有非线性、时变和复杂耦合特性等复杂系统的控制问题。
2.增强学习控制:增强学习控制依赖于模型无关的自主学习策略,通过强化学习算法学习控制策略,从而实现动态系统的优化控制。
3.深度强化学习控制:深度强化学习结合了深度学习和增强学习的技术优势,可在不掌握预先定义模型的情况下,直接从观测数据中学习控制策略,从而使得控制器在面对各种复杂的动态系统时都能得到高效、鲁棒的管理。
二、基于深度学习的非线性动态系统控制方法的优势1.适应性和鲁棒性:基于深度学习的非线性动态系统控制方法具有强大的适应性和鲁棒性,能够自适应地学习系统的动态特点,提高控制效果与稳定性。
2.高效性:基于深度学习的非线性动态系统控制方法可以通过对大量数据的学习和分析,提高控制器的运行效率,实现速度快、响应迅速的控制策略。
3.系统诊断能力:基于深度学习的非线性动态系统控制方法可以通过对非线性动态系统的学习和分析,有助于提升对系统故障的故障诊断能力,提高控制器的运行可靠性。
三、深度学习技术在非线性动态系统控制中的挑战1.数据量大:基于深度学习的非线性动态系统控制方法需要大量的数据来训练和学习控制器,而实际上并不是所有的动态系统都能够提供大量的数据。
2.过拟合问题:基于深度学习的非线性动态系统控制方法容易产生过拟合的问题,即控制器只适应样本数据,而不能有效地处理实际场景,降低了控制效果与鲁棒性。
基于Elman神经网络的预测控制研究及应用的开题
报告
一、研究背景与意义
在控制领域中,预测控制算法是一种常用的控制方法,它可以对未
来的系统状态进行预测并采取相应的控制策略,以达到控制目标。
而Elman神经网络是一种递归神经网络,具有很强的模型拟合能力和非线性映射能力,被广泛地应用于预测控制领域。
本文将以Elman神经网络为研究对象,探讨其在预测控制方面的应用。
主要研究内容包括:
1. 建立基于Elman神经网络的预测模型,实现系统状态的预测;
2. 设计基于模型预测控制算法,采取动态控制策略;
3. 在电力控制系统中进行仿真实验,验证Elman神经网络在预测控制领域的优越性。
二、研究内容及方法
1. Elman神经网络预测模型:通过对Elman神经网络结构进行分析,建立基于Elman神经网络的预测模型,并利用历史数据训练网络,以预
测未来系统状态。
2. 模型预测控制算法:利用预测模型预测未来系统状态,根据控制
目标设计动态控制策略,并将控制信号输入到系统中,以实现控制目标。
3. 仿真实验:以电力控制系统为研究对象,通过Matlab等仿真软件搭建仿真模型,进行仿真实验,验证Elman神经网络在预测控制领域的
优越性。
三、预期成果及意义
1. 建立了基于Elman神经网络的预测模型及模型预测控制算法,为预测控制领域提供了一种新的控制方法。
2. 验证了Elman神经网络在预测控制领域具有很好的预测效果和控制性能,可为电力控制系统的优化设计提供参考。
3. 为基于神经网络的控制算法在实际工程项目中的应用提供了理论基础和技术支持,具有一定的实用价值和推广意义。
基于粒子群优化的Elman神经网络无模型控制张俊玲;陈增强;张青【期刊名称】《智能系统学报》【年(卷),期】2016(11)1【摘要】针对一类无法建模或是建模过程比较复杂的离散SISO非线性离散系统,提出了一种基于Elman神经网络和粒子群优化算法的无模型控制方法。
该控制方法是在无需知道被控对象动力学模型的情况下,以Elman神经网络作为控制器结构,利用粒子群优化算法在线学习控制器中的所有权值参数,既而得到每一离散时刻的最优控制量。
仿真研究表明,该方法控制下的非线性系统输出信号具有较快的反应速度和较小的跟踪误差,同时控制量信号有较好的收敛性与控制精度,这说明了所提出的基于粒子群的Elman神经网络无模型控制方法是有效与合理的。
%In this paper, we propose amodel⁃free control method, based on the Elman neural network and the parti⁃cle swarm optimization algorithm, for a class of single⁃input single⁃output ( SISO ) discrete nonlinear systems, whose mathematical model cannot be established or is not easily modeled. In the model⁃free control system, it is not necessary to establish a mathematical model for each object. The Elman neural network is the controller and all the online weight parameters are learned using the particle swarm optimization algorithm. Using the proposed method, we obtain the optimal control variable at each discrete time.Them odel⁃free control method simulation results demon⁃strate that the nonlinear system output signal has a fast response rate and few tracking errors. Moreover, thecontrol variable has good convergence and high control accuracy. These results prove that the proposed method is reasona⁃ble and effective.【总页数】6页(P49-54)【作者】张俊玲;陈增强;张青【作者单位】南开大学计算机与控制工程学院,天津300071;南开大学计算机与控制工程学院,天津300071; 中国民航大学理学院,天津300300;中国民航大学理学院,天津300300【正文语种】中文【中图分类】TP18;TP301.6【相关文献】1.基于粒子群优化算法的Elman神经网络凝汽器真空模型 [J], 张海;浦健;张啸澄2.基于脉冲推力的半被动双足机器人无模型神经网络控制 [J], 周亚丽;张奇志3.基于粒子群优化的BP神经网络模型参考自适应控制系统 [J], 陈聆;闫海波;毛万标4.基于神经网络的无缓冲数字系统延时控制模型 [J], 应卫强;罗仕鉴;张玲燕5.基于神经网络的无信号控制交叉口内车速预测模型对比 [J], 马莹莹;张子豪;吴嘉彬因版权原因,仅展示原文概要,查看原文内容请购买。
极限学习机(ELM)网络结构调整方法综述翟敏;张瑞;王宇【摘要】从原始ELM算法和增长结构ELM算法(I-ELM)的基本思想与基本理论出发,分析其优点与不足,概括基于不同角度所改进的网络结构调整方法,包括结构增长型算法、结构递减型算法和自适应型算法三大方面.最终对极限学习机(ELM)中网络结构的各种调整方法进行综述,为相关研究者提供该研究方向的发展历史和最新结果.【期刊名称】《西安文理学院学报(自然科学版)》【年(卷),期】2014(017)001【总页数】6页(P1-6)【关键词】ELM算法;网络结构;隐节点【作者】翟敏;张瑞;王宇【作者单位】西北大学数学系,西安710127;西北大学数学系,西安710127;西北大学数学系,西安710127【正文语种】中文【中图分类】O29神经网络是由大量简单的处理单元(神经元)相互连接,通过模拟人的大脑神经处理信息的方式,进行信息并行处理和非线性转换的复杂网络系统.由于神经网络具有强大的学习功能,可以较轻松的实现非线性映射过程,并且具有大规模的计算能力.因此,它在自动化、计算机和人工智能等领域都有着广泛的实用性,解决了很多传统方法都难以解决的问题[1-2].但是如何确定最优的网络结构使得网络误差达到最小且能获得更好的泛化能力成为研究的热点问题之一.基于此,文献[3]提出一种新的学习算法,即ELM 算法.在该算法中,输入权值和隐层阀值均随机产生,最后通过最小二乘法直接计算输出层权值.ELM 算法无需迭代,因而其学习速度较快,并且具有很好的泛化能力.给定N 个不同的样本(xj,tj)∈Rn×Rm,对于含有个隐节点且激活函数为g(x)的单隐层前向神经网络(SLFNs)的数学模型可表示为:其中(ωi,bi)是隐节点参数且随机产生,βi是链接第i个隐节点的权值,且j=1,2,…,N.若网络实际输出等于期望输出,则,N.以上N个等式可以简写成:Hβ=T.其中这里的H叫做隐层输出矩阵;H的第i 行代表第i个训练样本关于所有隐节点的输出;H的第j 列代表所有训练样本关于第j个隐节点的输出.原始的ELM 算法可总结如下[3-4]:给定训练集={(xj, tj)|xj∈Rn,tj∈Rm, j=1,…,N}且激活函数为g(x),隐节点个数为,随机选取输入权重ωi 和阀值bi;(2)计算隐层输出矩阵H ;(3)计算输出权重β,β=H+T.注1 H+表示H的Moore-Penrose广义逆.虽然ELM算法的隐层无需迭代且学习速度较快,但是该算法需要人为确定隐节点的个数,过程比较繁琐,同时ELM算法基于经验风险最小化原则,也容易导致过度拟合.为了避免人为因素对网络结构的影响,文献[5]对ELM算法进行改进,提出增长结构的ELM算法(I-ELM).该算法无需提前设置隐单元个数,而是通过比较误差逐个增加隐节点.2.1 I-ELM 算法ELM 算法事先给定了隐节点个数,但该隐节点个数是通过多次试验比较误差得到,因而比较麻烦.而I-ELM 算法是基于ELM 算法改进得到的, I-ELM网络初始仅有一个隐节点,随后通过比较误差向隐层逐个增加隐节点.理论及实验表明,通过不断增加隐节点而产生的函数序列可以以任意小的精度逼近给定的目标函数.文献[5]也已经证明了在单隐层前向神经网络中,随机产生“和节点”(additive nodes)或“径向基节点”(RBF nodes) 类型的激活函数均可以以任意小的误差逼近任何连续的目标函数.定理1[5] 给定任意有界、非常值、分段、连续函数g : R→R (对和节点) 或者任意可积、分段、连续函数g:R→R且∫Rg(x)dx≠0(对径向基节点),对于任何连续的目标函数f和任何随机产生的函数序列gn有‖f-fn‖=0 (以概率1)当且仅当.注2 通常情况下激活函数类型有以下两种:(i) 当g(x)为“和节点”类型时,gi=g(ωi·x+bi),(ωi,bi)∈Rd×R,其中ωi为连接输入层到第i个隐节点的权重向量,bi代表第i个隐节点的阀值;(ii) 当g(x)为“径向基节点”类型时,gi=g(bi‖x-ωi‖),(ωi,bi)∈Rd×R,其中ωi 和bi分别代表第i个径向基节点的图心和影响因子.增长结构ELM (I-ELM) 算法总结如下:给定训练集={(xj, tj)|xj∈Rn,tj∈Rm, j=1,…,N}且激活函数为g(x),最大隐节点个数,期望学习精度为ε:(1) 初始化阶段:令,误差E=t ,其中t=[t1,…,tN]T;(2) 学习阶段:当且‖E‖>ε.时:(a) 增加一个隐节点:;(b) 给新增隐节点随机赋权值);(c) 对新增隐节点计算其输出权重;(d) 计算增加第个隐节点后的误差:(3) 终止条件:当或‖E‖<ε时停止.其中隐节点的输出权重是按最小二乘法求得,同时每增加一个隐节点计算一次输出权重,因此较ELM 算法收敛的更快.同时,因I-ELM 算法所需隐节点个数也比ELM 算法的少很多,因而I-ELM 算法比ELM 算法得到的网络结构更加紧凑. 2.2 CI-ELM (Convex I-ELM) 算法在I-ELM 算法中:且每当增加一个隐节点,该隐节点的输出权重βn .一经计算就被固定,其中,文献[6]在此基础之上提出CI-ELM 算法.CI-ELM 算法是将I-ELM算法和Barron 的凸优化思想相结合,其输出函数为:与 (1) 式相比,在 (2) 式中,当增加新的隐节点后会重新更新已存在隐节点的连接权值而非永久固定. 并且已存在的隐节点和新增加的隐节点系数满足凸组合,即(1-βn)+βn=1.CI-ELM 算法总结如下[6]:给定训练集={(xj, tj)|xj∈Rn,tj∈Rm, j=1,…,N}且激活函数为g(x),最大隐节点个数,期望学习精度为ε:(1) 初始化阶段:令,误差E=t ,其中t=[t1,…,tN]T;(2) 学习阶段:当且‖E‖>ε. 时:(a) 增加一个隐节点:;(b) 给新增隐节点随机赋权值(c) 对新增隐节点计算其输出权重(d) 更新前-1个隐节点的输出权重:;(e) 计算增加第个隐节点后的误差;(3) 终止条件:当或‖E‖<ε时停止.注3 F=[t1,…,tN]T代表目标向量,tj代表第j个训练数据xj的目标输出.实验结果表明, CI-ELM 算法比I-ELM 算法收敛的更快并且需要更少的隐节点,因而CI-ELM 算法的网络结构也比I-ELM 算法更紧凑.2.3 EI-ELM (Enhanced I-ELM) 算法I-ELM 算法是随机增加隐节点,但是却不能保证每次增加的隐节点使得误差减小最快.文献[7]提出了一种新的改进算法—EI-ELM 算法.该算法基于I-ELM 算法基础之上,每次产生k个隐节点,然后通过比较误差选取最优的隐节点并将其添加到网络中.可见EI-ELM 算法比I-ELM 算法收敛的快且网络结构更加紧凑.值得注意的是,当k=1时 EI-ELM算法即为I-ELM 算法.可见,I-ELM 算法是EI-ELM 算法的特殊情况.2.4 ECI-ELM (CI-ELM based on enhanced random search) 算法ECI-ELM算法[8]的主旨思想是将EI-ELM 算法中提高随机搜索的思想应用到CI-ELM算法中.其增加隐节点的思想同EI-ELM 算法一样,都是每次产生k 个隐节点,其对应的输出分别为g(n-1)k+1,…,gnk计算并比较相应的误差并将误差减小最快的隐节点添加到网络中.则:其中(n-1)k+1≤i≤nk且表示ECI-ELM算法在第n-1步最终的输出.链接新增节点和输出节点的权向量的计算公式为:.则ECI-ELM算法最终的输出表达式可写为:不难看出,当增加一个新的隐节点并计算出其输出权重之后,还要更新已有隐节点的输出权重.即输出权重一经计算并非永久固定,而是每一步都会被更新一次.显然,ECI-ELM 算法不仅每次产生k个隐节点并将误差最小的隐节点添加到网络中,同时它的网络输出为凸组合的形式,即该算法吸收并保留了EI-ELM算法和CI-ELM算法的优点. 因而同EI-ELM和CI-ELM算法相比,ECI-ELM 算法也具有广义的逼近能力,并且能获得更加紧凑的网络结构.2.5 EM-ELM (Error Minimized I-ELM) 算法I-ELM 算法开始仅有1 个隐节点且随后逐个增加,文献[9]在其基础之上进行改进,提出了EM-ELM 算法.该算法中网络初始有L0个隐节点,并且随后隐节点可以逐个增加,也可以一块一块增加,这样很大程度上提高了网络的学习速度.EM-ELM 算法中输出权重β通过最小误差得到,从而减小了计算复杂度.网络初始时,其隐层输出矩阵可以表示为:则,误差E(H1) =‖‖=‖‖.若E(H1)<ε(其中ε为期望误差且事先给定),则不增加隐节点且学习过程结束.否则,向网络增加δL0=L1-L0个隐节点,此时隐层输出矩阵变为H2=[H1,δH1].不同于ELM 算法通过求(即H2的广义逆)来计算2,该算法采取一种快速更新输出权重的方法来计算2. 方法如下:为方便推导,记则根据二阶方阵求逆矩阵的方法[10],即运用公式:其中SA=D-CA-1B,得到,则,进而计算误差:E(H2)=‖2-T‖=‖‖.并将其与ε进行比较来决定是否继续增加隐节点.同理,第k 次向隐层增加δLk-1个隐节点,此时隐层输出矩阵变为:则进而计算误差并与ε进行比较来决定是否还需向网络中添加隐节点.可见,EM-ELM 算法无需通过多次试验比较误差来确定隐节点个数,因而EM-ELM 算法比原始的ELM 算法收敛的更快.当L0=1,且每次只增加一个隐节点,即δLK=1,则为I-ELM 算法.显然, EM-ELM 算法较I-ELM 算法收敛的更快且更稳定.以上六种改进算法都是增长结构算法,这些算法的共同特点都是隐层参数均随机产生,只有输出权重通过解析的计算得到.与构造性算法相反的一类算法叫破坏性算法,也称修正(剪)性算法.这类算法也是确定网络结构的一类有效方法.其主要思想是,网络初始给定比实际需要更大的隐节点个数,然后利用统计学相关知识去掉相关度低或不相关的隐节点,最终得到一个结构更紧凑的网络.如P-ELM[11]、OP-ELM[12]等算法.4.1 AG-ELM (ELM with adaptive growth of hidden nodes) 算法AG-ELM 算法[13]中隐节点是自适应调整的,即在下一步迭代后得到的网络的隐节点有可能增加,也可能减少. 同时在每一步迭代过程中都产生一组网络而不是一个网络. 当新的网络具有较好的逼近能力时就用该新网络代替原来的网络. 该算法的主旨思想是:首先,随机产生带有一个隐节点的网络,其中)∈Rd×R×R,则得到其次,通过比较当前网络输出与目标函数的误差可得到两个SLFNs 和:其中,x)以及分别代表含有一个隐节点和含有两个隐节点的两个临时SLFNs.同理,到第s步可得到s个,比较过程如下:其中代表s步中含k个隐节点的临时网络,且1≤k≤s.如此进行下去直到满足期望误差或最大隐节点个数时停止,其中所有的参数均随机产生.可见该算法无需人为调整任何参数,并且隐节点个数是自适应增长的,因而能够达到更加紧凑的网络结构,并且具有很好的泛化能力.4.2 D-ELM (Dynamic ELM and its approximation capability) 算法与I-ELM 算法截然不同, AG-ELM 算法中所有参数均随机产生,包括网络的输出权重也是随机产生.基于此,文献[14]对AG-ELM 算法进行改进,得到收敛速度更快的D-ELM 算法,该算法是隐节点动态增长的 ELM算法. 在该算法中,隐节点参数(ωi,bi)∈Rd×R,但输出权重βi则是利用EM-ELM 算法计算权重的方法迭代计算得到的.D-ELM 算法的思想同AG-ELM 算法一样都是用新网络代替旧网络. 该算法的每一步迭代过程都是从所有的备选网络(x),φn-1}中选择一个既含有最少隐节点数且误差最小的网络作为该步的最终网络φn.显然,该步最终网络的隐节点个数可能是{1,2,…,Ln-1}中的任意一个,其中2≤Ln-1≤n-1.在此基础之上,最后再随机产生一个隐节点并将其添加到所得到的最终网络φn中,作为最终的网络Ψn.为了保证网络的误差可以减小的更多,此时网络隐节点个数Ln为{2,3,…,Ln-1+1}中的任意一个.因此,这样得到的最终网络的隐节点个数Ln满足下列情况之一:{Ln<Ln-1;Ln=Ln-1;Ln>Ln-1} .这充分说明D-ELM算法的隐节点是动态增加的.同AG-ELM 算法比较,D-ELM算法具有更好的泛化能力,同时获得更加紧凑的网络结构.其主要原因是D-ELM算法的输出权重是利用EM-ELM算法中误差最小的方法迭代计算得到的,而不像AG-ELM算法是随机产生的.本文从原始的ELM算法和增长结构的ELM算法 (I-ELM) 出发,分析其优点及不足,不仅概括了基于不同角度的增长结构ELM算法的改进,还概括了自适应增长隐节点的相关算法.这些算法的提出都是为了寻求更优的网络结构,对这些改进算法的全面总结为今后寻求更好的网络结构提供一个好的参考.【相关文献】[1] 孙树林,原存德. 捕食者有病的生态-流行病SIS模型的分析[J].工程数学学报,2005,22(1):30-34[2] 蒋宗礼.人工神经网络导论[M]. 北京:高等教育出版社,2010.[3] 董长虹.神经网络与应用[M]. 北京:国防工业出版社,2005.[4] HUANG G-B, ZHU Q-Y, SIEW C-K. Extreme learning machine: theory and applications [J]. Neurocomputing, 2006, 70: 489-501.[5] HUANG G-B, ZHU Q-Y, SIEW C-K. Extreme learning machine: a new learning scheme of feedforward neural network[J]. Proceedings of International Joint Conference on Neural Networks(IJCNN’04), 2004, 59:985-501.[6] HUANG G-B, CHEN L, SIEW C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes[J]. IEEE Transactions onNeural Networks, 2006, 17(4): 879-892.[7] HUANG G-B, CHEN L. Convex incremental extreme learning machine[J]. Neurocomputing, 2007, 70: 3056-3062.[8] HUANG G-B, CHEN L. Enhanced random search based incremental extreme learning machine[J]. Neurocomputing, 2008, 71: 3060-3068.[9] WANG W, ZHANG R. Improved convex incremental extreme learning machine based on enhanced random search[M]. Lecture Notes in Electrical Engineering, 2012.[10] FENG G R, HUANG G-B, LIN Q P, et al. Error minimized extreme learning machine with growth of hidden nodes and incremental learning[J]. IEEE Transactions on Neural Networks, 2009,20(8):1352-1357.[11] BOYD S, CHAOUL L E, FERON E, et al. Linear Matrix Inequalities in System and Control Theory[M]. Philadelphia, PA: SIAM, 1994.[12] RONG H J, ONG Y S, TAN A H, et al. A fast pruned-extreme learning machine for classification problem[J]. Neurocomputing, 2008, 72: 359-366.[13] MICHE Y, SORJAMAA A, LENDASSE A. OP-ELM: theory, experiments and a toolbox[J]. Lecture Notes in Computer Science, 2008,5163:145-154.[13] ZHANG R, LAN Y, HUANG G B, et al. Extreme learning machine with adaptive growth of hidden nodes and incremental updating of output weight[J]. International Conference on Autonomous and Intelligence Systems, Burnaby Canada, 2011, 6752:253-262.。
基于SSA-ELM神经网络控制器的光伏MPPT方法
李文娟;徐伟健;肖瀚;梁树威
【期刊名称】《实验技术与管理》
【年(卷),期】2024(41)1
【摘要】光伏电池板所处环境的非线性变化使得光伏电池的功率保持在最大功率点(maximum power point,MPP)非常困难。
传统的最大功率点跟踪(maximum power point tracking,MPPT)方法普遍存在技术缺陷,无法满足当前需求。
针对光伏发电MPPT问题,该文提出了一种基于麻雀搜索算法优化的极限学习机(sparrow search algorithm-extreme learning machine,SSA-ELM)神经网络控制器的MPPT方法。
与传统技术相比,该MPPT方法在稳定性、速度、超调和MPP的振荡等方面的效果均较好。
使用MATLAB/Simulink平台进行仿真实验,验证了所提控制策略及理论分析的正确性。
【总页数】7页(P158-164)
【作者】李文娟;徐伟健;肖瀚;梁树威
【作者单位】哈尔滨理工大学电气与电子工程学院
【正文语种】中文
【中图分类】TM615
【相关文献】
1.基于模糊神经网络的光伏系统MPPT控制方法
2.神经网络模糊PID技术在光伏系统MPPT控制器中的应用
3.基于改进神经网络的一种新型光伏发电MPPT预测
方法4.基于优化MPPT算法的快速高效光伏充电控制器设计5.基于模型辨识与BP 神经网络的光伏MPPT方法
因版权原因,仅展示原文概要,查看原文内容请购买。