3.8 神经网络数字控制改进程序及说明
- 格式:doc
- 大小:76.00 KB
- 文档页数:6
神经网络模式识别的改进及应用神经网络模式识别是一种人工智能技术,利用计算机系统中的神经网络模型,通过模拟人类大脑神经网络处理信息的方式,对输入的模式进行分析分类。
随着计算机技术的飞速发展和应用场景的不断扩展,神经网络模式识别也在不断改进和应用中。
首先,对神经网络的改进主要包括以下方面:网络结构的改进、学习算法的改进和特征提取算法的改进三个方面。
网络结构的改进是指对神经网络层数的调整、神经元数目的调整、激活函数的选择等方面的优化。
通过加深神经网络模型的层数,可以提高模型的表达能力;可以通过增加神经元数目来提高网络的适应能力。
激活函数的选择也可以影响模型的性能,如常用的sigmoid函数适用于二分类问题,而ReLU函数适用于多分类问题。
学习算法的改进是指对神经网络中的BP算法、反向传播算法、共轭梯度算法等的优化和改进。
这些算法能够提高神经网络的学习速度和准确性。
特征提取算法的改进是指对图像、声音、文本等不同模式的特征提取算法的优化。
常用的包括主成分分析法、独立成分分析法等,这些算法可以对模式数据进行降维和抽象,提高模型的处理效率和准确性。
其次,神经网络模式识别的应用场景也在不断扩展。
除了常见的图像识别、语音识别、自然语言处理等领域,神经网络模式识别还开始应用到智能医疗、智能制造、智能交通等领域。
在智能医疗领域,神经网络模式识别可以用于医学影像分析、医学信号处理等方面,对于医学图像的分类、诊断等具有较高的准确度和可靠性。
在智能制造领域,神经网络模式识别可以用于品质控制、机器自主运维等方面。
通过神经网络模式识别技术,可以及时预测机器的故障和品质问题,优化制造流程,提高产品质量和生产效率。
神经网络模型建立与调整方法改进神经网络模型是一种模拟人类神经系统运作的数学模型,通过对输入数据的处理和学习,能够实现识别、分类、预测等功能。
在机器学习和深度学习领域,神经网络模型被广泛应用于各种任务,如图像识别、语音识别、自然语言处理等。
然而,在实际应用中,构建和调整一个高效且稳定的神经网络模型并不是一件容易的事情。
本文将介绍一些改进神经网络模型建立和调整方法的技术,旨在提高模型的性能和鲁棒性。
一、神经网络模型建立神经网络模型的建立包括确定网络结构和初始化参数两个关键步骤。
在确定网络结构时,需要考虑输入层、隐藏层和输出层的大小和数量,并选择适当的激活函数。
一般来说,较浅层的神经网络适用于简单的任务,而较深层的神经网络适用于复杂的任务。
此外,还可以采用卷积神经网络、循环神经网络等特定类型的网络结构,来应对具体的问题。
初始化参数是神经网络模型建立的另一个关键步骤。
常见的初始化方法有高斯分布、均匀分布和零初始化等。
然而,传统的初始化方法往往容易导致梯度消失或梯度爆炸问题,影响模型的训练效果。
为了解决这个问题,一种改进的方法是使用Xavier或He等初始化方法,根据网络结构和激活函数的特点动态调整初始化参数,使得参数的分布更加适应网络的训练过程。
二、神经网络模型调整神经网络模型的调整是为了提高模型的性能和泛化能力。
具体而言,包括参数调整和结构调整两个方面。
1. 参数调整参数调整的目的是通过调整模型的权重和偏置等参数,提高模型对输入数据的拟合能力。
传统的方法是使用梯度下降算法更新参数,但梯度下降算法在复杂的问题上容易陷入局部最优。
为了避免这个问题,可以采用改进的优化算法,如Adam、RMSprop等,结合合适的学习率和正则化技术,提高参数调整的效果。
2. 结构调整结构调整的目的是通过增加或减少神经网络的层数、节点数等结构参数,提高模型的表示能力和泛化能力。
一种常见的结构调整方法是使用正则化技术,如L1正则化、L2正则化等,对模型的复杂度进行约束,避免过拟合问题。
神经网络控制系统的优化设计随着科技的不断进步,人类对复杂系统的控制和优化需求越来越高,而神经网络技术是一个有效的解决方案。
神经网络被广泛应用于电力、石油、航空、军工等领域,其高效、灵活的特性赢得了用户的认可。
但是,神经网络控制系统的优化设计仍然是一个具有挑战性的任务。
本文将探讨神经网络控制系统的优化设计,并介绍几种常见的优化方法。
神经网络控制系统的构成神经网络控制系统由三个部分组成:神经网络模型、控制器和被控对象。
神经网络模型是一个多层前馈神经网络,通常包含输入层、隐含层和输出层。
输入层接受外部信号,隐含层进行信息处理和转换,输出层将处理后的信号传递到控制器。
控制器是神经网络的核心,其作用是根据输入信号调整神经网络参数,以实现对被控对象的控制。
被控对象是待控制的系统,通过传感器将信号传递给神经网络,由神经网络输出的控制信号对其进行调节。
针对神经网络控制系统,优化设计是指对其各个组成部分进行优化,以提高系统的控制性能和稳定性。
优化设计的具体内容包括:(1)神经网络模型优化神经网络模型的优化是实现系统优化设计的第一步,其目标是提高神经网络的泛化能力和预测精度。
优化方法包括神经元数目的确定、激活函数的选择、权值初始化、学习率的调整等。
通过多次试验和反馈,找到最佳的神经网络模型,将大大提高系统的控制能力。
(2)控制器优化控制器是神经网络控制系统的核心部分,其设计的好坏直接影响系统的控制效果。
控制器的优化目标是提高控制精度和响应速度,并保证系统的稳定性。
常见的控制器优化方法有连续控制器和离散控制器,其中离散控制器在实时控制中更具优势,因为它能够快速响应变化,同时消除掉噪声信号带来的干扰。
(3)被控对象优化被控对象的优化是神经网络控制系统中的重要环节。
被控对象通常是复杂的动态系统,其优化目标是提高系统的响应速度和抗干扰能力。
被控对象的优化方法包括系统参数的调整、嵌入式控制系统的设计和应用、信号处理和滤波,通过对被控对象的优化,系统的性能可以得到有效的提升。
神经网络的优化与改进神经网络作为人工智能的核心技术,被广泛应用于图像识别、自然语言处理、语音识别等领域。
然而,在实际应用过程中,神经网络模型存在一些问题,如模型的复杂度、训练时间、可解释性不足等。
因此,神经网络的优化与改进一直是人工智能研究人员的重要方向之一。
一、深度学习中的优化方法使用梯度下降算法来调整神经网络的权重和偏置系数是一种常见的优化方法。
在深度学习中,梯度下降算法又分为批量梯度下降算法、随机梯度下降算法和小批量梯度下降算法。
批量梯度下降算法每次使用全部的训练样本来计算梯度,然后更新权重和偏置。
这种方法的优点是稳定,但训练时间长,需要大量的存储空间。
随机梯度下降算法则是随机选择一个训练样本计算梯度并更新权重和偏置,重复这个过程直到所有样本都被用于训练。
这种方法的优点是收敛速度快,但也容易陷入局部最优解。
小批量梯度下降算法则是在样本中选择一个较小的批次来计算梯度,然后更新权重和偏置。
这种方法结合了批量梯度下降算法和随机梯度下降算法的优点,通常被广泛采用。
二、神经网络的学习率调整方法学习率是控制模型更新步长的超参数,它决定了模型的收敛速度。
学习率过高会导致模型无法收敛或直接变成震荡状态,学习率过低则会导致模型收敛时间过长。
因此,调整学习率是优化神经网络的一个重要方法。
学习率衰减是一个常用的调整方法。
在训练过程中,随着模型逐渐收敛,学习率也应相应减小。
另外,自适应学习率算法也是一个有效的方法,如AdaGrad、RMSprop、Adam等。
这些算法能够根据梯度运行时的状态自动调整学习率,以更好地适应数据变化。
三、神经网络模型的正则化方法正则化是一种常见的降低模型复杂度的方法,可以有效地避免过拟合。
常用的正则化方法包括L1正则化、L2正则化和Dropout 方法。
L1正则化和L2正则化是通过在损失函数中加入正则项对权重进行约束的方法。
L1正则化将权重向量转化为具有稀疏性质的权重向量,可以有效地减少参数数量并提升模型的泛化能力。
神经网络模式识别的改进及应用神经网络是一种模式识别技术,它可以通过计算机模拟大脑神经元的工作原理来识别模式。
神经网络模式识别技术已经应用于许多领域,例如语音识别、图像识别、语言处理、自然语言处理等。
神经网络模式识别的改进可以从以下几个方面进行:1. 结构改进:神经网络结构的改进是提高模式识别准确性的一种方法。
例如,使用深度学习来构建多层次的神经网络可以提高其识别能力,因为深度学习能够处理需要考虑多层次信息的复杂问题。
此外,卷积神经网络、循环神经网络等也是改进神经网络结构的有效方法。
2. 训练算法改进:神经网络的训练算法是神经网络中的关键技术之一。
改进训练算法可以提高神经网络的识别准确性。
例如,使用随机梯度下降法来更新权重可以加快训练速度,同时也可以提高识别精度。
3. 特征提取改进:特征提取是指从数据中提取有用信息的过程。
改进特征提取可以提高神经网络的准确性。
例如,在图像识别中,使用卷积神经网络可以自动提取图像中不同层次的特征,从而提高准确性。
神经网络模式识别技术已经广泛应用于许多领域。
以下是一些应用案例:1. 金融风险预测:神经网络可以处理大量数据,因此可以用来预测金融市场中的风险和机会。
2. 医学图像识别:神经网络可以处理复杂的医学图像,如CT扫描、MRI等,从而帮助医生作出精确的诊断。
3. 语音识别:神经网络可以识别不同的语音信号,并将其转换为文字,从而帮助人们更方便地进行交流。
4. 智能交通:神经网络可以处理视频流、图像和语音信号,从而实现智能交通,如自动驾驶等。
总之,神经网络模式识别技术是一个非常有前途的领域。
改进神经网络的结构、训练算法和特征提取方法,可以提高识别准确性,并为其应用于更广泛的领域提供更多可能性。
神经网络算法的优化与改进随着人工智能领域的不断发展和深入研究,神经网络算法逐渐成为解决各种问题的主要方法之一。
然而,传统的神经网络算法在面对复杂任务时往往存在一些问题,如训练速度较慢、准确率不够高等。
为了克服这些问题,研究人员提出了一系列优化与改进的方法。
本文将重点介绍几种经典的神经网络算法优化技术,并对其进行详细的分析与讨论。
一、梯度下降算法梯度下降算法是一种常用的优化方法,用于调整神经网络中的权重和偏置,以使得模型的损失函数最小化。
该算法通过计算损失函数对于权重和偏置的偏导数来确定参数的调整方向和幅度。
然而,传统的梯度下降算法存在收敛速度较慢的问题,容易陷入局部最优解。
为了加速收敛速度和提高全局最优解的搜索能力,研究人员提出了多种改进的梯度下降算法,如随机梯度下降算法、批量梯度下降算法等。
二、正则化方法在神经网络训练过程中,过拟合是一个常见的问题。
为了解决过拟合问题,研究人员提出了多种正则化方法,如L1正则化、L2正则化等。
这些方法通过在损失函数中引入正则项,限制模型的复杂度,有效减小过拟合的风险。
此外,还有一些基于正则化思想的改进技术,如Dropout、Batch Normalization等。
这些方法通过随机丢弃部分神经元或者对输入进行归一化处理,提高模型的泛化能力和训练速度。
三、激活函数的改进传统的神经网络使用sigmoid或者tanh作为激活函数,但这些函数存在梯度饱和的问题,容易造成梯度消失或者爆炸,影响网络的训练效果。
为了改善这个问题,研究人员提出了一系列新的激活函数,如ReLU、Leaky ReLU、ELU等。
这些函数具有线性增长的特性,在梯度饱和的情况下依然能够保持较大的梯度,有效提高网络的学习效率和泛化能力。
四、卷积神经网络的改进卷积神经网络(CNN)是一种在图像处理和计算机视觉领域广泛应用的神经网络模型。
为了进一步提升CNN的性能,研究人员提出了多种改进技术。
例如,引入批量归一化层可以加速网络的收敛速度,提高模型的训练效果。
BP神经网络算法的改进及其在PID控制中的应用研究共3篇BP神经网络算法的改进及其在PID控制中的应用研究1随着工业自动化的不断推进和智能化的不断发展,控制理论和算法变得越来越重要。
PID控制算法已成为现代控制中最常用的算法之一。
然而,传统的PID控制算法在某些情况下会出现一些问题,这些问题需要新的解决方案。
因此,本文将探讨BP神经网络算法的改进及其在PID控制中的应用研究。
BP神经网络是一种前向反馈神经网络,它通过反复迭代调整参数来学习训练数据,从而实现分类和回归等任务。
BP神经网络作为一种非线性动态系统,具有自适应性、非线性和强泛化能力等特点。
在控制系统中,BP神经网络可以用于模型预测、模型识别和模型控制等方面。
在控制系统中,PID控制是一种常规的线性控制技术。
然而,传统的PID控制算法存在一些问题,如难以解决非线性系统、难以控制多变量系统等。
为了解决这些问题,人们开始探索将BP神经网络用于控制系统。
BP神经网络可以通过学习训练数据来逼近未知非线性系统,从而实现对系统的控制。
在使用BP神经网络控制系统时,需要进行参数调整来保证网络的准确性和控制效果。
对于传统的BP神经网络,训练过程需要耗费大量的计算时间和计算资源。
因此,人们提出了一些改进的BP神经网络算法,如逆传播算法、快速BP算法和LM算法等。
逆传播算法是一种基于梯度下降的BP神经网络算法,该算法通过不断地调整权重和偏置来实现网络的训练。
快速BP算法是一种改进的逆传播算法,它增加了一些优化步骤,使训练过程更快速和高效。
LM算法是一种基于牛顿法的BP神经网络算法,在训练过程中可以自动调整学习率,从而提高训练的速度和准确性。
在控制系统中,BP神经网络可以用于模型预测、模型识别和模型控制等。
例如,在模型控制方面,可以使用BP神经网络来进行预测,并根据预测结果来调整控制参数,从而实现对系统的更加有效的控制。
此外,在模型识别方面,人们也可以使用BP神经网络精确地识别复杂的非线性系统,实现对系统的更加准确的控制。
神经网络模式识别的改进及应用神经网络是一种常用的模式识别算法,其具有自适应性和非线性映射的能力,因此被广泛应用于各个领域中,如图像识别、语音识别、自然语言处理等。
目前存在一些问题和改进空间,下面将介绍一些神经网络模式识别的改进方法以及应用案例。
1. 深度学习:深度学习是神经网络的一种改进方法,通过增加网络的深度和复杂度,可以提高模式识别的准确率。
深度学习将输入层与输出层之间的隐藏层逐层堆叠,从而实现对输入数据的多层次抽象和分层表示。
2. 卷积神经网络(CNN):卷积神经网络是一种特殊的神经网络结构,其在图像识别中具有很好的性能。
CNN通过卷积层和池化层对输入数据进行局部感知和特征提取,从而实现对图像的高效识别。
3. 递归神经网络(RNN):递归神经网络是一种具有动态记忆能力的神经网络结构,适用于序列数据的模式识别。
RNN通过将上一时刻的隐藏状态作为输入,从而实现对序列数据的连续建模和预测。
4. 长短期记忆网络(LSTM):长短期记忆网络是一种改进的RNN结构,专门用于解决长序列数据中的梯度消失问题。
LSTM通过引入记忆单元和门控机制,可以有效地处理长期依赖性和长距离依赖关系。
在实际应用中,神经网络模式识别已经被广泛应用于各个领域。
以下是神经网络模式识别的一些应用案例:1. 图像识别:神经网络可以通过训练数据集学习到图像的特征表示,并实现对图像的分类、检测等任务。
卷积神经网络在图像分类、物体识别等方面具有很好的性能,已经被应用于人脸识别、车辆识别等场景。
2. 语音识别:神经网络可以通过对语音信号进行特征提取,实现对语音的识别和理解。
深度神经网络在语音识别中具有很好的性能,已经被应用于语音助手、智能音箱等场景。
神经网络模式识别是一种强大的算法,通过不断的改进和应用,可以实现对不同类型数据的高效处理和准确识别,对推动人工智能技术的发展具有重要意义。
神经网络的改进方法与性能优化策略神经网络作为一种模仿人脑神经系统的计算模型,在机器学习和人工智能领域发挥着重要作用。
然而,传统的神经网络存在一些问题,如训练时间长、模型复杂度高、泛化能力差等。
为了提高神经网络的性能,研究人员提出了许多改进方法和性能优化策略。
一、改进方法1. 深度神经网络深度神经网络是一种通过增加网络层数来提高性能的方法。
传统的神经网络只有几层隐藏层,难以处理复杂的问题。
而深度神经网络可以通过增加隐藏层的数量来提高模型的表达能力,从而更好地解决复杂的任务。
深度神经网络的训练需要大量的数据和计算资源,但其在图像识别、自然语言处理等领域取得了显著的成果。
2. 卷积神经网络卷积神经网络是一种专门用于处理图像和视频数据的神经网络。
它通过使用卷积层和池化层来提取图像的特征,并通过全连接层进行分类。
卷积神经网络的特点是参数共享和局部连接,使得网络具有较少的参数和更好的泛化能力。
卷积神经网络在图像识别、目标检测等任务中取得了巨大的成功。
3. 循环神经网络循环神经网络是一种适用于序列数据处理的神经网络。
它通过使用循环层来处理序列中的时序信息,使得网络能够记忆之前的状态。
循环神经网络在自然语言处理、语音识别等领域取得了重要的突破。
然而,传统的循环神经网络存在梯度消失和梯度爆炸等问题,为了解决这些问题,研究人员提出了一系列的改进方法,如长短期记忆网络(LSTM)和门控循环单元(GRU)。
二、性能优化策略1. 正则化正则化是一种用于防止过拟合的技术。
过拟合指的是模型在训练集上表现良好,但在测试集上表现较差的现象。
为了解决过拟合问题,可以使用L1正则化和L2正则化来限制模型的复杂度,减少参数的数量。
此外,还可以使用dropout技术,在训练过程中随机丢弃一部分神经元,从而减少模型的复杂度。
2. 批量归一化批量归一化是一种用于加速神经网络训练的技术。
它通过对每个批次的输入进行归一化,使得网络更易于训练。
批量归一化不仅可以加速训练过程,还可以提高模型的泛化能力和稳定性。
3.8 神经网络数字控制改进的补充说明针对自适应律的离散化问题,一种方法是利用采样时间进行差分的离散化,但该方法精度差,另一种方法是利用数值迭代方法进行高精度离散化[4]。
这里介绍一种高精度数值迭代方法—RKM (Runge-Kutta-Merson )方法:()n +1n 145146x x k k k =+++ (1) 其中()1n n 2n n 13n n 124n n 135n n 134k f ,11k f ,k 33111k f ,k k 366113k f ,k k 28813k f ,k k 2k 22T t x T t T x T t T x T t T x T t T x =⎛⎫=++ ⎪⎝⎭⎛⎫=+++ ⎪⎝⎭⎛⎫=+++ ⎪⎝⎭⎛⎫=++-+ ⎪⎝⎭针对自适应律式(3.39)的权值的表达T 1ˆˆk γγ=+θφx PB x θ ,针对每个采样时间,采用RKM 迭代算法式(1)求解,考虑到自适应律表达式中权值ˆθ相当于式(1)中的nx ,且没出现时间变量n t ,故离散求解式(3.39)的Matlab 程序如下:w(i,1)=w_1(i,1)+1/6*(k1+4*k4+k5);k1=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*w_1(i,1));k2=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/3*k1));k3=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/6*k1+1/6*k2)); k4=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/8*k1+3/8*k3));k5=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/2*k1-3/2*k3+2*k4));9.9.2 仿真实例仿真中,采用控制律式(3.27)和自适应律(3.39)。
在离散化自适应律式(3.39)微分方程时,取两种离散化方法:当1S =时,采用简单的差分方法进行离散化,当2S =时,采用RKM 方法进行离散化。
取1M =,未采用神经网络补偿,仿真结果如图1所示。
取2M =,采用神经网络补偿,仿真结果如图2和3所示。
012345678910-0.50.51time(s)P o s i t i o n t r a c k i n g o f s i n g l e l i n k12345678910-0.2-0.15-0.1-0.0500.05time(s)P o s i t i o n t r a c k i n g e r r o r o f s i n g l e l i n k图1 未用神经网络补偿的位置跟踪及其误差(1M =)012345678910time(s)P o s i t i o n t r a c k i n g o f s i n g l e l i n k012345678910-3time(s)P o s i t i o n t r a c k i n g e r r o r o f s i n g l e l i n k图2 采用神经网络补偿的位置跟踪及其误差(2M =)time(s)f a n d f p图3 不确定项及其神经网络逼近结果(2M )神经网络数字控制仿真程序 控制器主程序:chap3_12new.m %Discrete RBF control for Motor clear all; close all;ts=0.001; %Sampling timenode=10; gama=5; c=0; b=4;h=zeros(node,1); kp=40;kv=20;q_1=0;dq_1=0;tol_1=0; xk=[0 0];w_1=zeros(node,1);A=[0 1; -kp -kv]; B=[0;1]; Q=[2000 0; 0 2000]; P=lyap(A',Q); eig(P); k1=0.01;for k=1:1:10000 time(k) = k*ts;qd(k)=0.50*sin(k*ts);dqd(k)=0.50*cos(k*ts);ddqd(k)=-0.50*sin(k*ts);tSpan=[0 ts];para=tol_1; %D/A[t,xx]=ode45('chap3_12newplant',tSpan,xk,[],para); %Plantxk=xx(length(xx),:); %A/Dq(k)=xk(1);%dq(k)=xk(2);dq(k)=(q(k)-q_1)/ts;ddq(k)=(dq(k)-dq_1)/ts;e(k)=q(k)-qd(k);de(k)=dq(k)-dqd(k);xi=[e(k);de(k)];for j=1:1:nodeh(j)=exp(-norm(xi-c)^2/(2*b*b));endfor i=1:1:nodeS=2;if S==1w(i,1)=w_1(i,1)+ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*w_1(i,1)); %Adaptive law elseif S==2k1=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*w_1(i,1));k2=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/3*k1));k3=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/6*k1+1/6*k2));k4=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/8*k1+3/8*k3));k5=ts*(gama*h(i)*xi'*P*B+k1*gama*norm(xi)*(w_1(i,1)+1/2*k1-3/2*k3+2*k4));w(i,1)=w_1(i,1)+1/6*(k1+4*k4+k5);endendg=9.8;m=1;l=1;D0=4/3*m*l^2;d_D=0.8*D0;;C0=2;d_C=0.8*C0;G0(k)=m*g*l*cos(q(k));d_G(k)=0.8*G0(k);d(k)=0.5*sin(k*ts);f(k)=inv(D0)*(d_D*ddq(k)+d_C*dq(k)+d_G(k)+d(k));fp(k)=w'*h;% Control inputif M==1 %No compensationtol(k)=D0*(ddqd(k)-kv*de(k)-kp*e(k))+C0*dq(k)+G0(k);elseif M==2 %Neural network compensationtol(k)=D0*(ddqd(k)-kv*de(k)-kp*e(k))+C0*dq(k)+G0(k)-D0*fp(k); endq_1=q(k);dq_1=dq(k);w_1=w;tol_1=tol(k);endfigure(1);subplot(211);plot(time,qd,'r',time,q,'b');xlabel('time(s)'),ylabel('Position tracking of single link');subplot(212);plot(time,qd-q,'r');xlabel('time(s)'),ylabel('Position tracking error of single link');figure(2);plot(time,tol);xlabel('time(s)'),ylabel('Control input of single link');if M==2figure(3);plot(time,f,'r',time,fp,'b');xlabel('time(s)'),ylabel('f and fp');end被控对象子程序:chap3_12newplant.mfunction dx=Plant(t,x,flag,para)dx=zeros(2,1);g=9.8;m=1;l=1;D0=4/3*m*l^2;d_D=0.8*D0;C0=2;d_C=0.8*C0;G0=m*g*l*cos(x(1));d_G=0.8*G0;D=D0-d_D;C=C0-d_C;G=G0-d_G;d=0.5*sin(t);dx(1)=x(2);dx(2)=inv(D)*(tol+d-C*x(2)-G);。