机器学习实验报告
- 格式:docx
- 大小:47.57 KB
- 文档页数:7
一、实验目的1. 了解机器学习的基本概念和常用算法。
2. 掌握使用Python编程语言实现图像识别系统的方法。
3. 培养分析问题、解决问题的能力。
二、实验环境1. 操作系统:Windows 102. 编程语言:Python3.73. 开发工具:PyCharm4. 机器学习库:TensorFlow、Keras三、实验内容1. 数据预处理2. 模型构建3. 模型训练4. 模型评估5. 模型应用四、实验步骤1. 数据预处理(1)下载图像数据集:选择一个适合的图像数据集,例如MNIST手写数字数据集。
(2)数据加载与处理:使用TensorFlow和Keras库加载图像数据集,并进行预处理,如归一化、调整图像大小等。
2. 模型构建(1)定义网络结构:使用Keras库定义神经网络结构,包括输入层、隐藏层和输出层。
(2)选择激活函数:根据问题特点选择合适的激活函数,如ReLU、Sigmoid等。
(3)定义损失函数:选择损失函数,如交叉熵损失函数。
(4)定义优化器:选择优化器,如Adam、SGD等。
3. 模型训练(1)将数据集分为训练集、验证集和测试集。
(2)使用训练集对模型进行训练,同时监控验证集的性能。
(3)调整模型参数,如学习率、批大小等,以优化模型性能。
4. 模型评估(1)使用测试集评估模型性能,计算准确率、召回率、F1值等指标。
(2)分析模型在测试集上的表现,找出模型的优点和不足。
5. 模型应用(1)将训练好的模型保存为模型文件。
(2)使用保存的模型对新的图像进行识别,展示模型在实际应用中的效果。
五、实验结果与分析1. 模型性能:在测试集上,模型的准确率为98.5%,召回率为98.3%,F1值为98.4%。
2. 模型优化:通过调整学习率、批大小等参数,模型性能得到了一定程度的提升。
3. 模型不足:在测试集中,模型对部分图像的识别效果不佳,可能需要进一步优化模型结构或改进训练方法。
六、实验总结通过本次实验,我们了解了机器学习的基本概念和常用算法,掌握了使用Python编程语言实现图像识别系统的方法。
人工智能实验报告内容人工智能实验报告内容人工智能(Artificial Intelligence, AI)作为一种重要的技术,正在逐渐影响到我们的日常生活和工作。
本次实验旨在学习和探索人工智能的基本技术,并通过实践加深对其原理和应用的理解。
首先,本次实验分为两个部分:人工智能基础技术的学习和人工智能应用的实践。
在人工智能基础技术学习的部分,我们研究了人工智能的核心技术包括机器学习、神经网络、深度学习等。
我们首先学习了机器学习的基本概念和算法,包括监督学习、无监督学习和强化学习等。
我们使用Python编程语言,利用机器学习库进行了实践,例如使用Scikit-learn库实现了线性回归和K-means 聚类算法。
其次,我们学习了神经网络的基本原理和算法,在激活函数、损失函数、优化算法等方面进行了深入研究。
我们利用TensorFlow库搭建了神经网络模型,并使用MNIST数据集进行了手写数字识别的实验。
通过不断调整网络结构和参数,我们逐渐提高了模型的准确率。
最后,我们学习了深度学习的原理和常用的深度学习模型,包括卷积神经网络(Convolutional Neural Network, CNN)、循环神经网络(Recurrent Neural Network, RNN)等。
我们使用Keras库搭建了CNN模型,并使用CIFAR-10数据集进行了图像分类实验。
通过优化网络结构和参数,我们的模型在测试集上取得了较高的准确率。
在人工智能应用的实践部分,我们选择了自然语言处理(Natural Language Processing, NLP)为主题,具体研究了文本分类和情感分析两个任务。
我们使用了Python编程语言和NLTK(Natural Language Toolkit)库进行了实践。
首先,我们使用朴素贝叶斯算法实现了文本分类的任务,通过比较不同的特征提取方法,我们找到了最适合该任务的特征提取方法。
其次,我们使用情感词典和机器学习算法实现了情感分析的任务,通过对情感分析模型进行评估和调优,我们提高了模型的准确率和鲁棒性。
人工智能深度学习实验报告一、实验背景随着科技的迅猛发展,人工智能(AI)已经成为当今世界最具创新性和影响力的领域之一。
深度学习作为人工智能的一个重要分支,凭借其强大的学习能力和数据处理能力,在图像识别、语音处理、自然语言处理等众多领域取得了显著的成果。
本次实验旨在深入探索人工智能深度学习的原理和应用,通过实践操作和数据分析,进一步理解其工作机制和性能表现。
二、实验目的1、熟悉深度学习的基本概念和常用模型,如多层感知机(MLP)、卷积神经网络(CNN)和循环神经网络(RNN)。
2、掌握使用 Python 编程语言和相关深度学习框架(如 TensorFlow、PyTorch 等)进行模型训练和优化的方法。
3、通过实验数据,分析不同模型在不同任务中的性能差异,探索影响模型性能的关键因素。
4、培养解决实际问题的能力,能够运用深度学习技术解决简单的图像分类、文本分类等任务。
三、实验环境1、操作系统:Windows 102、编程语言:Python 383、深度学习框架:TensorFlow 244、开发工具:Jupyter Notebook四、实验数据1、图像分类数据集:CIFAR-10 数据集,包含 10 个不同类别的60000 张彩色图像,其中 50000 张用于训练,10000 张用于测试。
2、文本分类数据集:IMDB 电影评论数据集,包含 25000 条高度极性的电影评论,其中 12500 条用于训练,12500 条用于测试。
五、实验步骤1、数据预处理对于图像数据,进行图像归一化、数据增强(如随机旋转、裁剪、翻转等)操作,以增加数据的多样性和减少过拟合的风险。
对于文本数据,进行词向量化(如使用 Word2Vec、GloVe 等)、数据清洗(如去除特殊字符、停用词等)操作,将文本转换为可被模型处理的数值向量。
2、模型构建构建多层感知机(MLP)模型,包含输入层、隐藏层和输出层,使用 ReLU 激活函数和 Softmax 输出层进行分类任务。
weka实验报告
Weka实验报告
Weka是一款流行的数据挖掘工具,它提供了丰富的机器学习算法和数据预处
理工具,使得数据分析和模型建立变得更加简单和高效。
在本次实验中,我们
将使用Weka工具进行数据分析和模型建立,以探索其在实际应用中的效果和
性能。
实验数据集选取了UCI机器学习库中的经典数据集“鸢尾花数据集”,该数据集
包含了150个样本,每个样本包括了4个特征和一个类别标签。
我们首先使用Weka进行数据预处理,包括缺失值处理、特征选择和数据变换等步骤,以保
证数据的质量和可用性。
接着,我们选择了几种常用的机器学习算法,包括决策树、支持向量机和K近
邻等,使用Weka进行模型建立和性能评估。
通过交叉验证和ROC曲线等方法,我们评估了不同算法在该数据集上的分类性能,并比较它们的准确度、召回率
和F1值等指标,以找出最适合该数据集的模型。
实验结果显示,Weka工具在数据预处理和模型建立方面表现出色,能够快速
高效地完成数据分析任务。
在鸢尾花数据集上,我们发现决策树算法和支持向
量机算法表现较好,能够达到较高的分类准确度和稳定性,而K近邻算法的性
能相对较差。
总的来说,Weka作为一款优秀的数据挖掘工具,具有丰富的功能和易用的界面,能够帮助用户快速建立和评估机器学习模型。
通过本次实验,我们对
Weka的性能和效果有了更深入的了解,相信它将在未来的数据分析工作中发
挥重要作用。
人工智能实验报告摘要:人工智能(AI)是一种模拟和模仿人类智能的技术,它可以模拟人类的思维和决策过程。
本实验报告旨在介绍人工智能的基本概念、发展历程、应用领域以及实验结果。
实验结果显示,人工智能在各个领域都取得了显著的成果,并且在未来的发展中有着广泛的应用前景。
引言:人工智能是一个非常有趣和有挑战性的领域,吸引了许多研究人员和企业的关注。
人工智能技术可以应用于各种领域,包括医疗、金融、交通、教育等。
本实验报告将通过介绍人工智能的基本概念和应用案例,以及展示实验结果,来展示人工智能的潜力和发展前景。
一、人工智能的基本概念人工智能是一种模拟和模仿人类智能的技术,主要包括以下几个方面:1. 机器学习:机器学习是人工智能的一个重要分支,它通过让机器学习自己的模式和规则来实现智能化。
机器学习的方法包括监督学习和无监督学习。
2. 深度学习:深度学习是机器学习的一个子集,它模拟了人类大脑的神经网络结构,可以处理更复杂的问题并取得更好的结果。
3. 自然语言处理:自然语言处理是指让计算机理解和处理人类语言的能力。
这个领域涉及到语音识别、语义分析、机器翻译等技术。
二、人工智能的发展历程人工智能的发展可以追溯到上世纪50年代,当时研究人员开始探索如何使计算机具备智能。
但是由于当时计算机的处理能力和算法的限制,人工智能的发展进展缓慢。
直到近年来,随着计算机技术和机器学习算法的快速发展,人工智能迎来了一个新的发展阶段。
如今, 人工智能技术在各个领域中得到了广泛的应用。
三、人工智能的应用领域1. 医疗领域:人工智能可以应用于医疗影像分析、疾病诊断和预测等方面。
例如,利用人工智能技术,可以提高病理切片的诊断准确率,帮助医生更好地判断病情。
2. 金融领域:人工智能可以应用于风险管理、投资决策和交易监测等方面。
例如,利用机器学习和数据分析,可以预测股票市场的走势并制定相应的投资策略。
3. 交通领域:人工智能可以应用于交通管理、无人驾驶和交通预测等方面。
第1篇一、实验目的本次实验旨在通过实际操作,了解并掌握视觉机器的基本原理和应用,提高对视觉机器处理技术的认识。
实验内容包括边缘检测、显著性检测、特征点检测和直线检测等,通过对比不同算法的优缺点,分析其在实际图像处理中的应用和局限性。
二、实验内容与步骤1. 边缘检测(1)选择图像数据:选取一张包含明显边缘结构的图像作为实验对象。
(2)Sobel边缘检测:使用Sobel算子对图像进行边缘检测,记录结果。
(3)Canny边缘检测:使用Canny算子对图像进行边缘检测,记录结果。
(4)比较两种方法的边缘检测效果,分析其差异。
2. 显著性检测(1)选择图像数据:选取一张包含不同显著性区域的图像作为实验对象。
(2)HC显著性检测:使用Python和OpenCV实现HC显著性检测算法,调整参数,比较检测效果。
(3)基于最小方向对比度显著性检测:使用Python和OpenCV实现基于最小方向对比度显著性检测算法,调整参数,比较检测效果。
(4)基于最稳定区域显著性检测:使用Python和OpenCV实现基于最稳定区域显著性检测算法,调整参数,比较检测效果。
3. 特征点检测(1)选择图像数据:选取一张包含明显角点的图像作为实验对象。
(2)Harris角点检测:使用Python和OpenCV实现Harris角点检测算法,调整参数,比较检测效果。
(3)分析角点检测结果与实际图像特征之间的关系。
4. 直线检测(1)选择图像数据:选取一张包含直线的图像作为实验对象。
(2)哈夫变换直线检测:使用Python和OpenCV实现哈夫变换直线检测算法,调整参数,比较检测效果。
(3)对图像进行预处理(如边缘检测)以提高直线检测效果。
(4)分析哈夫变换在实际场景中的应用和局限性。
三、实验结果与分析1. 边缘检测通过对比Sobel算子和Canny算子的边缘检测结果,发现Canny算子具有更好的检测效果,能够有效抑制噪声,同时保留边缘信息。
LR分析实验报告实验报告:LR分析一、实验目的LR分析是一种常用的机器学习算法,主要用于分类问题。
本实验的目的是使用LR分析算法对一些数据集进行分类,并评估分类效果。
二、实验原理1.LR模型逻辑回归(Logistic Regression)是一种常用的分类算法,它主要用于解决二分类问题。
它利用逻辑函数(Logistic函数)将输入的特征线性两两组合,并通过Sigmoid函数将结果映射到[0,1]的概率值。
具体来说,假设输入特征为x=(x1,x2,...,xn),输出为y,那么逻辑回归模型可以表示为:p(y=1,x) = sigmoid(w0 + w1*x1 + w2*x2 + ... + wn*xn)其中,p(y=1,x)表示在给定特征x的条件下y=1的概率,sigmoid 函数为:sigmoid(z) = 1/(1+exp(-z))模型的参数w0, w1, ..., wn可以通过最大似然估计等方法求解。
2.LR模型训练在LR模型训练过程中,需要使用一个损失函数来衡量预测结果与实际结果的差异,并通过梯度下降等优化算法来求解参数。
一般使用对数似然损失函数(Log Loss)来训练LR模型,其定义如下:Loss(y, p) = -[y*log(p) + (1-y)*log(1-p)]其中,y表示实际结果(0或1),p表示模型预测结果。
参数的更新可以使用梯度下降法来进行:w = w - α * gradient其中,α为学习率,gradient为损失函数对参数的梯度。
三、实验步骤1.数据预处理对原始数据进行特征选择、缺失值填充、离散特征编码等处理,生成可用于训练的数据集。
2.特征工程对数据进行特征工程,包括特征的归一化、离散特征的独热编码等。
3.模型训练使用训练集对LR模型进行训练,在训练中不断调整参数,直至达到收敛条件。
4.模型评估使用测试集对训练好的模型进行评估,并计算准确率、精确率、召回率、F1值等指标。
决策树实验报告决策树实验报告引言决策树是一种常见的机器学习算法,被广泛应用于数据挖掘和预测分析等领域。
本文将介绍决策树的基本原理、实验过程和结果分析,以及对决策树算法的优化和应用的思考。
一、决策树的基本原理决策树是一种基于树形结构的分类模型,通过一系列的判断和决策来对数据进行分类。
决策树的构建过程中,首先选择一个特征作为根节点,然后根据该特征的取值将数据划分为不同的子集,接着对每个子集递归地构建子树,直到满足停止条件。
构建完成后,通过树的分支路径即可对新的数据进行分类。
二、实验过程1. 数据准备为了验证决策树算法的效果,我们选择了一个包含多个特征的数据集。
数据集中包含了学生的性别、年龄、成绩等特征,以及是否通过考试的标签。
我们将数据集分为训练集和测试集,其中训练集用于构建决策树模型,测试集用于评估模型的准确性。
2. 决策树构建在实验中,我们使用了Python编程语言中的scikit-learn库来构建决策树模型。
首先,我们导入所需的库和数据集,并对数据进行预处理,包括缺失值处理、特征选择等。
然后,我们使用训练集来构建决策树模型,设置合适的参数,如最大深度、最小样本数等。
最后,我们使用测试集对模型进行评估,并计算准确率、召回率等指标。
3. 结果分析通过实验,我们得到了决策树模型在测试集上的准确率为80%。
这意味着模型能够正确分类80%的测试样本。
此外,我们还计算了模型的召回率和F1值等指标,用于评估模型的性能。
通过对结果的分析,我们可以发现模型在某些特征上表现较好,而在其他特征上表现较差。
这可能是由于数据集中某些特征对于分类结果的影响较大,而其他特征的影响较小。
三、决策树算法的优化和应用1. 算法优化决策树算法在实际应用中存在一些问题,如容易过拟合、对噪声敏感等。
为了提高模型的性能,可以采取以下措施进行优化。
首先,可以通过剪枝操作减少决策树的复杂度,防止过拟合。
其次,可以使用集成学习方法,如随机森林和梯度提升树,来进一步提高模型的准确性和鲁棒性。
实验二决策树实验实验报告
一、实验目的
本实验旨在通过实际操作,加深对决策树算法的理解,并掌握
决策树的基本原理、构建过程以及应用场景。
二、实验原理
决策树是一种常用的机器学习算法,主要用于分类和回归问题。
其基本原理是将问题划分为不同的决策节点和叶节点,通过一系列
的特征测试来进行决策。
决策树的构建过程包括特征选择、划分准
则和剪枝等步骤。
三、实验步骤
1. 数据收集:从开放数据集或自有数据中选择一个适当的数据集,用于构建决策树模型。
2. 数据预处理:对收集到的数据进行缺失值处理、异常值处理
以及特征选择等预处理操作,以提高模型的准确性和可靠性。
3. 特征选择:采用合适的特征选择算法,从所有特征中选择对
分类或回归任务最重要的特征。
4. 构建决策树模型:根据选定的特征选择算法,以及划分准则(如信息增益或基尼系数)进行决策树模型的构建。
5. 模型评估:使用交叉验证等方法对构建的决策树模型进行评估,包括准确率、召回率、F1-score等指标。
6. 模型调优:根据评估结果,对决策树模型进行调优,如调整模型参数、采用剪枝技术等方法。
7. 模型应用:将得到的最优决策树模型应用于实际问题中,进行预测和决策。
四、实验结果及分析
在本次实验中,我们选择了某电商网站的用户购买记录作为数据集,利用决策树算法构建用户购买意愿的预测模型。
经过数据预处理和特征选择,选取了用户地理位置、年龄、性别和购买历史等特征作为输入。
利用信息增益作为划分准则,构建了一棵决策树模型。
人工智能_实验报告在当今科技飞速发展的时代,人工智能(Artificial Intelligence,简称 AI)已经成为了备受瞩目的领域。
为了更深入地了解人工智能的原理和应用,我们进行了一系列的实验。
本次实验的目的是探究人工智能在不同场景下的表现和能力,以及其对人类生活和工作可能产生的影响。
实验过程中,我们使用了多种技术和工具,包括机器学习算法、深度学习框架以及大量的数据样本。
首先,我们对图像识别这一领域进行了研究。
通过收集大量的图像数据,并使用卷积神经网络(Convolutional Neural Network,简称 CNN)进行训练,我们试图让计算机学会识别不同的物体和场景。
在实验中,我们发现,随着训练数据的增加和网络结构的优化,计算机的图像识别准确率得到了显著提高。
然而,在面对一些复杂的图像,如光线昏暗、物体遮挡等情况下,识别效果仍有待提升。
接着,我们转向了自然语言处理(Natural Language Processing,简称 NLP)的实验。
利用循环神经网络(Recurrent Neural Network,简称RNN)和长短时记忆网络(Long ShortTerm Memory,简称 LSTM),我们尝试让计算机理解和生成人类语言。
在文本分类和情感分析任务中,我们取得了一定的成果,但在处理语义模糊和上下文依赖较强的文本时,计算机仍会出现理解偏差。
在实验过程中,我们还遇到了一些挑战和问题。
数据的质量和数量对人工智能模型的性能有着至关重要的影响。
如果数据存在偏差、噪声或不完整,模型可能会学到错误的模式,从而导致预测结果不准确。
此外,模型的训练时间和计算资源需求也是一个不容忽视的问题。
一些复杂的模型需要在高性能的计算机集群上进行长时间的训练,这对于普通的研究团队和个人来说是一个巨大的负担。
为了应对这些问题,我们采取了一系列的措施。
对于数据质量问题,我们进行了严格的数据清洗和预处理工作,去除噪声和异常值,并通过数据增强技术增加数据的多样性。
机器学习实验报告
实验一、ID3算法
1.实验目的:了解并掌握ID3算法。
2.实验内容:编程实现ID3算法。
3.实验结果。
实验程序:
function tree=ID3(T,N_V)
[m,n]=size(T);
C=zeros(1,n);
for i=1:n
C(i)=max(T(:,i));
end
Pe=zeros(1,C(n));
Ee=0;
for i=1:C(n)
Pe(i)=length(find(T(:,n)==i))/m;
if Pe(i)~=0
Ee=Ee-(Pe(i)*log2(Pe(i)));
end
end
P=zeros(n-1,max(C(1:n-1)),C(n));
E=zeros(1,n-1);
G=zeros(1,n-1);
nj=0;
for i=1:n-1
for j=1:C(i)
nj=length(find(T(:,i)==j));
for k=1:C(n)
counter=0;
for ii=1:m
if(T(ii,i)==j&&T(ii,n)==k)
counter=counter+1;
end
end
P(i,j,k)=counter/nj;
if P(i,j,k)~=0
E(i)=E(i)-(nj/m)*P(i,j,k)*log2(P(i,j,k));
end
end
end
G(i)=Ee-E(i);
end
best=0;
BestTag=0;
for i=1:n-1
if G(i)>best
best=G(i);
BestTag=i;
end
end
tree.rname=N_V(1,BestTag);
for ii=1:C(BestTag)
temp=0;
tree.branch{ii}=[];
tree.bname{ii}=[];
for i=1:m
if (T(i,BestTag)==ii)
if (temp==0)
temp=T(i,n);
elseif (temp~=T(i,n))
tree.branch{ii}=ID3(T(T(:,BestTag)==ii,:),N_V);
tree.bname{ii}=N_V(ii+1,BestTag);
break;
end
end
end
if isempty(tree.bname{ii})
tree.branch{ii}=N_V(temp+1,n);
tree.bname{ii}=N_V(ii+1,BestTag);
end
end
对于下表:
Day Outlook Temperature Humidity Windy PlayTennis D1 Sunny Hot High Weak No
D2 Sunny Hot High Strong No
D3 Overcast Hot High Weak Yes
D4 Rain Mild High Weak Yes
D5 Rain Cool Normal Weak Yes
D6 Rain Cool Normal Strong No
D7 Overcast Cool Normal Strong Yes
D8 Sunny Mild High Weak No
D9 Sunny Cool Normal Weak Yes
D10 Rain Mild Normal Weak Yes
D11 Sunny Mild Normal Strong Yes
D12 Overcast Mild High Strong Yes
D13 Overcast Hot Normal Weak Yes
D14 Rain Mild High Strong No
转化为程序输入:
N_V={'outlook''temperature''humidity''windy''class';
'sunny''hot''high''weak''no';
'overcast''mild''normal''strong''yes';
'rain''cool''NAS''NAS''NAS'}
T= [1 1 1 1 1;
1 1 1
2 1;
2 1 1 1 2;
3 2 1 1 2;
3 3 2 1 2;
3 3 2 2 1;
2 3 2 2 2;
1 2 1 1 1;
1 3
2 1 2;
3 2 2 1 2;
1 2 2 2 2;
2 2 1 2 2;
2 1 2 1 2;
3 2 1 2 1];
O=ID3(T,N_V);
其中:第一列1、2、3分别对应'sunny'、'overcast'、'rain';第二列1、2、3分别对应'hot'、'mild'、'cool';第三列1、2分别对应'high'、'normal'、'cool';第四列1、2分别对应'weak'、'strong';第五列1、2分别对应'no'、'yes'。
程序输出:
实验二、BP神经网络
1.实验目的:了解并掌握BP神经网络。
2.实验内容:编程实现BP神经网络。
3.实验结果。
实验程序:
Wbc=0.1;
Wc0=0.1;
Wcd=0.1;
Wd0=0.1;
L=0.3;
I=0.9;
X=[1 0;0 1];
T=[1 0]';
DWcd=0;
DWd0=0;
DWac=0;
DWbc=0;
DWc0=0;
N=1000;
OUT=zeros(2,N);
for i=1:N
Sc(1)=Wac*X(1,1)+Wbc*X(1,2)+Wc0;
Oc(1)=1/(1+exp(-Sc(1)));
Sd(1)=Wcd*Oc(1)+Wd0;
Od(1)=1/(1+exp(-Sd(1)));
Ed(1)=Od(1)*(1-Od(1))*(T(1)-Od(1));
Ec(1)=Oc(1)*(1-Oc(1))*Ed(1);
DWcd=L*Ed(1)*Oc(1)+I*DWcd;
DWd0=L*Ed(1)+I*DWd0;
DWac=L*Ec(1)*X(1,1)+I*DWac;
DWbc=L*Ec(1)*X(1,2)+I*DWbc;
DWc0=L*Ec(1)+I*DWc0;
Wcd=Wcd+DWcd;
Wd0=Wd0+DWd0;
Wac=Wac+DWac;
Wbc=Wbc+DWbc;
Wc0=Wc0+DWc0;
OUT(1,i)=Od(1);
Sc(2)=Wac*X(2,1)+Wbc*X(2,2)+Wc0;
Oc(2)=1/(1+exp(-Sc(2)));
Sd(2)=Wcd*Oc(2)+Wd0;
Od(2)=1/(1+exp(-Sd(2)));
Ed(2)=Od(2)*(1-Od(2))*(T(2)-Od(2));
Ec(2)=Oc(2)*(1-Oc(2))*Ed(2);
DWcd=L*Ed(2)*Oc(2)+I*DWcd;
DWd0=L*Ed(2)+I*DWd0;
DWac=L*Ec(2)*X(2,1)+I*DWac;
DWbc=L*Ec(2)*X(2,2)+I*DWbc;
DWc0=L*Ec(2)+I*DWc0;
Wcd=Wcd+DWcd;
Wd0=Wd0+DWd0;
Wac=Wac+DWac;
Wbc=Wbc+DWbc;
Wc0=Wc0+DWc0;
OUT(2,i)=Od(2);
end
plot(OUT(1,:));
plot(OUT(2,:)); 程序输出:。