感知器算法
- 格式:docx
- 大小:85.65 KB
- 文档页数:7
感知器算法原理
感知器算法是一种人工神经网络的算法,它的主要原理是通过学习一
组样本数据,来预测新数据的类别。
感知器算法最早由Frank Rosenblatt在1957年提出,它是一种二元线性分类器,它的输入为
一组实数,输出为0或1。
感知器算法的工作原理非常简单,它将输入向量与一组权重系数进行
内积计算,并将结果与一个阈值进行比较。
如果结果大于阈值,则输
出为1,否则输出为0。
如果感知器的输出与实际输出不一致,那么算法就会根据误差进行权重的调整,直到误差收敛或达到预设的最大迭
代次数。
感知器算法的收敛性是有保证的,如果数据是线性可分的,那么感知
器算法一定能够找到一个最优的线性分类超平面,使得样本分类正确。
但如果数据是非线性可分的,那么感知器算法可能无法收敛。
感知器算法有一些缺点,比如它只能处理线性可分的数据,可能会牺
牲一些分类精度,对于高维数据来说,它需要大量的计算和存储资源,而且对于非平衡数据集来说,它可能会产生误导性的结果。
为了克服
这些缺点,人们提出了许多改进的感知器算法,比如多层感知器、支
持向量机、Adaboost等,这些算法可以更好地处理非线性数据,提
高分类精度。
总的来说,感知器算法是一种简单而有效的分类算法,它的原理易于理解,实现也比较简单,但在现实应用中需要注意其局限性。
在选择分类算法时,需要根据具体的数据特征和需求来选择合适的算法。
单层感知器算法及其训练过程探究随着人工智能和机器学习技术的发展,单层感知器算法因为其简单和易于理解的特点成为了很多人学习和掌握机器学习初步知识的入门之路。
本文将介绍单层感知器算法及其训练过程探究。
一、单层感知器算法单层感知器是一种线性分类模型,也是神经网络的一种。
它通过一些列数值计算和激活函数的运用,将输入的向量映射到某个输出的标签值,用于相应的分类任务中。
单层感知器算法的基本流程是:输入向量 x 经过线性函数运算 h(x) = w*x+b 之后,再经过激活函数 g(h(x)) ,得到分类的输出 y。
其中,w 是权重,b 是偏差量。
在训练过程中,单层感知器通过反向传播算法对权重和偏差量进行不断调整,从而不断提高分类准确率。
二、单层感知器的训练过程单层感知器的训练过程可以分为以下几步:1. 准备数据准备数据是机器学习的第一步,也是单层感知器训练的必要条件。
通常,我们需要用一些已经标记好标签的数据集,输入向量 x 和对应的标签 y,作为算法的训练数据集。
2. 初始化权重和偏差量在开始训练之前,需要初始化权重 w 和偏差量 b。
通常,我们可以使用随机的小数值来初始化它们。
3. 计算误差并更新参数单层感知器的权重和偏差量通过随机初始化后,就可以开始输入训练集数据,并对其进行分类。
如果分类结果与真实标签不一致,则需要通过误差计算来调整权重和偏差。
通常,我们可以使用代价函数作为误差计算的准则,常见的代价函数有均方误差MSE 和交叉熵 CE. 通过代价函数计算出误差值,再通过反向传播算法对权重和偏差量进行更新,不断调整,直到误差值最小化。
4. 不断迭代在更新了权重和偏差量之后,需要再次用训练集测试,并根据误差值调整权重和偏差,直到误差值达到预设精度或者达到最大迭代次数停止。
三、总结单层感知器算法作为神经网络中的一种基本算法,其训练过程简单,易于理解,对于初学者来说是一种入门机器学习和神经网络的良好途径。
总之,单层感知器是机器学习和深度学习的起点,学习它可以让我们更好地理解更复杂的神经网络和机器学习算法,为未来更高级的研究打下坚实的基础。
delta规则Delta规则,也称为delta学习规则或感知器算法,是一个经典的人工神经网络学习算法。
这个算法主要用于训练一个由具有权重的神经元构成的网络,使得网络能够正确地预测给定的输入和输出。
当神经元收到一个输入时,它会计算输入与其权重的加权和作为神经元的激活函数输入。
激活函数通常采用一些非线性的函数,例如sigmoid函数,以产生更高的复杂性。
Delta规则的核心思想是基于误差的学习,即对于给定的输入,通过比较神经元的实际输出和期望输出之间的差异来调整权重。
这个差异被称为误差项,也可以被看作是网络预测与实际结果之间的差异。
具体来说,Delta规则可以被描述为下面的步骤:1.随机初始化权重。
2.使用网络进行预测。
3.计算误差项。
4.根据误差项调整权重。
5.重复以上步骤,直到误差收敛或达到预定的迭代次数。
在第一步中,权重的初始值通常被设置为随机值,以便训练开始时网络能够探索许多可能的解决方案。
在第二步中,网络接收输入并根据初始的权重计算输出。
这个输出通常与期望输出不同,因此满足误差项的条件。
在第三步中,误差项被计算为期望输出与实际输出之间的差异。
这个差异可以使用一个成本函数来度量。
在第四步中,权重被通过误差项的反向传播来调整,即越大的误差项产生更多的权重调整。
在第五步中,程序使用新的权重再次执行第二至第四步,以获得更准确的输出结果。
这个过程持续进行直到误差足够小,或达到规定的迭代次数。
需要注意的是,Delta规则的效率和准确度很大程度上取决于两个因素:学习速率和激活函数。
学习速率决定了神经元根据误差项调整权重的幅度,如果学习速率太大,网络可能会无法收敛;如果太小,网络的训练过程可能会变得过于缓慢。
激活函数对网络所能解决的问题的复杂度具有重要的影响。
如果激活函数是线性的,那么神经网络只能处理线性可分问题,并且不能处理高度非线性的问题。
总之,Delta规则是一种简单而有效的网络训练算法,它在许多机器学习应用中被广泛使用。
感知器算法的基本原理与应用感知器算法是一种简单而有效的机器学习算法,于1957年被Frank Rosenblatt所提出。
在过去几十年里,感知器算法一直被广泛应用在识别模式,分类数据和垃圾邮件过滤等领域。
本文将会介绍感知器算法的基本原理,如何使用感知器完成模式分类,以及如何优化感知器算法。
感知器算法的基本原理感知器算法基于神经元(Perceptron)模型构建,神经元模型的基本原理是对输入信号进行加权,然后通过激活函数的计算输出结果。
通常情况下,神经元被认为是一个输入层节点,一个或多个输入是接收的,以及一个输出层。
感知器算法的核心思想是,给定一组输入和对应的输出(通常成为标签),通过多个迭代来调整模型中的权重,以最大限度地减少模型的误差,并尽可能准确地预测未知输入的输出。
感知器算法的主要流程如下:1. 初始化感知器参数,包括权重(最初为随机值)和偏置(通常为零)。
2. 对于每个输入,计算预测输出,并将预测输出与实际标签进行比较。
3. 如果预测输出与实际标签不同,则更新权重和偏置。
更新规则为$\omega_{j} \leftarrow \omega_{j} + \alpha(y-\hat{y})x_{j}$,其中$x_{j}$是输入的第$j$个特征,$\alpha$是学习率(控制权重和偏置的更新量),$y$是实际标签,而$\hat{y}$是预测输出。
4. 重复步骤2和步骤3,直到满足停止条件(例如,经过N次重复迭代后误差不再显著降低)。
如何使用感知器完成分类让我们考虑一个简单的情况:我们要学习使用感知器进行两类别(正面和负面)的文本情感分类。
我们可以将文本转换为一组数字特征,例如文本中出现特定单词的频率或数量,并将每个文本的情感作为输入,正面或负面情感被记为1或0。
我们可以将感知器视为一个二元分类器,用它来预测每个输入文本的情感值。
对于每个输入,我们计算出感知器的输出,并将其与实际情感进行比较。
如果它们没有匹配,那么我们将使用上面提到的更新规则调整每个特征的权重,重复该过程,直到达到收敛为止。
感知器的训练算法
已知两个训练模式集分别属于ω1类和ω2类,权向量的初始值为w(1),可任意取值。
若0x )k (w ,x k T 1k >∈ω,若0x )k (w ,x k T 2k ≤∈ω,则在用全部训练模式集进行迭代训练时,第k 次的训练步骤为:
- 若1k x ω∈且0x )k (w k T ≤,则分类器对第k 个模式x k 做了错误分类,此时应校正权向量,使得w(k+1) = w(k) + Cx k ,其中C 为一个校正增量。
- 若2k x ω∈且0x )k (w k T >,同样分类器分类错误,则权向量应校正如下:w(k+1) = w(k) - Cx k
- 若以上情况不符合,则表明该模式样本在第k 次中分类正确,因此权向量不变,即:w(k+1) = w(k)
若对2x ω∈的模式样本乘以(-1),则有:
0x )k (w k T ≤时,w(k+1) = w(k) + Cx k
此时,感知器算法可统一写成:
⎩⎨⎧≤+>=+0
x )k (w if Cx )k (w 0x )k (w if )k (w )1k (w k T k k T。
一、实验背景感知器算法是一种简单的线性二分类模型,由Frank Rosenblatt于1957年提出。
它是一种基于误分类项进行学习,以调整权重来拟合数据集的算法。
感知器算法适用于线性可分的数据集,能够将数据集中的样本正确分类。
本次实验旨在通过编程实现感知器算法,并使用iris数据集进行验证。
通过实验,我们能够熟悉感知器算法的基本原理,了解其优缺点,并掌握其在实际应用中的使用方法。
二、实验目的1. 理解感知器算法的基本原理;2. 编程实现感知器算法;3. 使用iris数据集验证感知器算法的性能;4. 分析感知器算法的优缺点。
三、实验环境1. 操作系统:Windows 102. 编程语言:Python3. 机器学习库:Scipy、Numpy、Matplotlib、sklearn四、实验步骤1. 导入必要的库```pythonimport numpy as npimport matplotlib.pyplot as pltfrom sklearn import datasetsfrom sklearn.model_selection import train_test_split```2. 读取iris数据集```pythoniris = datasets.load_iris()X = iris.datay = iris.target```3. 将数据集划分为训练集和测试集```pythonX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)```4. 编写感知器算法```pythondef perceptron(X, y, w, b, learning_rate):for i in range(len(X)):if np.dot(X[i], w) + b <= 0:w += learning_rate y[i] X[i]b += learning_rate y[i]return w, b```5. 训练感知器模型```pythonlearning_rate = 0.1max_iter = 100w = np.zeros(X.shape[1])b = 0for _ in range(max_iter):w, b = perceptron(X_train, y_train, w, b, learning_rate)```6. 评估感知器模型```pythondef predict(X, w, b):return np.sign(np.dot(X, w) + b)y_pred = predict(X_test, w, b)accuracy = np.mean(y_pred == y_test)print("感知器算法的准确率:", accuracy)```7. 可视化感知器模型```pythondef plot_decision_boundary(X, y, w, b):plt.figure(figsize=(8, 6))plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired,edgecolors='k', marker='o')x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.1), np.arange(y_min, y_max, 0.1))Z = np.dot(np.c_[xx.ravel(), yy.ravel()], w) + bZ = Z.reshape(xx.shape)plt.contourf(xx, yy, Z, alpha=0.4)plt.xlabel("Sepal length (cm)")plt.ylabel("Sepal width (cm)")plt.title("Perceptron Decision Boundary")plt.show()plot_decision_boundary(X_train, y_train, w, b)```五、实验结果与分析1. 感知器算法的准确率为约0.9,说明感知器算法在iris数据集上表现良好。
感知器算法原理
感知器是一种最简单的人工神经网络模型,它模拟了人类大脑神经元的工作原理,能够实现简单的分类任务。
感知器算法的原理是基于线性分类器的思想,通过不断迭代更新权重和偏置,使得感知器能够找到一个能够将输入数据正确分类的超平面。
在本文中,我们将详细介绍感知器算法的原理及其应用。
首先,让我们来了解一下感知器的结构。
感知器由输入层、权重、偏置、激活
函数和输出层组成。
输入层接收外部输入数据,每个输入数据都有一个对应的权重,权重表示了输入数据对输出的影响程度。
偏置用于调整模型的灵活性,激活函数则用于引入非线性因素,输出层则输出最终的分类结果。
感知器算法的原理是基于误差驱动的学习规则,即通过不断调整权重和偏置,
使得感知器的输出尽可能接近真实标签。
具体来说,感知器接收输入数据,计算加权和并经过激活函数处理得到输出,然后与真实标签进行比较,如果预测错误,则根据误差调整权重和偏置,直到达到一定的精度要求。
在实际应用中,感知器算法可以用于解决二分类问题,如判断一张图片是猫还
是狗,或者判断一封邮件是垃圾邮件还是正常邮件。
感知器算法的优点是简单易懂,训练速度快,适用于线性可分的数据集。
然而,感知器也存在一些局限性,比如无法解决非线性可分的问题,对噪声敏感等。
总之,感知器算法是一种简单而有效的分类算法,它通过模拟人脑神经元的工
作原理,实现了简单的分类任务。
在实际应用中,感知器算法可以用于解决二分类问题,具有训练速度快等优点。
然而,感知器也存在一些局限性,需要根据具体问题选择合适的算法。
希望本文能够帮助您更好地理解感知器算法的原理及其应用。
多层感知器算法在数据分类中的应用论文素材多层感知器算法在数据分类中的应用多层感知器(Multilayer Perceptron,简称MLP)是一种常见的人工神经网络模型,在数据分类领域得到了广泛应用。
本论文将介绍MLP算法的基本原理和在数据分类中的应用。
一、MLP算法的基本原理多层感知器算法是一种前向人工神经网络(Feedforward Artificial Neural Network)模型。
它由输入层、隐藏层和输出层构成,每个层由多个人工神经元(Artificial Neuron)组成。
1. 输入层:接收原始数据作为神经网络的输入,并负责传递数据到下一层。
2. 隐藏层:它是介于输入层和输出层之间的一层或多层,用于提取输入数据的特征信息。
每个神经元都通过一定的连接权重将输入传递给下一层。
3. 输出层:对于分类问题,输出层的神经元数量通常与分类的类别数量相同,每个神经元对应一个类别。
根据传递到输出层的信号强度,可以确定数据属于哪个类别。
在MLP算法中,每个神经元都由一个激活函数(Activation Function)来处理输入信号。
常用的激活函数包括Sigmoid函数、ReLU 函数和Softmax函数等。
MLP算法通过不断调整连接权重和阈值,使得神经网络能够学习并改进自己的性能。
训练过程通常采用反向传播算法(Backpropagation Algorithm)来更新网络参数。
二、MLP算法在数据分类中的应用MLP算法在数据分类中具有广泛的应用,尤其在图像和文本分类领域取得了显著的成果。
1. 图像分类图像分类是指将输入的图像划分到不同的类别,比如人脸识别、车辆检测等。
MLP算法可以用于图像特征提取和分类。
通过在隐藏层中设计合适的神经元数量和激活函数,MLP模型能够学习到图像的高级特征,从而提高分类的准确性。
2. 文本分类文本分类是将一段文本划分到不同的类别,比如垃圾邮件过滤、情感分析等。
MLP算法可以将文本表示为向量形式,并通过隐藏层学习到文本的语义信息。
机器学习算法--Perceptron(感知器)算法概括Perceptron(感知器)是⼀个⼆分类线性模型,其输⼊的是特征向量,输出的是类别。
Perceptron的作⽤即将数据分成正负两类的超平⾯。
可以说是机器学习中最基本的分类器。
模型Perceptron ⼀样属于线性分类器。
对于向量X=x1,x2,...x n,对于权重向量(w)相乘,加上偏移(b),于是有:f(x)=N∑i=1w i x i+b设置阈值threshold之后,可以的到如果f(x)>threshold,则y(标签)设为1如果f(x)<threshold,则y(标签)设为0即,可以把其表⽰为:y=sign(w T x+b)参数学习我们已经知道模型是什么样,也知道Preceptron有两个参数,那么如何更新这两个参数呢?⾸先,我们先Preceptron的更新策略:1. 初始化参数2. 对所有数据进⾏判断,超平⾯是否可以把正实例点和负实例点完成正确分开。
3. 如果不⾏,更新w,b。
4. 重复执⾏2,3步,直到数据被分开,或者迭代次数到达上限。
那么如何更新w,b呢?我们知道在任何时候,学习是朝着损失最⼩的地⽅,也就是说,我的下⼀步更新的策略是使当前点到超平⾯的损失函数极⼩化。
在超平⾯中,我们定义⼀个点到超平⾯的距离为:(具体如何得出,可以⾃⾏百度~~~ ),此外其中1|w|是L2范数。
意思可表⽰全部w向量的平⽅和的开⽅。
1‖w‖w T x+b 这⾥假设有M个点是误差点,那么损失函数可以是:L(w,b)=−1‖w‖∑x i∈M yi(w T x+b)当然,为了简便计算,这⾥忽略1|w|。
1|w|不影响-y(w,x+b)正负的判断,即不影响学习算法的中间过程。
因为感知机学习算法最终的终⽌条件是所有的输⼊都被正确分类,即不存在误分类的点。
则此时损失函数为0,则可以看出1|w|对最终结果也⽆影响。
既然没有影响,为了简便计算,直接忽略1|w|。
感知器算法标准化工作室编码[XX968T-XX89628-XJ668-XT689N]基于模式识别的判别函数分类器的设计与实现摘要:本文主要介绍了模式识别中判别函数的相关概念和感知器算法的原理及特点,并例举实例介绍感知器算法求解权向量和判别函数的具体方法,最后按照线性函数判决函数的感知算法思想结合数字识别,来进行设计,通过训练数字样本(每个数字样本都大于120),结合个人写字习惯,记录测试结果,最后通过matlab 编码来实现感知器的数字识别。
关键字:模式识别 判别函数 感知器 matlab1 引言模式识别就是通过计算机用数学技术方法来研究模式的自动处理和识别。
对于人类的识别能力我们是非常熟悉的。
因为我们在早些年就已经会开发识别声音、脸、动物、水果或简单不动的东西的技术了。
在开发出说话技术之前,一个象球的东西,甚至看上去只是象个球,就已经可以被识别出来了。
所以除了记忆,抽象和推广能力是推进模式识别技术的关键技术。
最近几年我们已可以处理更复杂的模式,这种模式可能不是直接基于通过感知器观察出来的随着计算机技术的发展,人类对模式识别技术提出了更高的要求。
本文第二节介绍判别函数分类器,具体介绍了判别函数的概念、特点以及如何确定判别函数的正负;第三节介绍了感知器的概念、特点并用感知器算法求出将模式分为两类的权向量解和判别函数,最后用matlab 实现感知判别器的设计。
2 判别函数分类器判别函数概念直接用来对模式进行分类的准则函数。
若分属于ω1,ω2的两类模式可用一方程d (X ) =0来划分,那么称d (X ) 为判别函数,或称判决函数、决策函数。
如,一个二维的两类判别问题,模式分布如图示,这些分属于ω1,ω2两类的模式可用一直线方程d (X )=0来划分。
其中0)(32211=++=w x w x w d X 式中: 21,x x 为坐标变量。
图2-1 两类二维模式的分布将某一未知模式 X 代入: 若0)(>X d ,则1ω∈X 类; 若0)(<X d ,则2ω∈X 类;若0)(=X d ,则21ωω∈∈X X 或或拒绝维数=3时:判别边界为一平面。
维数>3时:判别边界为一超平面。
判别函数正负值的确定判别界面的正负侧,是在训练判别函数的权值时确定的。
如图2-2。
图2-2 判别函数正负的确定图中 d (X )=0表示的是一种分类的标准,它可以是1、2、3维的,也可以是更高维的。
确定判别函数的两个因素1)判决函数d (X )的几何性质。
它可以是线性的或非线性的函数,维数在特征提取时已经确定。
已知三维线性分类 —— 判决函数的性质就确定了判决函数的形式:4332211)(w x w x w x w d +++=X非线性判决函数,其示意图如图2-3所示:图:2-3 非线性判决函数图示2)判决函数d (X )的系数,由所给模式样本确定的。
3感知器算法设计与实现对一种分类学习机模型的称呼,属于有关机器学习的仿生学领域中的问题,由于无法实现非线性分类而下马。
但“赏罚概念( reward-punishment concept )” 得到广泛应用,感知器算法就是一种赏罚过程。
感器算法原理及特点3.1.1 感知器算法原理两类线性可分的模式类 21,ωω,设X W X d T)(=其中,[]T 121,,,,+=n n w w w w W ,[]T211,,,,n x x x =X 应具有性质(3-1)对样本进行规范化处理,即ω2类样本全部乘以(-1),则有:感知器算法通过对已知类别的训练样本集的学习,寻找一个满足上式的权向量。
感知器算法步骤:(1)选择N 个分属于ω1和 ω2类的模式样本构成训练样本集{ X1 ,…, XN }构成增广向量形式,并进行规范化处理。
任取权向量初始值W(1),开始迭代。
迭代次数k=1。
(2)用全部训练样本进行一轮迭代,计算W T (k )X i 的值,并修正权向量。
分两种情况,更新权向量的值:1. (),若0≤T i k X W 分类器对第i 个模式做了错误分类,权向量校正为:()()i c k k X W W +=+1c :正的校正增量。
2. 若(),0T >i k X W 分类正确,权向量不变:()()k k W W =+1,统一写为:()()()()(),1,T k T k k k k k k C k ⎧≥⎪+=⎨+<⎪⎩W W X W W X W X (3-3)(3)分析分类结果:只要有一个错误分类,回到(2),直至对所有样本正确分类。
感知器算法是一种赏罚过程:分类正确时,对权向量“赏”——这里用“不罚”,即权向量不变; 分类错误时,对权向量“罚”——对其修改,向正确的方向转换。
3.1.2 感知算法特点--收敛性收敛性:经过算法的有限次迭代运算后,求出了一个使所有样本都能正确分类的W ,则称算法是收敛的。
感知器算法是在模式类别线性可分条件下才是收敛的。
3.1.3 感知器算法用于多类情况采用多类情况3的方法时,应有:若i ω∈X ,则(),,)(i j d d j i ≠∀>X X M j ,,1 =对于M 类模式应存在M 个判决函数: {}M i d i ,,1, =,,,,, 算法主要内容:设有M 中模式类别:M ωωω,,,21 设其权向量初值为:()M j j ,,1,1 =W 训练样本为增广向量形式,但不需要规范化处理。
第K 次迭代时,一个属于ωi 类的模式样本X 被送入分类器,计算所有判别函数()()Mj k k d j j ,,1,T ==X W (3-4)分二种情况修改权向量:① 若()()M j i j k d k d j i ,,2,1;, =≠∀>,则权向量不变;② 若第L 个权向量使()()k d k d l i ≤,则相应的权向量作调整,即:()()()()()()⎪⎩⎪⎨⎧≠=+-=++=+li j k k c k k c k k j jl l i i ,,111W W XW W X W W(3-5)其中c 为正的校正增量,只要模式类在情况3判别函数时是可分的,则经过有限次迭代后算法收敛。
实例说明为了说明感知器算法的具体实现,下面举出实例加以说明:已知两类训练样本用感知器算法求出将模式分为两类的权向量解和判别函数。
解:所有样本写成增广向量形式;进行规范化处理,属于ω2的样本乘以(-1)。
任取W (1)=0,取c =1,迭代过程为: 第一轮:有两个W T (k )X i ≤0的情况(错判),进行第二轮迭代。
第二轮: 第三轮: 第四轮: 该轮迭代的分类结果全部正确,故解向量[]T1,0,2-=W相应的判别函数为:12)(1+=x d X图3-1 判决函数示意图判别界面d (X )=0如图示。
当c 、W (1)取其他值时,结果可能不一样,所以感知器算法的解不是单值的。
matlab 的感知器算法设计与实现本设计是按照线性函数判决函数的感知算法思想结合数字识别,来进行设计,通过训练数字样本(每个数字样本都大于120),结合个人写字习惯,记录测试结果,最后通过matlab 编码来实现感知器的数字识别。
3.3.1 Matlab 代码设计function y=jiangcheng(sample) clc;load templet pattern; w=zeros(26,10);d=[];maxpos=0;maxval=0;f=1;n=[];m=[];%依次输入样本for j=1:100for i=1:10f=1;pattern(i).feature(26,j)=1;for k=1:10m=pattern(i).feature(:,j);d(k)=w(:,k)*m;end%判断是否为最大值,如果是,f=1,否则f=0;for=1:10if k=iif d(i)<=d(k)I=0;endendend%修正权值if ffor k=1:10if k==iw(:,k)=w(:,k)+pattern(i).feature(:,j); elsew(:,k)=w(:,k)-pattern(i).feature(:,j); endendendendendsample(26)=1;h=[];%计算各类别的判别函数for k=1:10h(k)=w(:k)'*sample';end[maxval,maxpos]=max(h);y=maxpos-1;3.3.2 matlab实现首先通过,手写输入0-9个数字的训练样例各130个,如下图所示:图3-2 数字训练样品训练样本准备好后,进行数字识别测试,其测验如下:图3-3 数字测验结果正确样例图3-4 数字测试不正确样例3.3.3 设计结果分析通过多次手写验证测试,有65%通过,其结果如节显示,由于模式识别的算法复杂,步骤较多,实现起来有一定的难度。
为了使样品库少一些,将精力着重放在算法的理解及编程实现上,此次设计用的是6x6的设计模板,这个比较小,其对测试结果的正确性起着确定性的作用。
故增大设计模板以及提高算法的精确度可以使计算更为准确。
参考文献:1.《模式识别与智能计算的MATLAB实现》许国根、贾瑛编着,北京航空航天大学出版社;2.《模式识别与智能计算Matlab技术实现》杨淑莹着,电子工业出版社;3.《Matlab从入门到精通》胡晓东、董晨辉着,人民邮电出版社;4.《模式识别第二版》边肇祺着,清华大学出版社;5.《模式识别第四版》西奥多里德斯,电子工业出版社。