自组织特征映射网络算法
- 格式:ppt
- 大小:2.21 MB
- 文档页数:63
SOM算法研究与应用SOM算法,也称为自组织映射算法(Self-Organizing Maps),是一种无监督学习算法,用于将高维数据映射到低维空间中。
SOM算法由芬兰科学家Teuvo Kohonen于1982年所提出,并且在计算机科学和机器学习领域中具有广泛的应用。
SOM算法的核心思想是通过将输入数据映射到一个拓扑结构上的低维空间中,实现数据的可视化和分类。
SOM网络由一个二维或三维的网格组成,每个网格单元称为节点。
在训练过程中,每个节点与输入数据之间存在权重向量,而权重向量则决定了节点在低维空间中的位置。
SOM算法通过迭代的方式,不断调整权重向量以逼近输入数据的分布特征,从而实现数据的映射和聚类。
1.初始化网络:定义网络的拓扑结构和每个节点的权重向量,通常权重向量随机初始化。
2.选择输入数据:从训练数据集中随机选择一个数据作为当前迭代的输入。
3.计算获胜节点:通过比较输入数据与每个节点的权重向量,选择距离最接近输入数据的节点作为获胜节点。
4.更新获胜节点和邻近节点的权重向量:根据获胜节点和邻近节点的拓扑关系,调整它们的权重向量,使其更接近输入数据。
5.更新学习率和邻域半径:随着迭代的进行,逐渐减小学习率和邻域半径,以缓慢调整节点的权重向量。
6.重复步骤2至5,直到达到指定的迭代次数或网络达到收敛。
1.数据聚类:SOM算法可以将相似的数据映射到相邻的节点上,从而实现聚类。
聚类结果可以帮助我们理解数据的分布特征和相似性,从而进行更深入的分析和决策。
2.数据可视化:SOM算法将高维数据映射到低维空间中,可以将数据可视化为二维或三维的网格结构。
这种可视化方法可以帮助我们直观地理解数据之间的关系和规律。
3.特征提取:SOM算法可以通过调整权重向量的方式,将数据映射到低维空间中,从而实现特征提取。
通过SOM算法提取的特征可以用于后续的分类、聚类或识别任务。
4.异常检测:SOM算法可以识别输入数据与大多数数据不同的节点,从而实现异常检测。
第4章 SOM自组织特征映射神经网络生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。
当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。
生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。
大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。
据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。
Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。
SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。
4.1 竞争学习算法基础[6]4.1.1 自组织神经网络结构1.定义自组织神经网络是无导师学习网络。
它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。
2.结构层次型结构,具有竞争层。
典型结构:输入层+竞争层。
如图4-1所示。
竞争层图4-1 自组织神经网络结构输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。
竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。
4.1.2 自组织神经网络的原理1.分类与输入模式的相似性分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。
SOFM⽹络SOFM⽹络及其在MATLAB中的实现朱福珍吴斌(西南科技⼤学信息⼯程学院,四川绵阳 621002 )摘要本⽂详细叙述了⾃组织映射⽹络的原理、算法及其在Matlab中实现的⼯具箱,并结合实例给出了SOFM在Matlab上的实现⽅法,对于SOFM的现存问题和未来研究趋势作了分析和展望。
关键词⾃组织;⾃组织特征映射(SOFM); 拓扑结构中⽂分类号:TP183 ⽂献标识码:A ⽂章编号: SOFM Network and the Realization of SOFM in MatlabZhu Fu-Zhen Wu Bin(College of Information and Engineering, SWUST,Mianyang,Sichuan,621002,China) Abstract: This paper described the principle, the algorithm and the toolbox in Matlab of Self-organizing Feature Map Neural Network detailedly, including a paradigm of SOFM implemented in Matlab, analyzed the problem of SOFM at present and prospected its researching trend in the future.Key Words: Self-organization; Self-organizing Feature Map; Topology Structure引⾔⼈⼯神经⽹络(Artificial Neural Network,简称ANN)是近年来发展起来的模拟⼈脑⽣物过程的⼈⼯智能技术。
它由⼤量简单的神经元⼴泛互连形成复杂的⾮线性系统[1],不需要任何先验公式,就能从已有数据中⾃动地归纳规则,获得这些数据的内在规律,具有很强的⾃学习、⾃组织、⾃适应和⾮线性映射能⼒,特别适合于因果关系复杂的⾮线性推理、判断、识别和分类等问题。
基于自组织特征映射网络矢量量化图像压缩的研究与实现摘要:在介绍矢量化和自组织特征映射神经网络的基础上,针对基于自组织特征映射神经网络的矢量化算法,在初始码书生成、获胜神经元搜索以及学习速率调整等方面对图像压缩进行研究。
结果表明,采用矢量量化方法进行图像压缩,可以在获得较高压缩比的同时,得到较好的恢复图像质量。
关键词:自组织特征映射;矢量量化;码书;图像压缩1 自组织特征映射网络(SOFM)自组织特征映射网络(SOFM)是自组织网络中的一种,所谓的自组织过程是指学习的结果总是使聚类区内各神经元的权重向量保持向输入向量逼近的趋势,从而使具有相近特性的输入向量聚集在一起。
SOFM能够根据输入信息找出规律及相应联系,并根据这些规律对网络做出相应的调节,使输出结果与之适应。
1.1 SOFM基本思想自组织特征映射(SOFM)最早是由芬兰赫尔辛基大学的Teuvo Kohonen于1981年提出的。
他认为神经元的有序排列可以反映出外界刺激的某些物理特性。
当神经网络接受外界输入模式时, 其会自动分成各个区域,这些区域对输入模式具有不同的响应特点。
各神经元权值具有一定的分布,对于那个获胜神经元g ,在其周围的Ng 区域内,神经元在不同程度上都得到兴奋,而在Ng以外的神经元都被抑制。
获胜神经元不但加强自身, 而且使邻近神经元也得到相应加强, 同时抑制较远的神经元。
这时与竞争层相应节点连接的权值向量就向输入模式的方向修正。
这样,通过不断地调整权值,使每一邻域的所有节点对某种输入具有类似的输出。
因此,SOFM网络的输出状况,不但能判断输入模式所属的类别并使输出节点代表某一模式,还能够得到整个数据区域的大体分布情况。
1.2 SOFM网络模型结构大多数生物的大脑皮层中,神经元的输入信号一部分来自同一区域的反馈信号,另一部分来自感觉组织或其他区域的外部输入信号。
每一神经元接收到的输入信号的加权起特征检测作用,而侧向反馈连接则根据其与神经元距离的不同产生激励或抑制作用。
自组织特征映射神经网络研究与应用自组织特征映射神经网络,又称Kohonen网络,在机器学习领域中具有广泛的研究和应用价值。
它是由芬兰科学家Teuvo Kohonen于1982年提出的,用来解决模式分类和聚类问题。
本文将分别从网络结构、学习规则、应用场景等多个角度来介绍自组织特征映射神经网络的研究与应用。
一、网络结构自组织特征映射神经网络是一种有两层或多层的神经元组成的全连接网络,其特点是每个神经元与输入节点全连接,但只有部分神经元与输出节点连接,这些与输出节点相连接的神经元被称作胜者神经元。
胜者神经元的选择根据输入数据与神经元之间的权值距离进行,即越接近输入数据的神经元越容易胜出。
自组织特征映射神经网络的网络结构简单,但它可以通过适当调整参数,从而实现多种复杂的函数映射。
在具体应用中,还可以采用层级结构的自组织特征映射神经网络,对于复杂的数据集,可以通过层层处理,逐步提取其更高层次的特征。
二、学习规则自组织特征映射神经网络的学习规则是基于竞争性学习的,其原理是将输入数据投影到高维空间中的低维网格上,使其可以进行分类和聚类。
其学习过程中所用的算法有两种:批处理算法和在线算法。
批处理算法在每个Epoth后,在一个批次中对全部样本进行训练,并更新权值,从而可以获得更稳定的结果,但训练时间较长。
而在线算法则是对每个样本逐个进行学习,因此训练速度较快,但结果相对不稳定。
在学习过程中,自组织特征映射神经网络会通过不断调整权值,形成特征抽取与分类能力强的模型。
其学习的结果可以通过可视化方式,将数据点在网格上的分布呈现出来,形成热图的形式,便于分析与理解。
三、应用场景自组织特征映射神经网络在数据挖掘、图像处理、生物信息学等领域都有着广泛的应用。
在图像处理领域中,可以通过自组织特征映射神经网络对图像进行压缩和分类。
在数据挖掘方面,自组织特征映射神经网络可用于数据聚类和数据可视化。
通过自组织特征映射神经网络,大量数据可以被投射到低维空间,并形成可视化热图,从而能够更好地理解数据的分布规律。
SOFM网络的工作原理是:当网络接受外界输入模式时,将会分为不同的区域,各区域对输入模式具有不同的响应特征。
也就是说,特征相近的输入模式靠得比较近,差异大的分得比较远。
在各神经元联接权值的调整过程中,最邻近的神经元相互刺激,而较远的神经元则相互抑制,更远一些的则具有较弱的刺激作用。
输入层所有神经元通过相互竞争和自适应学习,形成空间上的有序结构,从而实现输入矢量到输出矢量空间的特征映射。
SOFM的学习则使网络节点有选择地接受外界刺激模式的不同特性,从而提供了基于检测特性空间活动规律的性能描述。
其实,SOFM的学习过程就是在某个学习准则的指导下,逐步优化网络参数的过程。
该网络分为输入层和竞争层两层。
两层之间实行全互连。
它将任意维输入模式在输出层映射成一维或二维离散图形,并保持其拓扑结构不变。
在竞争层中,让竞争获胜的那个神经元c的兴奋程度最高,并使其周围VBc的区域内的神经元在不同程度上都得到兴奋,VBc是时间的函数,随着时间的增加,NBc的范围不断的减小,通过图可以直观的看出来。
SOFM的算法流程见图从上述算法可以看出,网络训练完毕后,各输出单元对应一个权值。
在分类过程中,每个分类对象必与其中一个权值的距离最近,把与同一输出单元的权值最近的点作为同一类,并由该输出单元输出,即达到了分类的目的。
SOFM分类算法:步骤1:对图像数据作归一化处理,将各点象素值归一化到区间[0,1]内,由此得到图像X=(x 1,x 2,…x n ),其中x i 为图像一点的归一化后的模式.步骤2:初始化网络连接权值W j ,其中1<=j<=M ,M 对应竞争层神经元向量元素的个数。
步骤3:选择获胜单元c,d c =j min ||x i -w j ||.步骤4:进行连接权调整邻域函数一般选用Gaussian 函数:NB(t)=exp{-d j,i (x)2)/2σ2}其中d j,i (x)表示邻域中神经元与获胜神经元间的距离,采用Euclid 距离计算;σ为邻域的有效半径,随离散时间指数衰减σ(t)=σ(0).exp(-t/τ1),t=0,1,2,∀,j=1,2,…m 的初始值,τ1为时间常数,σ(0)是σ(t)的初始值. 步骤5:按照以上步骤,反复训练每一个输入的模式值x i ,直至完成规定的训练次数.经过学习后,再次将x i 输入网络,其输出结果即为分类结果。
人工神经网络自组织特征映射网络简介二〇一二年十二月目录:1. 由自组织竞争神经网络谈起2. 自组织特征映射网基本概念3. 自组织特征映射网拓扑结构4. 自组织特征映射网学习算法5. 自组织特征映射网的应用从自组织竞争神经网络谈起:此类网络是模拟生物神经系统“侧抑制”现象的一类人工神经网络。
自组织特征映射网是此类网络的主要类型之一。
在生物神经系统中,存在着一种“侧抑制”现象,即当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。
这种“侧抑制”使神经细胞之间呈现出竞争。
开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经细胞会逐渐抑制周围神经细胞,其结果使其周围神经细胞兴奋度减弱,从而兴奋度最高的细胞是这次竞争的“胜者”,而其他神经细胞在竞争中失败。
自组织竞争神经网络就是模拟上述生物神经系统功能的人工神经网络。
如右图所示,输出层各神经元之间都有双向连接线,各连接线被赋予相应的权值。
从而实现对生物网络神经元相互竞争和抑制现象的模拟。
x1x2x i ············自组织竞争神经网络通过对“侧抑制”现象的模拟,具备自组织功能,能无导师学习。
自组织功能无导师学习 自组织竞争神经网络的一大特点是:具有自组织功能,能够自适应地改变网络参数和结构,从而实现无导师学习。
自组织竞争网络无导师学习方式更类似于人类大脑神经网络的学习,大大拓宽了神经网络在模式识别和和分类上的应用。
无导师指导的分类称为聚类,由于无导师学习的训练样本中不含有期望输出,因此没有任何先验的知识。
特殊网络结构 自组织竞争网的无导师指导学习是通过其特殊的网络结构实现的。
自组织竞争网在结构上属于层次型网络,共同特点是都具有竞争层。
自组织竞争网络的竞争层,各神经元之间存在横向连接,各连接被赋予权值。
通过竞争学习规则,达到自组织,实现对输入样本的自动分类。