一种新的基于多级混合模型的图像分割方法
- 格式:pdf
- 大小:155.22 KB
- 文档页数:3
LM-UNet:横向MLP用于增强U-Net的医学图像分割邱海韬;史操【期刊名称】《计算机系统应用》【年(卷),期】2024(33)5【摘要】卷积神经网络(CNN)作为医学图像分割领域中U-Net基线网络的重要组成部分,其主要作用是处理局部特征信息之间的关系.而Transformer是一种能够有效强化特征信息之间的远距离依赖关系的视觉模型.目前的研究表明,结合Transformer和CNN可以在一定程度上提高医学图像分割的准确性.但是,由于医学图像的标注数据较少,而且训练Transformer模型需要大量数据,这使得Transformer模型面临耗时长和参数量大的挑战.基于这些考虑,本文在UNeXt模型的基础上,结合多尺度混合MLP和CNN,提出了一种新型的基于混合MLP的医学图像分割模型——LM-UNet.这种模型能够有效地增强局部与全局信息之间的联系,并加强特征信息间的融合.在多个数据集上的实验表明,LM-UNet模型在皮肤数据集上的分割性能明显提升,平均Dice系数达到92.58%,平均IoU系数达到86.52%,分别比UNeXt模型提高了3%和3.5%.在软骨和乳腺数据集上的分割效果也有显著提升,平均Dice系数分别比UNeXt提高了2.5%和1.0%.因此,LM-UNet 模型不仅提高了医学图像分割的准确性,还增强了其泛化能力.【总页数】8页(P110-117)【作者】邱海韬;史操【作者单位】青岛科技大学信息科学技术学院【正文语种】中文【中图分类】TP3【相关文献】1.特征重加权U-Net超声图像分割的骨结构重建与增强现实显示2.用于肺部肿瘤图像分割的跨模态多编码混合注意力U-Net3.融合边缘增强注意力机制和U-Net 网络的医学图像分割4.基于U-Net网络的医学图像分割研究综述5.改进U-Net 的多级边缘增强医学图像分割网络因版权原因,仅展示原文概要,查看原文内容请购买。
混合像元分解算法的比较和改进混合像元分解是一种图像处理算法,通过将一幅图像分解为几个基本的图像元素,然后再通过重新组合这些元素来实现图像处理。
混合像元分解算法在计算机视觉、图像识别等领域有广泛的应用。
本文将对混合像元分解算法进行比较和改进。
首先,我们将比较几种常用的混合像元分解算法,包括:均值漂移算法、Meanshift算法、K-Means算法以及高斯混合模型算法。
均值漂移算法是一种基于颜色直方图的算法,通过不断迭代寻找局部最大概率密度点来进行图像分割。
这种方法具有较好的抗噪声能力,但在处理大规模数据时,计算复杂度较高。
Meanshift算法是一种非参数化的聚类算法,通过估计图像颜色分布中心并将其与原始图像进行对比,来实现图像分割。
这种方法在处理复杂图像时,往往需要较长的收敛时间。
K-Means算法是一种基于聚类分析的算法,通过将图像像素点划分为不同的簇来实现分割。
这种方法的计算速度较快,但在处理高维数据时,由于存在样本划分不均衡的问题,容易导致结果不稳定。
高斯混合模型算法是一种概率模型,通过对图像像素点进行统计建模,进而进行分割。
这种方法在处理复杂图像时效果较好,但计算复杂度较高。
在比较了以上几种常用的混合像素分解算法后,我们可以发现它们各自具有一定的优势和不足之处。
为了改进这些算法,我们可以考虑以下几个方面:1. 改进聚类算法:针对K-Means算法存在的问题,可以考虑使用基于密度的聚类算法,如DBSCAN。
该算法不需要预先指定簇的数目,可以有效地解决样本划分不均衡的问题。
2.引入上下文信息:在图像分割过程中,通过引入上下文信息,如空间信息、纹理信息等,可以提高图像分割的准确性。
例如,可以将像素点与其周围像素点之间的关系纳入考虑,以更好地描述图像的结构特征。
3.结合深度学习方法:深度学习在图像处理任务中已经取得了重要的突破,可以将其应用于混合像素分解算法中。
通过使用深度神经网络来学习图像的特征表示,可以提高图像分割的性能。
AFM图像分割的自适应方法实验研究AFM(Atomic Force Microscopy)是一种表征材料表面形貌,获得原子尺度的高分辨率三维图像信息的非接触扫描热力学显微镜。
AFM技术广泛应用于化学、材料学、生物学、医学等各领域的研究中。
AFM图像处理是分析AFM图像信息的重要步骤,分割是其中的一个主要步骤。
AFM图像分割是将图像中的不同部分分割成不同的区域,以便于对目标物体进行精确分析和定量化研究。
因为AFM图像的噪声较大,而且表面形貌的连续变化比较剧烈,因此,对AFM图像进行分割是比较困难的。
目前,AFM图像分割的自适应方法已经得到了广泛的应用。
该方法能够根据图像的特点,自动选择适合的算法参数,提高算法的稳定性和分割精度。
下面,本文将从基本原理、方法分类、实验研究、应用前景等方面,对AFM图像分割的自适应方法进行详细的介绍。
一、基本原理AFM图像分割的自适应方法的基本原理是利用图像的内在特性和统计规律,运用适当的算法,将图像分割成不同的区域。
判定不同区域的标准主要是图像的亮度、颜色和纹理等视觉特征,一般采用基于像素、基于领域和基于特征的方法。
其中,基于像素的方法主要是利用像素的属性值进行分割,如阈值法。
基于领域的方法是通过确定像素周围的邻域范围,选取合适的特征作为输入,根据邻域内像素的值进行分割。
基于特征的方法是通过提取图像的纹理、几何形状、灰度直方图等特征,来表征不同区域之间的差异,识别出图像中不同的部分。
二、方法分类目前,常用的AFM图像分割自适应方法主要包括阈值法、区域生长法、基于统计的方法、基于能量泛函的方法、图像分水岭法、模型分割法等。
下面我们将按照方法的不同,对它们进行详细的介绍。
(一)阈值法阈值法是将图像分成两个部分:大于或等于阈值的像素部分为一个目标区域,小于阈值的像素部分为背景区域。
阈值的选择对分割结果影响很大,传统的手动选择阈值方法很容易受到人为因素的干扰,自适应阈值法则可以根据像素点周围的灰度范围进行动态选择,提高分割的稳定性。
高斯混合模型详解摘要:一、高斯混合模型简介1.模型背景2.模型结构二、高斯混合模型原理1.硬聚类与软聚类2.概率模型3.参数估计三、高斯混合模型的应用1.数据降维2.异常检测3.密度估计四、高斯混合模型在实际场景中的应用案例1.图像分割2.文本分类3.生物信息学五、高斯混合模型的优缺点及改进方法1.优点2.缺点3.改进方法六、总结与展望1.模型发展历程2.当前研究热点3.未来发展方向正文:一、高斯混合模型简介1.模型背景高斯混合模型(Gaussian Mixture Model,简称GMM)起源于20世纪60年代,是一种用于聚类和密度估计的统计模型。
它通过对数据进行软聚类,将不同类别的数据分布用高斯分布进行建模,从而实现对数据特征的描述和分类。
2.模型结构高斯混合模型由多个高斯分布组成,每个高斯分布表示数据集中的一个子集。
各个高斯分布的参数(均值、协方差矩阵和权重)决定了其在混合模型中的贡献程度。
通过优化这些参数,我们可以得到一个最佳的高斯混合模型。
二、高斯混合模型原理1.硬聚类与软聚类高斯混合模型属于软聚类方法,与硬聚类方法(如K-means)相比,软聚类方法允许每个数据点以不同的概率属于多个类别。
这使得高斯混合模型在处理复杂数据分布时具有优势。
2.概率模型高斯混合模型是一种概率模型,它描述了数据分布的概率密度函数。
给定数据集X,高斯混合模型可以表示为:p(x) = ∑[w_i * N(x; μ_i, Σ_i)],其中w_i为第i个高斯分布的权重,N(x; μ_i, Σ_i)表示均值为μ_i、协方差矩阵为Σ_i的高斯分布。
3.参数估计高斯混合模型的参数估计采用最大似然估计(MLE)方法。
通过对数据进行建模,并使观测到的数据概率最大,我们可以得到模型参数的估计值。
三、高斯混合模型的应用1.数据降维高斯混合模型可以用于对高维数据进行降维,通过软聚类将数据划分为几个子集,再对每个子集进行降维处理,从而提取出关键特征。
一种改进超像素融合的图像分割方法余洪山;张文豪;杨振耕;李松松;万琴;林安平【摘要】基于超像素的传统图像分割方法在边缘分割的一致性、计算效率和融合算法的自适应性等方面仍存在诸多问题.文章结合国内外相关研究进展,提出了一种新型超像素融合的图像分割方法.方法采用ERS超像素过分割算法,以强度、梯度直方图作为超像素特征,并采取EMD方法计算特征距离,通过混合Weibull模型获取融合自适应阈值,进而完成分割.算法时间复杂度降至为O(N),分割过程中不需要手动选取待分割区域,有效提高了算法的自适应性.实验结果表明本方法在分割边界准确度和处理效率方面优于现有方法.【期刊名称】《湖南大学学报(自然科学版)》【年(卷),期】2018(045)010【总页数】9页(P121-129)【关键词】超像素;区域融合;陆地移动距离;混合Weibull模型;图像分割【作者】余洪山;张文豪;杨振耕;李松松;万琴;林安平【作者单位】湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082;湖南大学深圳研究院,广东深圳 518057;湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082;湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082;湖南大学深圳研究院,广东深圳 518057;湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082;湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082;湖南大学电气与信息工程学院/机器人视觉感知与控制技术国家工程实验室,湖南长沙410082【正文语种】中文【中图分类】TP273图像分割是利用颜色、纹理和灰度等特征将图像分割成一定数量的符合人类视觉感知分类的区域. 由于自然图像中场景的复杂性,加之人的视觉感知上的主观性,人们对图像场景理解不尽相同,因此图像分割一直是计算机视觉中的一个难点. 传统方法以像素为基本处理单元,使得算法时间消耗大、效率低. 超像素是指具有相似纹理、颜色和亮度等特征的相邻像素构成的图像块[1],它利用像素之间特征的相似程度将像素分组,在很大程度上降低了后续图像处理任务的复杂度. 然而超像素分割会对图像产生过分割,并不能达到符合人的视觉感知的分割结果. 超像素算法多用于图像分割预处理,在后续图像处理中用超像素来代替像素,大大降低了时间的消耗.目前,基于超像素融合的图像分割研究开始获得越来越多的关注,典型方案有基于SLIC或Normalized cuts产生超像素过分割,然后提取超像素的特征(颜色、纹理和直方图等),再基于一定的相似性度量标准计算相邻两个超像素的特征相似性距离. Hsu C Y等[2]提出了基于谱聚类的融合策略,该方法通过对SLIC 产生的超像素进行谱聚类取得了较高的效率,但其对于复杂场景的分割结果不够理想. Song X 等[3]采用了基于分层超像素的区域融合策略-MSRM(maximal similarity based region merging)[4],针对前景对象很少的图像,该方法可以得到较好的分割结果,但需要人为给定前景对象所在的大致矩形区域. 当场景前景对象很多且分散时,该算法将很难处理,因此存在很大的局限性. Han B等[5]利用Normalized cuts[6]产生超像素,基于直方图的相似性度量计算相邻超像素间的非相似性距离来完成对图像的分割. 该方法虽然对相似的超像素进行了融合,但是融合比较保守导致分割结果过于细化,即在明显应该分割为一个对象的区域中存在没有融合的超像素边界. 综上所述,目前基于超像素融合的图像分割方案在边缘分割的一致性、特征相似性度量的可靠性、计算效率和融合算法的自适应性方面仍需进一步改善.针对上述问题,本文结合国内外相关研究进展,提出了一种改进超像素融合的图像分割方法. 主要改进如下:1)本文采用ERS(entropy rate superpixel)算法生成与真实边缘一致性更佳的超像素图像;2)选用稳定性好且计算简易的直方图特征(强度、颜色及方向直方图),并采用陆地移动距离EMD(Earth Mover’s distance)计算超像素节点间相似性,以适应多种结构尺寸;3)采用Weibull 模型对相邻超像素的EMD 分布进行估计,获取融合处理的自适应阈值,从而提高了本文算法的鲁棒性. 本文算法时间复杂度为O(N),处理过程中不需要手动选取待分割区域,分割结果的边界准确率和处理效率均具有明显的提高.1 改进的超像素融合图像分割方法如图1 所示,本文提出的超像素融合图像分割方法可划分为三部分:1)超像素过分割方法选择及图像预分割;2)以超像素节点为单位,求取强度、颜色以及方向(梯度)的特征直方图,基于特征相似性距离EMD模型,计算相邻节点各自特征直方图之间的相似性距离;3)建立Weibull 混合模型(Weibull mixture model),对模型中的参数进行估计,确定节点特征相似性距离阈值γf ,并根据其进行超像素融合.1.1 基于超像素算法的图像预分割1.1.1 超像素算法选择目前,超像素算法主要分为两大类:基于图论的算法和基于梯度上升的算法.超像素的评价标准[7]主要包括:1)边缘贴合度;2)紧密度;3)计算效率等. 边缘贴合度指的是超像素边缘与真值边沿的吻合程度. 某些超像素方法虽然可以产生超像素,但是超像素的边缘可能穿过场景中物体的实际边缘. 紧密度反映了超像素形状是否规则以及边缘平滑程度. 常见的超像素算法性能比较[7]如表1 所示(使用公测数据集Berkeley dataset[8]中图片进行测试,其中边缘贴合度通过边界召回率boundary recall[7]反映).图1 基于超像素融合的图像分割流程图Fig.1 Flow chart of image segmentation based on superpixel merging表1 几种超像素方法的性能特点Tab.1 Several superpixel algorithm performance characteristics算法边缘贴合度形状是否规整数量是否可控紧密度是否可控时间复杂度Ncuts0.68√√×O(N32)watersheds-×××O(Nlog (N))mean-shift-×××O(N2)Turbopixel0.61√√×O(N)SLIC0.82√√√O(N)ERS0.84×√√O(Nlog (N))超像素分割是为后续的分割服务的,所以超像素的边缘贴合度对后续的分割质量有着最直接的影响. 同时综合表格中时间复杂度、紧密度和数量是否可控等性能,本文采用的是边缘贴合度非常好的ERS(entropy rate superpixel)算法产生超像素.1.1.2 基于ERS的超像素计算和图模型构建ERS是由Liu等人[9]在2011年提出的一种基于图的聚类算法,该算法采用了一种新型的目标函数,并通过在图拓扑结构中最大化目标函数产生超像素. ERS算法构造的目标函数如表达式(1)所示:(1)式中,A表示图拓扑结构中的边集,λ是可调节的权重因子,H(A)代表随机游走熵率项,B(A)代表平衡项. H(A)项的定义为:(2)式(2)中,pi,j代表随机游走的转移概率,μi为随机游走的固定分布,H(A)构造的目的是为了生成紧密度较好的超像素,而构造平衡项则是为了约束超像素的尺寸.B(A)项的构造为:(3)式(3)中,ΖA是聚类分布,表示聚类分布的概率[10].用ERS算法对原始图像进行超像素过分割后,整幅图像由许多超像素构成. 超像素构成的“图”模型如图2所示,其中图结构由节点和边组成,即G=(V,E),节点V 不再是图像中所有的像素集合,而由超像素构成,E是由连接相邻两个节点(超像素)的边构成的集合.图2 超像素“图”结构Fig.2 Superpixel “graph” structure1.2 特征提取与相似性度量1.2.1 超像素节点特征提取在二维彩色图像中,颜色、强度以及方向梯度是三种常用且易提取的直方图特征. 超像素是一定范围内像素点的集合,因此本文选取强度直方图、颜色直方图和方向直方图特征作为超像素节点特征.强度直方图是一个1维256区间的直方图,颜色直方图是由色调(hue)和饱和度(saturation)(HSV颜色空间中)构成的76*76(颜色位数为8位)的2维直方图,梯度直方图是用方向梯度(即垂直方向梯度与水平方向梯度的反正切)构成的1 维的360 区间的直方图,这个特征与HOG 特征类似. 为便于计算处理,算法将所有的特征直方图归一化处理.1.2.2 基于EMD的相似性度量1)EMD度量标准为了计算上述特征直方图相似性从而为超像素融合提供判断依据,本文采用EMD作为相似性度量标准. EMD是一种在某种区域两个概率分布距离的度量,即被熟知的Wasserstein度量标准. 如果两个分布被看作在区域上两种不同方式堆积一定数量的山堆,那么EMD是把一堆变成另一堆所需要移动单位小块最小的距离之和. EMD定义如表达式(4)[10]:(4)其中fij需要满足的约束条件:fij≥0(5)∑jfij≤pi(6)∑ifij≤qj(7)其中P和Q为两种给定的分布,P为m个特征量xi和其权重pi的集合,Q为n 个特征量yi和其权重qi的集合,P和Q分别记作P={(x1,p1),…,(xm,pm)}和Q={(y1,q1),…,(yn,qn)}. 在计算这两个分布EMD前,需先定义好P、Q中任意特征量Pi和Qi之间的距离dij(该距离称为ground distance,两个分布之间EMD 依赖于分布中特征量之间的ground distance). 当这两个特征量是向量时,dij是欧式距离,当这两个特征量是概率分布时则dij是相对熵(Kullback-Leibler divergence). 约束条件(5)是对方向性进行约束. (6)和(7)是对两个分布的量进行约束. 当P和Q归一化后有相同的总量时,EMD等同于两个分布之间的Mallows距离[11].EMD相比其它分布距离计算方法有着明显的优势[10]:EMD适用于计算两个直方图之间的距离,并且它能够处理变化尺寸的结构,有着更大的紧凑性和灵活性;如果两个分布有相等的总量,EMD则是一种真实的度量.2)相似性度量对于任意相邻的超像素对(节点)va和vb,提取其以强度(1维)、颜色(2维,HSV空间中色调和饱和度)和方向(1维)直方图为特征的4维特征直方图,再将其归一化处理,以此作为计算va、vb间EMD的参数. va、vb的特征相似性距离如式(8)[11]所示:(8)其中dn表示第n对相邻节点va和vb的特征相似性,且dn∈[0,1],如果dn为0,则两个相邻节点特征完全一样,如果为1,则意味着相邻两个节点完全不相似.为常量,是以上述相邻节点的4维特征直方图为参数所能求得的最大可能的EMD,从而使得式(8)中dn的值在0到1之间. 其中,强度变化的最大可能为黑色到白色,色调(hue)变化的最大可能为0°到360°,饱和度(saturation)变化的最大可能为0%到100%,梯度方向变化的最大可能为水平梯度到垂直梯度.基于上述处理后,图像对应的图构建G=(V,E)基本完成,其中 V由超像素构成的集合,E为连接相邻两个节点(超像素)的边构成的集合,边权重由其连接的两个超像素之间的EMD确定,作为这两个超像素的相似性度量. 如图3所示.图3 “图”的权重示意图Fig.3 Schematic diagram of the weight of the graph1.3 自适应融合不同场景图像的最佳融合阈值不尽相同,如采用手动设置阈值,则需要多次更改阈值方能得到较好的分割结果. 为了确定本文超像素融合所需的自适应相似性阈值,首先需要得知边缘权重的分布模型,尚无证据表明相邻节点间的EMD服从均匀分布或者正态分布. 由于被比较的两个直方图特征向量分布是相关且非同分布的,根据文献[12],这两个特征向量之间的Lp范数距离服从Weibull分布. 另外Chen-Ping Yu等人[13]的工作也对其进行了佐证. 因此,本文采用Weibull模型对相邻超像素的EMD分布进行估计,以获得自适应阈值,用于对不同场景图像的融合分割处理,从而提高了算法的鲁棒性.1.3.1 Weibull混合模型及参数估计Weibull是概率统计中常用的分布模型. 采用两个Weibull分布混合后对所有相邻超像素对的特征距离(EMD)X建立模型. 其混合模型完整形式如公式(9)所示:(9)其中θ=(ε1,φ1,μ1,ε2,φ2,μ2,π) 是待确定的模型参数.ε、φ、μ和π分别是尺度、形状、位置和混合参数.为了得到M2(Χ;θ) 中的参数,需要对M2(Χ;θ)进行参数估计,本文采用最大似然估计. 最大似然估计是基于观测样本的似然函数最大化来对参数进行估计的,M2(Χ;θ)的似然函数取对数后如下:lnM2(X;θ)=(10)该似然函数很复杂,并且存在位置参数μ1和μ2,因此,本文采用Nelder-Mead 方法[14-15],它作为一种不含导数的优化方法,通过使(10)的负对数似然函数最小化来实现对参数的估计.为了得到相似性阈值γf,本文采用一个单一Weibull分布来拟合由两个Weibull 分布构成的混合Weibull模型,用AIC(Akaike Information Criterion)[16]信息准则来防止拟合混合Weibull模型过程中出现的过拟合. 相似性阈值γf由表达式(11)决定:(11)当混合模型更好的时候,γf的取值为max (x,η),此时γf是混合的两个部分的交点,通过搜索向量Xf 的值可以以线性时间得到该方程的解. 当单一的Weibull更好时,即AIC(M2)>AIC(M1) 时,γf通过计算M1的逆累计分布函数得到,其中τ是给定的一个百分数,τ∈[0,1].1.3.2 超像素融合处理对于图像对应的图结构G=(V,E),若相邻节点之间边的权重大于γf时,则认为该边连接的两个超像素差异较大,分属不同对象,该边继续保留,反之,则对两个超像素进行融合.超像素融合过程示意图如图4 所示,图中相似性阈值为0.6,即当连接相邻两个超像素(节点)的边的权值小于0.6 时,则认为这两个相邻超像素属于同一对象物体,可以对这两个超像素进行融合,形成一个更大的区域(如图4中实线连接的超像素节点),反之,如果连接相邻超像素的边缘权值大于0.6,则认为该相邻超像素对不相似,属于不同的对象物体,继续保留分割边界(如图4 中的虚线形成的边界).2 实验结果与分析为验证本文方法的有效性和先进性,本文采用两个常用公测数据集BSD(Berkeley Segmentation Dataset)[8]以及SUN Dataset[17]的图像进行实验对比分析. 实验平台配置如下:PC主频为2.0 GHz,RAM为4 G,软件环境为MATLABR2014a.图4 超像素融合过程示意图Fig.4 Schematic of the superpixel merging process2.1 实验结果图5为本文方法得到的实验结果. 从图中可以看出:本文方法分割结果边界与场景真实边界具有良好的一致性,对于复杂的场景,如第二行图像所示,同样能得到与人的视觉感知相一致的结果.图5 实验结果Fig.5 Results of the experiment2.2 Weibull模型的有效性分析为了验证本文算法加入Weibull模型的有效性,本文另通过手动选取相似性阈值γf ,对不同场景图像进行超像素融合实验. 实验结果(超像素融合后的均值填充效果图)如图6所示.图6中最右侧为与真实场景最一致的融合效果图. 由实验结果可知,要得到良好的融合效果,必须手动调节多次阈值直至结果满意为止. 而且,对于不同场景的图像,其最佳相似性阈值不尽相同.加入Weibull模型后,最佳相似性阈值可由Weibull分布估计求得. 与上述手动调节阈值相比,具有更好的灵活性,避免了繁琐的调节阈值的步骤,可方便应用于不同的场景图像,极大地提高了算法的鲁棒性.2.3 分割结果直观效果对比为了验证本文算法的分割效果,本文选取了2种常用的基于超像素融合的分割算法并与其进行了对比,分别为DBSCN算法[18]对SLIC超像素融合的分割方法(SLIC-DBSCN),基于原型对象(proto-object)的分割方法[12](PO).图6 手动选取阈值融合实验结果Fig.6 Merging results of selecting the threshold value manually不同算法的实验结果对比如图7所示,其中(a)为原始图像,(b)、(c)和 (d)分别为SLIC-DBSCN算法、PO算法以及本文算法的分割结果. 超像素数目均设定为600. 由图7中分割结果的对比可得,在产生相同超像素个数的情况下,本文方法得到的分割结果在保持边界的性能上优于SLIC-DBSCN算法和PO方法,分割结果视觉效果上更符合人的视觉感知.图8为图7的局部细节放大对比. 进一步从分割细节上进行了对比说明.图7 不同算法的实验结果对比Fig.7 Comparison of experimental results from different algorithm图8 局部细节放大对比图Fig.8 Partial details of the enlarged comparison chart2.4 分割结果性能量化对比为了对实验结果进行量化评价,本文采用了3种量化指标:1)PRI(Probabilistic Rand Index)[19],它统计了实验的分割结果的边界标记像素与真实分割结果保持一致的数目,即分割结果的边缘准确度;2)VOI(Variation of Information)[20],该指标针对两个类之间的信息的不同进行了距离度量;3)BDE(Boundary Displacement Error)[21],该指标表示分割结果与真值之间的区域边界的平均位移.从以上指标可以得出,PRI越高,VOI,BDE越小,则分割结果的性能越好. 本文分割方法与Normalized cut(Ncut)[6],Mean Shift[22],Ultrametric Contour Maps(UCM)[23],Segmentation by Aggregating Superpixels (SAS)[24],SLIC-DBSCN算法以及PO算法的量化比较如表2所示,其中文献[6]、[22]、[23]、[24]的性能量化数据来自于文献[2],实验数据集采用BSD.表2 本文方法与其他算法分割结果的性能评估Tab.2 The performance evaluation of this paper and ot her algorithm segmentation’s results方法PRIVOIBDENcuts[6]0.724 22.906 117.15Meanshift[22]0.795 81.972514.41UCM[23]0.811.68N/ASAS[24]0.831 91.684 911.29SLIC-DBSCN0.784 61.927 813.72PO0.846 31.582 511.21本文方法0.853 71.519 110.98本文采用BSD数据集做了40组分割实验,并对三种不同分割算法的时间分别计算平均值,实验图像尺寸481×321,在设置不同超像素数目N的情况下,三种方法平均消耗时间如表3所示.表3 不同N时算法的平均时间消耗Tab.3 Average time consumption of algorithm for different N s方法N=500N=800N=1 000SLIC-DBSCN18.826.238.5PO10.415.323.6本文方法10.716.124.5由表看出,本文算法具有较高的时间效率,相较于SLIC-DBSCN算法具有明显的优势,与PO算法相差无几. 随着超像素的数目增多,时间消耗亦随之增加,虽然N越大,超像素对边缘的贴合度越好,但是并不是对任何图像都将超像素的数目N设置的越大越好,对于图像尺寸较小时,如BSD数据集的尺寸为481×321,N 设置600即可获得很好的分割结果.3 结论本文在图像预处理阶段(超像素分割)采用了ERS算法,通过产生数目更少的超像素便可达到更好的边缘保持性能,这一点对后续的分割至关重要.此外,本文的算法充分运用了统计学,距离度量采用EMD ,通过 Weibull分布建立EMD统计模型.因此,该方法的实验结果具有很高的边缘准确性. 本文采用AIC信息准则确定自适应阈值,无需手动调节,从而提高了超像素聚类的鲁棒性,使得该算法能够适应复杂场景的分割. 在时间消耗上,本文的分割方法首先采用ERS超像素过分割,使得后续的融合都是基于超像素级的. 另外,本文的分割方法两次利用了“图”的结构(ERS为第一次利用“图”结构,然后基于超像素过分割的结果第二次建立“图”的结构),这使得我们的算法具有很好的存储效率.与其他经典的传统分割算法([22],[23],[24])以及基于超像素融合的分割方法([2],[12],[18]等)的实验结果进行对比,本文对图像的分割结果性能优于其他方法,特别是在图像场景比较复杂的情况下,本文的分割结果对物体的边界保持得非常好.在对超像素融合后,将各个区域进行均值赋色,最后生成的分割图像的视觉效果和人类视觉的感知一致.参考文献【相关文献】[1] MALIK J. Learning a classification model for segmentation[J]. Proc Iccv, 2003,1(1):10-17.[2] HSU C Y, DING J J. Efficient image segmentation algorithm using SLIC superpixels and boundary-focused region merging[C]// Communications and SignalProcessing. Melmaruvathur: IEEE, 2014:1-5.[3] SONG X, ZHOU L, LI Z, et al. Interactive image segmentation based on hierarchical superpixels initialization and region merging[C]// International Congress on Image and Signal Processing. Dalian: IEEE, 2015: 410-414.[4] NING J, ZHANG L, ZHANG D, et al. Interactive image segmentation by maximal similarity based region merging[J]. Pattern Recognition, 2010, 43(2): 445-456.[5] HAN B, YAN J. A novel segmentation approach for color images with progressive superpixel merging[C]// International Conference on Computer Science and Network Technology. Changchun: IEEE, 2013: 433-437.[6] SHI J, MALIK J. Normalized cuts and image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(8): 888-905.[7] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.[8] MARTIN D, FOWLKES C, TAL D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]// International Conference on Computer Vision.Vancouver: IEEE, 2001, 2:416-423.[9] LIU M Y, TUZEL O, RAMALINGAM S, et al. Entropy rate superpixel segmentation[C]// Computer Vision and Pattern Recognition.Colorado : IEEE, 2011: 2097-2104.[10] RUBNER Y, TOMASI C, GUIBAS L J. A metric for distributions with applications to image databases[C]// International Conference on Computer Vision. Bombay: IEEE Computer Society, 1998:59.[11] LEVINA E, BICKEL P. The earth mover's distance is the mallows distance: Someinsights from statistics[C]// Eighth IEEE International Conference on Computer Vision. Vancouver: IEEE, 2001, 2: 251-256.[12] BURGHOUTS G J, SMEULDERS A W M, GEUSEBROEK J M. The distribution family of similarity distances[C]// Conference on Neural Information Processing Systems.Vancouver: DBLP, 2009:201-208.[13] YU C P, HUA W Y, SAMARAS D, et al. Modeling clutter perception using parametric proto-object partitioning[C]// International Conference on Neural Information Processing Systems. Lake Tahoe: Curran Associates Inc, 2013:118-126.[14] NELDER J A, MEAD R. A simplex method for function minimization[J]. The Computer Journal, 1965, 7(4): 308-313.[15] LAGARIAS J C, REEDS J A, WRIGHT M H, et al. Convergence properties of the Nelder-Mead simplex method in low dimensions[J]. SIAM Journal on Optimization, 1998, 9(1): 112-147.[16] LUMLEY T, SCOTT A. AIC and BIC for modeling with complex survey data[J]. Journal of Survey Statistics and Methodology, 2015, 3(1): 1-18.[17] XIAO J, HAYS J, EHINGER K A, et al. Sun database: Large-scale scene recognition from abbey to zoo[C]// Computer Vision and Pattern Recognition. San Francisco: IEEE,2010:3485-3492.[18] ESTER M. A density-based algorithm for discovering clusters in large spatial Databases with Noise [C]// International Conference on Knowledge Discovery and Data Mining. Portland: AAAI Press, 1996:226-231.[19] UNNIKRISHNAN R, PANTOFARU C, HEBERT M. Toward objective evaluation of image segmentation algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6):929.[20] MEIL M. Comparing clusterings: an axiomatic view[C]//Proceedings of the 22nd International Conference on Machine Learning. Bonn: DBLP, 2005: 577-584.[21] FREIXENET J, X, RABA D, et al. Yet another survey on image segmentation: region and boundary information integration[J]. Lecture Notes in Computer Science, 2002, 2352:21-25.[22] COMANICIU D, MEER P. Mean shift: A robust approach toward feature space analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(5): 603-619.[23] ARBELAEZ P, MAIRE M, FOWLKES C, et al. From contours to regions: An empirical evaluation[C]//Computer Vision and Pattern Recognition. Miami: IEEE, 2009: 2294-2301.[24] LI Z, WU X M, CHANG S F. Segmentation using superpixels: A bipartite graph partitioning approach[C]// Computer Vision and Pattern Recognition. Rhode Island: IEEE, 2012:789-796.。
第8章 知识要点图像分割是图像检索、识别和图像理解的基本前提步骤。
本章主要介绍图像分割的基本原理和主要方法。
图像分割算法一般是基于灰度值的两个基本特性之一:不连续性和相似性。
基于灰度值的不连续性的应用是根据灰度的不连续变化来分割图像,比如基于边缘提取的分割法,先提取区域边界,再确定边界限定的区域。
基于灰度值的相似性的主要应用是根据事先制定的相似性准则将图像分割为相似的区域,比如阈值分割和区域生长。
8.1 本章知识结构8.2 知识要点1. 图像分割在对图像的研究和应用中,人们往往仅对图像中的某些部分感兴趣。
这些部分常称为目标或前景(其它部分称为背景),它们一般对应图像中特定的、具有独特性质的区域。
为了检索、辨识和分析目标,需要将它们分离提取出来,在此基础上才有可能对目标进一步利用。
图像分割就是指把图像分成各具特性的区域并提取出感兴趣目标的技术和过程。
图像分割是由图像处理过渡到图像分析的关键步骤。
一方面,它是目标表达的基础,对特征测量有重要的影响;另一方面,因为图像分割及其基于分割的目标表达、特征提取和参数测量等,能将原始图像转化为更抽象更紧凑的形式,所以使得更高层的图像分析和理解成为可能。
图像分割的应用非常广泛,几乎出现在有关图像处理的所有领域中,并涉及各种类型的图像。
图像分割在基于内容的图像检索和压缩、工业自动化、在线产品检验、遥感图像、医学图像、保安监视、军事、体育、农业工程等方面都有广泛的应用。
例如:在基于内容的图像检索和面向对象的图像压缩中,将图像分割成不同的对象区域等;在遥感图像中,合成孔径雷达图像中目标的分割,遥感云图中不同云系和背景分布的分割等;在医学应用中,脑部图像分割成灰质、白质、脑脊髓等脑组织和其它脑组织区域等;在交通图像分析中,把车辆目标从背景中分割出来等。
在各种图像应用中,只要需要对图像目标进行提取、测量等,就都离不开图像分割。
图像分割的准确性将直接影响后续任务的有效性,因此图像分割具有十分重要的意义。
I|D.G. 【本文献信息】郭红.基于混合高斯模型和相似度的阈值分割[J].电视技术,2013,37(3) 穗鞠教攒
f 0 r }f r ”
基于混合高斯模型和相似度的阈值分割 郭红 (重庆邮电大学信号与信息处理重庆市重点实验室,重庆400065)
【摘要】阈值分割法在图像分割中是一种最为简单和有效的方法,然而如何选取合适的阈值实现有效分割,目前还没有统一 的方法。结合信息论与图像的空间信息,提出一种新的阈值优化算法。首先建立图像的混合高斯分布(GMM),然后利用强度的 类不确定性和相似度函数特性定制出目标函数,优化出局部阈值,从而获得高效的分割效果。实验结果表明,与大津法(OSTU) 相比,该算法能够成功分割出模糊的边界,并且能够将图像中的各个组织有效的分割出来。 【关键词】阈值;混合高斯分布;类不确定性;相似度函数;目标函数 【中图分类号】TN911.73;TP391.41 【文献标志码】A
Threshold Segmentation Based on GMM Model and Similarity GUOHong (Chongqing Key Laboratory ofSignal And Information Processing,Chongqing University ofPosts and Telecommunications,Chongqing 400065,China) 【Abstract】Threshold segmentation method in image segmentation is one of the most simple and effective methods,but how to select appropriate thresh. old to achieve effective segmentation is still not unified method at present.Based on information theory and image space information,a new threshold 0p— timization algorithm is put forward.Firstly,image mixed Gaussian distribution(GMM)is established,and by using the intensity of the class uncertainty and similarity function characteristic custom out the target function,the local threshold value is optimized,SO as to achieve efficient segmentation effect. The experimental resuhs show that compared with the OSTU,the proposed algorithm can successfully segment fuzzy boundary and image of each effective
收稿日期:2004-03-26。
本课题得到了国家自然科学基金项目(60271032)的资助。
高原,博士生,主研领域:信息系统与人工智能。
一种新的基于多级混合模型的图像分割方法高 原 耿国华 周明全(西北大学计算机科学系 陕西西安710069)摘 要 本文将统计模型和动态轮廓模型合理有效地集成,提出了一种基于多层混合模型的图像分割方法。
应用统计模型能够对目标图像进行快速的定位,但是由于统计方法的应用以及采用基于边缘灰度的搜索匹配方法,使其无法得到精确的轮廓信息。
提出通过给动态轮廓模型增加有效参数的方法,进行图像轮廓点之间平滑的控制。
该方法可以实现对图像快速、精确的分割。
关键词 可变模型 图像分割 统计形状模型A NEW APPR OACH FOR IMAGE SEG MENTATIONBASE D ON MU LTISTAGE H YBRI D MODE LG ao Y uan G eng G uohua Zhou Mingquan(Department o f Computer Science ,Northwest University ,Xi ’an Shanxi 710069,China )Abstract A multistage hybrid matching m odel by integrating statistical m odel and snake is presented in this paper for image segmentation.A statis 2tical m odel can locate objects rapidly.H owever ,because using statistical analysis and matching employs a grey 2level m odel ,it does not give accurate boundaries.T o handle these cases ,we then build a snake by adding an additional terms for the target object in order to consider the sm oothness of the target contour.The method is well suited for automatic image segmentation.K eyw ords Deformable m odel Image segmentation S tatistic shape m odel1 引 言计算机视觉的最终目的是对图像的描述和理解———不仅仅要具备获得图像结构信息的能力,如边缘、区域等,更重要的是理解图像中所表现的内容[1]。
基于模型的方法因其应用面广泛、能够合理的应用先验知识、可从系统中获取专家知识等特点,为解决以上困难提供了有效的途径。
H ough 变换可以看成是最原始的模型匹配方法。
该方法是一种刚性模板匹配方法,不能用于可能发生形变的情形,不适于复杂的、结构多变的图像。
为了解决自然界中的多变性,可变模型的方法应运而生。
K ass 等人[2]提出了活动轮廓线模型(Snake )的方法。
但Snake 需要用户采用手动的方式对感兴趣对象轮廓进行勾勒,没有实现匹配的自动化。
并且由于没有一个先验的模型,并不适用于对已知形状的物体的定位问题。
英国曼彻斯特大学的T.F.C ootes 等人[3]为了使形状模型能够学习某一类形状的特征模式并确定其形变特征,提出了“统计形状模型”的概念,对给定的某类形状的训练集,将它们的平均形状作为该类形状的原型模板,从实例中的形状与平均形状的差异,计算出一些特征值,以此来控制模板的形变。
这种方法与传统的基于模型的方法相比具有以下优点:第一,它实现了全自动分割;第二,它利用了宝贵的先验知识;第三,由于蛇形算法中需要采用递归算法,所以收敛速度很慢,而使用统计模型可以实现形状的快速匹配。
围绕统计模型的方法,美国、丹麦、英国等国家的一些著名大学和研究机构在理论上和应用上开展了一些研究,取得了一定的进展[4~7]。
统计模型的普适性强,收敛快。
但统计形状模型采用基于边缘灰度的搜索匹配方法,缺乏对目标图像点之间的平滑控制,很难获取准确的图像轮廓信息。
本文提出了一种基于多级混合模型的图像分割方法,使用统计形状模型,在对目标图像方位有正确估计的前提下,模型可以通过迭代,自动获取用户兴趣部分的最佳模型。
而Snake 方法可以在此模型的位置上,进行更精细的二次采样,通过调整能量函数,使其最小化的方法,更准确地找到图像的边界。
实验证明,该方法将统计模型和主动轮廓模型进行合理有效的集成,提高了图像匹配的精度和速度。
2 基于统计的形状模型基于统计的形状模型的基本思想是从一组训练集中建立图像结构的空间关系以及合理的形状变量的模式。
运用统计分析,为这些变量确定有效的参数,为形状找到满足紧凑性的形状表达式,从而能够有效地运用形状的限制解释形状[8]。
我们可以从一组训练集中通过以下的方法建立统计模型[8]。
对于每一个形状,S i (i =1,2,…,s ),可以用沿着其边缘采集的(n Π2)个点来表示。
通过相似性变换,对形状集进行归一化的处理。
然后将每一个形状中的(n Π2)个样本点的位置映射到一个n 维的向量x 中,x 形成了点分布的云图。
动用主分量分析(PC A ,Principal C omponent Analysis ),确定云图中的主轴,将特第22卷第2期 计算机应用与软件Vol 122,No 122005年2月 C om puter Applications and S oftware Feb 12005征点转换到其子空间。
则可以获取描述样本的先验模型:X=X+Pb(1)其中,X是形状向量的均值,P是形状参数经过PC A后的前t个特征值对应的t维正交向量,b是形状向量。
从上式可以看出,对一组形状进行训练从而建立的先验模型,包含对该训练集中样本形状的总体描述及其形状变化的趋势,通过在一定范围内调整b,可以生成新的样本实例。
因此我们可以利用统计模型对一个新的样本进行快速的定位:选取一幅待测的图像,将先验模型放置在测试图像中,将图像轮廓的灰度特征与模型进行匹配,通过不断调整形状参数b 改变当前模型的位置和形状,产生新的模型实例,重复迭代,当模型与待测图像轮廓匹配时收敛。
使用基于统计的形状模型进行匹配的时候,有以下显著的优点:(1)统计模型中包含着宝贵的专家先验知识;(2)先验模型一旦建立,使用它进行图像匹配时,无需人工进行关键点的标注,实现了自动化匹配;(3)使用先验模型可以对目标图像的位置和形态进行快速定位。
但是它也存在着一定的缺陷:使用统计模型,可以快速地获得与目标轮廓逼近的新的模版实例。
其虽然能够在理解图像组织结构的基础上,进行快速匹配,但由于统计方法应用以及采用基于边缘灰度的搜索匹配方法,无法精确地获得目标图像的边缘信息。
因此,本文提出使用多级混合的动态形状模型的方法进行图像匹配。
3 基于多层混合的动态形状模型图像匹配本文使用在一组训练集基础上建立起来的形状的先验模型,对图像进行快速的自动化分割。
整个过程分以下三个步骤。
311 使用统计形状模型确定目标图像位置及形态使用统计模型的方法,通过寻找到能够与目标图像相匹配的一组形状的模版参数来确定图像的位置和形态。
对一组给定的模版参数中的形状参数X,将其与目标图像相应边缘点X′进行比较,计算模型点和目标图像边缘点之间的Euclidean距,当其取得最小值时,匹配误差最小:E2=|X′-T(X)|2(2)其中,T是统一模型坐标与目标图像坐标系统的一组相似性变换。
由公式(1)得:E2=|X′-T(X+Pb)|2(3)因此,描述目标图像位置和形态的模型实例可以通过迭代搜索,改变形状参数b获得,具体步骤如下:S tep1:初始化形状参数b为0;S tep2:使用公式(1)中模版:X=X+Pb;S tep3:在每个边缘点X的边界进行检测寻找最佳临近匹配点X′;S tep4:相似性变换及更新形状变换参数。
其中包括:平移参数(Xt,Y t)旋转参数θ,缩放参数s,以及形状矩阵b,调整X到X′的最佳匹配。
S tep5:如果没有收敛,返回步骤2。
该过程迭代直到位置和形状参数没有明显变化的时候收敛。
注意到公式(3)的计算是建立在物体边缘点已经被检测到的基础上。
本文采用一种简单快速的方法———基于轮廓的灰度匹配来检测代测目标图像的边缘点。
基于轮廓灰度匹配法对一个给定的边界点,在其两侧沿法线方向各取n个点,由这2n+1个点的灰度值构成的向量记为g,对每一个训练样本中同一位置的边界点都经过这样采样,得到一个向量集{g},其均值记为g,协方差记为∑g。
对于每一个不同位置的边界点,用同样的方法进行灰度采样与分析,从而构成目标轮廓的灰度统计模型。
对每一个待测的边界点p,沿法线方向得到其灰度向量为g p,求向量g p与向量均值g之间的Mahalanobis距,其匹配函数定义如下:f(g p)=(g p-g)T∑-1g(g p-g)(4)则求gp的最大概率分布问题就转化成求f(gp)的最小值问题。
312 目标图像精确匹配经过前一节的搜索匹配,可以得到与目标轮廓逼近的新的模版实例。
在目标物体姿态未知的情况下,可以自动地获取模型的位置,并且由于模版中含有目标图像灰度的信息,使得其能够在理解图像组织结构的基础上进行匹配。
但是统计形状模型的方法基于灰度级轮廓模型的理论,缺乏对目标图像点之间平滑的控制,无法精确获得目标图像的边缘信息。
因此我们利用所获得的对目标图像位置的最佳估计,使用动态轮廓模型方法进行轮廓的精细搜索。
使用Snake算法,通过给公式(4)添加额外的项来进行边界的平滑处理。
在搜索的过程中,我们在当前模型点的两边,采样m个轮廓像素点(m>n),通过最小化匹配函数,寻找对每一个沿采样点的2(m-n)+1候选位置上的采样点与相应的灰度级轮廓模型的最佳匹配,对应的匹配函数如下:f=ρf(g p)+(1-ρ)f c(k)(5)其中,f(gp)是公式(4)所示采样点到平均模型的Mahalano2 bis距,f c(k)是在2(m-n)+1个位置上,平均曲率k(i)和样本曲率k(i,j)之间的欧几里得距:f c(k)=k(i,j)-k(i)2(6)通过对每一个模型上的点计算如上代价函数,找到轮廓上每个点的准确位置,给每个模型点赋予新的准确位置。
313 再次采样对目标图像进行精确匹配,有两个需要重新采样的过程: (1)使用蛇形算法时,需要在目标物体的轮廓上进行更密集的采样,迭代为当前的位置寻找更佳的轮廓,并将这个过程重复直到收敛。