03-基于最大熵原理的空间特征选择方法
- 格式:pdf
- 大小:492.66 KB
- 文档页数:7
基于最大熵原理的多阈值自动选取新方法
曹力;史忠科
【期刊名称】《中国图象图形学报》
【年(卷),期】2002(007)005
【摘要】基于信息论中最大熵原理,提出了一种等概率场下的自动选取阈值的新方法.该方法是首先通过图象灰度直方图信息,并利用Shannon熵中等概率场具有最大熵的基本性质来确定阈值,然后将图象划分为等概率的子块,进而给出了该算法的理论推导和算法的具体实现步骤.与通常的基于熵理论自动获取图象阈值的方法相比较,该方法直观、简便、求解稳定,且易于实现.同时该方法克服了常用方法在阈值求取时,出现的诸如计算量大、计算效率低等不足等问题,故能够迅速地获得图象的阈值.对比实验的结果,也说明了该方法的快速性、有效性、可靠性和稳定性.
【总页数】5页(P461-465)
【作者】曹力;史忠科
【作者单位】西北工业大学自动控制系,西安,710072;西北工业大学自动控制系,西安,710072
【正文语种】中文
【中图分类】TP391.4
【相关文献】
1.基于迭代的癌细胞图象自动多阈值分割 [J], 郭戈;平西建;胡敏;周利莉
2.基于最大熵的自动确定多阈值方法 [J], 曹力;史忠科;郑家伟
3.基于分块采样和遗传算法的自动多阈值图像分割 [J], 姜允志;郝志峰;林智勇;袁淦钊
4.基于人工免疫的灰度图像多阈值自动分割 [J], 李彬;田联房;毛宗源
5.基于多阈值的工业CT体数据自动分类方法 [J], 卢艳平;王珏;蔡玉芳
因版权原因,仅展示原文概要,查看原文内容请购买。
机器学习中的最大熵原理及应用随着人工智能、大数据时代的到来,机器学习作为一种重要的人工智能技术,受到了越来越多的关注和研究。
机器学习中有一种常用的模型叫做最大熵模型,其理论基础是最大熵原理。
本文将介绍最大熵原理的概念和应用在机器学习中的方法和优点。
一、最大熵原理概述最大熵原理源自于热力学中的熵概念,熵在热力学中表示一种宏观上的无序状态。
而在信息论中,熵被定义为信息的不确定性或者混乱度。
最大熵原理认为,在没有任何先验知识的情况下,我们应该将分布的不确定性最大化。
也就是说,在满足已知条件下,选择最均匀的分布,最大程度上表示了对未知情况的不确定性,也就是最大的熵。
二、最大熵模型基本形式最大熵模型通常用于分类问题,基本形式为:$$f(x)=\arg \max_{y} P(y / x) \text{ s.t. } \sum_{y} P(y / x)=1$$其中,$x$表示输入的特征,$y$表示输出的类别,$P(y|x)$表示输出类别为$y$在输入特征为$x$的条件下的概率。
通过最大熵原理,我们要求在满足已知条件下,使输出类别分布的熵最大。
三、最大熵模型参数估计最大熵模型参数估计的方法采用最大似然估计。
在训练集中,我们存在$n$个输入特征向量和对应的输出类别标签,即:$(x_1,y_1),(x_2,y_2),...,(x_n,y_n)$。
对于给定的每个$x_i$,我们可以得到相应的条件概率$P(y_i|x_i)$,用于计算最大熵模型的参数。
最终的目标是最大化训练集的对数似然函数:$$L(\boldsymbol{\theta})=\sum_{i=1}^{n} \log P(y_i |x_i)=\sum_{i=1}^{n} \log \frac{\exp \left(\boldsymbol{\theta}^{T}\cdot \boldsymbol{f}(x_i, y_i)\right)}{Z(x_i, \boldsymbol{\theta})} $$其中,$\boldsymbol{\theta}$表示最大熵模型的参数向量,$\boldsymbol{f}(x_i,y_i)$表示输入特征$x_i$和输出类别$y_i$的联合特征,$Z(x_i,\boldsymbol{\theta})$表示规范化常数,也就是对数值进行标准化。
最大熵增益最大熵增益(Maximum Entropy Gain)是一种常用的特征选择方法,常用于构建决策树和进行信息增益量化。
下面是关于最大熵增益的相关参考内容:1. 信息熵(Information Entropy):在介绍最大熵增益前,需要先了解信息熵的概念。
熵的概念最早由香农提出,用于描述信息的不确定性。
在信息论中,信息熵常用于度量一个随机变量的不确定性,可以用以下公式表示:H(X) = -Σp(x)log2p(x),其中p(x)为随机变量X取某个值x的概率。
2. 信息增益(Information Gain):信息增益是用来度量特征对于决策问题的区分能力的指标。
在决策树的特征选择中,通常使用信息增益来选择最优特征。
信息增益可以用以下公式表示:Gain(D,A) = H(D) - Σ(Dv/D)H(Dv),其中D表示数据集,A表示特征,Dv表示根据特征A的取值v划分的子数据集,H(D)是数据集D的信息熵。
3. 最大熵原理(Maximum Entropy Principle):最大熵原理是一个基于最大熵原则的概率模型。
最大熵原理认为,在已知的一些有限信息下,应选择熵最大的概率模型作为预测模型。
最大熵原理通过最大熵模型来表示不确定性,可以通过最优化问题来求解模型参数。
4. 最大熵增益的计算方法:最大熵增益是基于最大熵原理的特征选择方法。
最大熵增益的计算方法包括以下几个步骤:首先,计算初始数据集的信息熵H(D);然后,对于特征A的每个取值v,计算根据特征A的取值v划分后的数据集的信息熵H(D|A=v);接着,计算特征A的信息增益Gain(D,A) = H(D) - Σ(Dv/D)H(Dv);最后,选择信息增益最大的特征作为最优特征。
5. 最大熵增益的优缺点:最大熵增益是一种常用的特征选择方法,具有一定的优点和缺点。
优点是最大熵增益考虑了各个特征的不确定性,能够在一定程度上提高特征选择的准确性;缺点是最大熵增益的计算复杂度较高,需要计算每个特征的信息熵和条件熵,对于大规模数据集和高维特征空间的情况可能计算困难。
基于最大图像熵Gamma校正估计的图像特征点检测和匹配方法苑朝;赵亚冬;张耀;徐大伟;苑晶;翟永杰【期刊名称】《计量学报》【年(卷),期】2024(45)5【摘要】提出一种基于最大图像熵Gamma校正估计的图像特征点检测和匹配方法。
通过预处理算法来增强图像的对比度,将其应用于图像特征点的检测和匹配。
在预处理阶段,首先采用对数函数对图像进行归一化,根据设定的阈值将图像分为明亮和黑暗分量;然后分别对两个分量自适应地选择不同的参数进行Gamma校正,并且确定使其熵最大化的校正参数为每个分量的最佳参数;最后将上述参数应用于Gamma校正生成对应原始图像明亮和黑暗区域的矫正图,并进行融合生成增强的图像。
对预处理完的图像进行特征点检测和匹配实验。
研究结果表明:所提出的算法相较于未处理算法、HE和自适应Gamma算法,特征点检测后的匹配数量在欠曝光图像上分别提升85.7%、26.4%和15.2%,在过曝光图像上分别提升59.4%、12.2%和103.8%。
匹配效果也有较明显提升。
【总页数】8页(P646-653)【作者】苑朝;赵亚冬;张耀;徐大伟;苑晶;翟永杰【作者单位】华北电力大学自动化系;中国科学院自动化研究所复杂系统管理与控制国家重点实验室;南开大学人工智能学院【正文语种】中文【中图分类】TB96【相关文献】1.基于最大熵算法的图像几何与辐射校正研究2.基于相关匹配和最大谱图像配准相结合的InSAR复图像配准方法3.基于深度神经网络的图像匹配特征点检测方法4.基于图像匹配的特征点检测方法综述5.基于自适应gamma校正估计的图像去雾算法因版权原因,仅展示原文概要,查看原文内容请购买。
基于互信息的特征选择1. 模型定义D1 病集S 由有关心脏病病种i X (i =1,2,…,n )组成,令患者的疾病信息熵1-2为: )(1log)()(1i n i i X P X P X H ∑=-= (1)显然疾病信息熵具有Shannon 信息熵的性质,反映了临床中具体病人的客观信息及实际医疗干预过程中所表现的信息在总体特征上的平均不确定性.定义D2:一个诊断病例库可以表示为关于病例特征的矩阵形式n m ij x Casebase ⨯=][ (2) 其中,ij x —病例库中第j 个病例的第i 个属性值;m —病例特征数量;n —病例库规模;定义D3:一个信息系统(IS )可以表达为,,,r r f R I U R V f ∈=<> (3) 其中,U 是对象的非空有限集合, R 是属性的非空有限集合,r r R V V ∈=是属性值的集合,V r 表示了属性任意r R ∈时的属性值范围,:r f U R V ⨯→ 是一个信息函数,它指定U 中每一个对象 x 的属性值.当R 中的属性集可进一步分解为条件属性集合C 和决策属性集合D ,且满足,R C D C D =⋃ ⋂=∅时,信息系统(IS)称为决策系统(DS)3. a i 为某一条件属性,则决策属性D 对某一条件属性a i 的依赖程度可以利用下式计算4-5:1马笑潇, 黄席樾, 等. 基于信息熵的诊断过程认知信息流分析[J]. 重庆大学学报:自然科学版, 2002,25(5):25-28. 2 王园, 吉国力, 魏磊. 信息熵在临床定量诊断分析中的研究及应用[J]. 厦门大学学报:自然科学版,2004,43(B08):353-356.3 张文宇. 数据挖掘与粗糙集方法[M]. 西安电子科技大学出版社, 2007: 49.4 屈利, 苑津莎, 李丽. 基于事例推理的电力系统短期负荷预测[J]. 电力科学与工程, 2008,24(2):59-63.(4) 式中,R C 、R D 分别表示条件属性集合C 和策属性集合D 在论域上的等价关系.()D CR H R 表示R D 相对于R C 的条件熵.(,)i I a D 的值越大,则条件属性a i 对决策属性D 的重要性越大.如果(,)0i I a D ,则说明a i 对于D 不起作用,可以删除.在基于属性信息增益的约简方法中,计算案例库属性集的每个属性的信息增益,并约定属性的信息增益大于某个阈值时就将该属性归入最优属性子集,否则弃用属性.1.3 基于互信息的特征选择6:三种经典的基于互信息的特征选择算法,分别为信息增益、互信息和交叉熵,以及于互信息最大化的特征选择算法7。
·18 ·计算机应用研究2003 年一种基于局部最大熵的特征匹配算法3宋展, 刘冲, 王跃宗(大连理工大学机械工程学院, 辽宁大连116024)摘要: 传统的基于灰度的匹配算法抗噪声能力和抗局部几何变形能力较差,通过图像熵变换,提出了一种新颖的基于局部最大熵的特征匹配算法; 通过局部特征点所在区域的相关匹配,获得具有最大可信度的匹配结果。
由于匹配只是在特征点之间进行,且在匹配过程中引入外极线和一致性约束条件,从而大大降低了计算消耗和误匹配率,获得了比较理想的表面离散深度图。
关键词: 特征点匹配;局部熵;显微视觉;深度图中图法分类号: TP391 文献标识码: A 文章编号: 100123695 (2003) 1220018202A Matching Algorithm Based on Local Maximum EntropySONG Zhan , LIU C hong , WANG Yu e2zong( College of Mechanical Engineering , Dalian University of Technology , Dalian Liaoning 116024 , China) Abstract : The traditional matching alg orithms based on g ray relating have neither scale invariability nor rotational invariability. In this paper ,a novel algorithm based on local maximum entropy was introduced. The result which has the maximum reliability was ob tainedthroug h the matching between the regions which contain the feature points based on cross correlation theory. Because the matching was only execu ted among the feature points and the matching constraints such as epipolar and ordering were introduced. The time2eonsuming and mismatching rate were decreased largely. The discrete depth map was obtained finally.K ey words : Feature Point Matching ; Local Entropy ; Interest Point Detection ; Depth Map1 引言随着微纳米技术的发展,面向微观对象的微操作技术逐渐成为人们改造微观世界的主要工具,而当今的微操作系统仍处于手工及半自动化阶段,如用于转基因操作的细胞注射系统及仍处于实验室阶段的微装配系统等。
一、熵物理学概念宏观上:热力学定律——体系的熵变等于可逆过程吸收或耗散的热量除以它的绝对温度(克劳修斯,1865)微观上:熵是大量微观粒子的位置和速度的分布概率的函数,是描述系统中大量微观粒子的无序性的宏观参数(波尔兹曼,1872)结论:熵是描述事物无序性的参数,熵越大则无序。
二、熵在自然界的变化规律——熵增原理一个孤立系统的熵,自发性地趋于极大,随着熵的增加,有序状态逐步变为混沌状态,不可能自发地产生新的有序结构。
当熵处于最小值, 即能量集中程度最高、有效能量处于最大值时, 那么整个系统也处于最有序的状态,相反为最无序状态。
熵增原理预示着自然界越变越无序三、信息熵(1)和熵的联系——熵是描述客观事物无序性的参数。
香农认为信息是人们对事物了解的不确定性的消除或减少,他把不确定的程度称为信息熵(香农,1948 )。
随机事件的信息熵:设随机变量ξ,它有A1,A2,A3,A4,……,An共n种可能的结局,每个结局出现的概率分别为p1,p2,p3,p4,……,pn,则其不确定程度,即信息熵为(2)信息熵是数学方法和语言文字学的结合。
一个系统的熵就是它的无组织程度的度量。
熵越大,事件越不确定。
熵等于0,事件是确定的。
举例:抛硬币,p(head)=0.5,p(tail)=0.5H(p)=-0.5log2(0.5)+(-0.5l og2(0.5))=1说明:熵值最大,正反面的概率相等,事件最不确定。
四、最大熵理论在无外力作用下,事物总是朝着最混乱的方向发展。
事物是约束和自由的统一体。
事物总是在约束下争取最大的自由权,这其实也是自然界的根本原则。
在已知条件下,熵最大的事物,最可能接近它的真实状态。
五、基于最大熵的统计建模:建模理论以最大熵理论为基础的统计建模。
为什么可以基于最大熵建模?Jaynes证明:对随机事件的所有相容的预测中,熵最大的预测出现的概率占绝对优势。
Tribus证明,正态分布、伽马分布、指数分布等,都是最大熵原理的特殊情况。
最大熵分类最大熵分类是基于最大熵原理的一种分类方法。
最大熵原理认为,在没有任何先验知识的情况下,我们应该选择一个概率分布最均匀的模型。
最大熵分类算法通过最大化模型的熵来选择最优的分类模型。
最大熵分类算法的核心思想是通过已知的特征和约束条件,构建一个满足这些条件的概率模型。
在分类过程中,最大熵分类算法会根据训练数据中的特征值和类别标签,通过最大化模型的熵来确定最优的分类决策边界。
最大熵分类算法的优势在于其灵活性和泛化能力。
它可以通过增加特征集合来提高分类的准确性,并且可以处理高维稀疏的特征空间。
最大熵分类算法还可以处理多类别分类问题,并具有较好的鲁棒性。
最大熵分类算法的应用非常广泛。
在自然语言处理中,最大熵分类算法可以用于文本分类、情感分析、命名实体识别等任务。
在图像识别中,最大熵分类算法可以用于物体识别、人脸识别等任务。
在生物医学领域,最大熵分类算法可以用于癌症预测、基因识别等任务。
最大熵分类算法的实现主要包括特征提取和模型训练两个步骤。
在特征提取阶段,我们需要选择合适的特征来表示分类任务。
常用的特征包括词频、词性、句法结构等。
在模型训练阶段,我们需要使用训练数据来估计模型的参数。
常用的估计方法包括最大似然估计、改进的迭代尺度法等。
最大熵分类算法的性能可以通过交叉验证等方法进行评估。
交叉验证是一种常用的模型评估方法,它可以有效地评估模型的泛化能力。
我们可以将训练数据分为若干个子集,然后利用其中的一部分子集进行模型训练,利用剩余的子集进行模型评估。
通过多次交叉验证可以得到模型的平均性能。
最大熵分类算法虽然在理论上有很好的性质,但在实际应用中也存在一些问题。
首先,最大熵分类算法需要选择合适的特征来表示分类任务,这对于一些复杂的任务来说是非常困难的。
其次,最大熵分类算法的计算复杂度较高,特别是在高维稀疏的特征空间中。
最后,最大熵分类算法对训练样本的数量和质量要求较高,缺乏足够的训练数据可能导致模型的过拟合。
使用信息熵进行特征选择的步骤信息熵是一种用来度量信息不确定性的概念,它在特征选择中起着重要的作用。
特征选择是数据预处理中的一个关键步骤,它的目的是从原始数据中选择出最具有代表性和区分性的特征,以提高机器学习算法的性能和效果。
本文将介绍使用信息熵进行特征选择的步骤。
首先,我们需要明确特征选择的目标。
特征选择的主要目标是减少特征空间的维度,提高模型的泛化能力和解释能力。
在特征选择之前,我们需要对数据集进行预处理,包括数据清洗、缺失值处理等。
接下来,我们就可以开始使用信息熵进行特征选择了。
第一步是计算每个特征的信息熵。
信息熵是用来度量一个随机变量的不确定性的,它的值越大,表示该变量的不确定性越高。
在特征选择中,我们希望选择那些具有较高信息熵的特征,因为它们能够提供更多的信息。
计算信息熵的方法是通过计算每个特征的信息增益。
信息增益是指在给定条件下,一个特征对于分类结果的贡献程度。
具体计算信息增益的方法是使用条件熵和经验熵。
条件熵是在已知某个特征的条件下,分类结果的熵。
经验熵是在不知道任何特征的条件下,分类结果的熵。
信息增益等于经验熵减去条件熵。
第二步是选择信息增益最大的特征作为划分标准。
在计算了每个特征的信息增益之后,我们需要选择信息增益最大的特征作为划分标准。
这样可以使得划分后的子集更加纯净,提高分类的准确性。
第三步是重复上述步骤,直到满足停止条件。
在特征选择过程中,我们需要重复计算信息熵和信息增益,选择信息增益最大的特征进行划分,直到满足停止条件。
停止条件可以是达到预定的特征数量,或者达到一定的信息增益阈值。
最后,我们可以根据选择出的特征进行数据建模。
选择出的特征可以用于机器学习算法的训练和测试,从而提高模型的性能和效果。
总结起来,使用信息熵进行特征选择的步骤包括:计算每个特征的信息熵,计算每个特征的信息增益,选择信息增益最大的特征作为划分标准,并重复上述步骤直到满足停止条件。
特征选择是数据预处理中的一个重要环节,它能够提高机器学习算法的性能和效果。
最大信息熵原理预测数值最大信息熵原理在预测数值中的应用引言:最大信息熵原理是一种用于预测数值的方法,它基于信息熵的概念,通过最大化信息熵来选择最合适的模型。
本文将详细介绍最大信息熵原理在预测数值中的应用。
首先,我们将介绍信息熵的概念和最大信息熵原理的基本原理。
然后,我们将探讨最大信息熵原理在数值预测中的三个重要方面:特征选择、模型选择和参数估计。
最后,我们将讨论最大信息熵原理在实际应用中的一些限制和挑战。
正文:1. 特征选择1.1 信息熵的概念信息熵是信息论中的一个重要概念,用于衡量一个随机变量的不确定性。
在预测数值中,我们需要选择一些特征来描述问题,而特征的选择对于模型的准确性至关重要。
最大信息熵原理可以帮助我们选择最具有代表性的特征。
通过计算每个特征的信息熵,我们可以评估其对于预测数值的贡献。
选择信息熵最大的特征可以使模型具有更好的预测性能。
1.2 最大信息熵原理的特征选择方法最大信息熵原理提供了一种特征选择的方法,即选择信息熵最大的特征作为预测数值的输入。
这种方法可以避免特征之间的冗余和过拟合问题,提高模型的泛化能力。
在实际应用中,我们可以使用各种算法来计算特征的信息熵,如决策树、遗传算法等。
1.3 特征选择的应用案例最大信息熵原理的特征选择方法在各个领域都有广泛的应用。
例如,在医疗诊断中,我们可以利用最大信息熵原理选择最具有代表性的病症特征来预测疾病的发生。
在金融风险评估中,我们可以利用最大信息熵原理选择最相关的经济指标来预测市场变动。
这些应用案例都证明了最大信息熵原理在特征选择中的有效性。
2. 模型选择2.1 模型的信息熵在预测数值中,我们通常会使用多个模型来进行比较和选择。
最大信息熵原理可以帮助我们选择最合适的模型。
通过计算每个模型的信息熵,我们可以评估其对于预测数值的拟合程度。
选择信息熵最大的模型可以使预测结果更加准确。
2.2 最大信息熵原理的模型选择方法最大信息熵原理提供了一种模型选择的方法,即选择信息熵最大的模型作为预测数值的模型。
最大熵方法中特征选择算法的改进与纠错排歧
张仰森;曹元大;俞士汶
【期刊名称】《北京理工大学学报》
【年(卷),期】2006(26)1
【摘要】对应用最大熵原理建立语言模型的特征选取方法作了改进.用特征模板从训练样本中获得候选特征集,应用频次与平均互信息相结合的方法从候选特征集中选取特征.在选择有效特征时,对候选特征集中出现频次大于某一限值的特征或平均互信息很大的特征直接加入有效特征集,且不是每选一个特征都调用参数的求解过程,从而加快了特征选择的速度.将改进的算法应用于文本纠错建议的排歧,实验证明,所改进的特征选择算法有效.
【总页数】5页(P36-40)
【关键词】最大熵方法;特征选择;语言建模;纠错排歧
【作者】张仰森;曹元大;俞士汶
【作者单位】北京大学计算语言学研究所;北京理工大学软件学院
【正文语种】中文
【中图分类】TP391
【相关文献】
1.基于词频信息改进的IG特征选择算法在文本分类中的应用研究 [J], 牛玉霞;
2.基于词频信息改进的IG特征选择算法在文本分类中的应用研究 [J], 牛玉霞
3.一种基于改进信息增益特征选择的最大熵模型文本分类方法 [J], 何明
4.文本分类中卡方统计特征选择算法的改进 [J],
5.Web文档分类中TFIDF特征选择算法的改进 [J], 段国仑;谢钧;郭蕾蕾;王晓莹因版权原因,仅展示原文概要,查看原文内容请购买。
不等式最大熵中的特征选择方法
张永;李晓红;樊斌
【期刊名称】《计算机工程》
【年(卷),期】2009(035)018
【摘要】不等式最大熵模型较为成功地缓解了文本分类任务中的过拟合问题,但它使用的特征选择算法不能完全发挥不等式最大熵的最大优势.针对该问题提出采用改进的顺序前进式选择算法,提高文本分类任务中的识别率,试验结果证明该算法能够更准确地选出文本代表特征,对不等式最大熵模型的分类成绩有一定的改善.【总页数】3页(P182-184)
【作者】张永;李晓红;樊斌
【作者单位】兰州理工大学计算机与通信学院,兰州,730050;兰州理工大学计算机与通信学院,兰州,730050;兰州理工大学计算机与通信学院,兰州,730050
【正文语种】中文
【中图分类】TP181
【相关文献】
1.用融和丰富字特征的不等式平滑最大熵模型消解组合型歧义 [J], 范荣
2.最大熵谱估计在昆虫鸣声特征提取中的应用 [J], 卢亚玲
3.基于最大熵原理的空间特征选择方法 [J], 宋国杰;唐世渭;杨冬青;王腾蛟
4.基于特征贡献度的特征选择方法在文本分类中应用 [J], 孟佳娜;林鸿飞;李彦鹏
5.最大熵方法中特征选择算法的改进与纠错排歧 [J], 张仰森;曹元大;俞士汶
因版权原因,仅展示原文概要,查看原文内容请购买。
基于最大熵和互信息最大化的特征点配准算法
张二虎;卞正中
【期刊名称】《计算机研究与发展》
【年(卷),期】2004(41)7
【摘要】点配准问题在机器视觉、医学图像等领域,有着非常重要的应用基础.通过在最大化熵原理的基础上,将互信息相似性测度引入到点配准算法中,提出了一种新的快速、准确的健壮性的点配准算法.首先建立起表示两个特征点集之间匹配对应关系的联合概率分布匹配矩阵,通过最大化熵和互信息最大化,建立起一个包含匹配矩阵和空间变换参数的新的能量函数,通过确定性退火算法,可以获得最优的匹配矩阵和空间变换参数,从而解决点的对应性问题和出界点(outliers)确定.实验结果表明,算法具有较强的鲁棒性,具有较高的配准精度和较快的计算速度.
【总页数】6页(P1194-1199)
【作者】张二虎;卞正中
【作者单位】西安理工大学信息科学系,西安,710048;西安交通大学生命科学与技术学院,西安,710049
【正文语种】中文
【中图分类】TP391
【相关文献】
1.核科学技术核材料与工艺技术——基于特征点互信息预配准的医学图像配准技术 [J], 伍亚军;周正东;戴耀东
2.基于特征点互信息预配准的医学图像配准技术 [J], 伍亚军;周正东;戴耀东
3.基于边缘特征点互信息熵的医学图像配准方法 [J], 魏本征;甘洁;尹义龙
4.基于特征点Rényi互信息的医学图像配准 [J], 赵海峰;陆明;卜令斌;孙登第;罗斌
5.基于特征点和互信息的医学图像配准方法比较研究 [J], 鲍军肖;谷俊改
因版权原因,仅展示原文概要,查看原文内容请购买。
一种基于最大熵分割和特征联合判别的图像目标自动报警方法薛欢欢;丛卫华;朱必波;孔万增
【期刊名称】《声学与电子工程》
【年(卷),期】2017(000)001
【摘要】由于SAS海底成像中含有众多假目标,影响自动报警,因此提出了一种基于最大熵分割和目标形状特征判别的SAS图像目标自动报警算法.首先通过图像的水、底分离,利用最大熵原理的双阈值分割法实现可疑目标初步检测,然后根据不同类型目标构造相应的结构元,通过腐蚀膨胀操作实现可疑目标的二次检测,最后通过目标的形状特征判别,实现目标自动报警.实际数据处理结果表明,该算法能够有效实现SAS图像球目标和柱状目标的自动报警.
【总页数】4页(P13-16)
【作者】薛欢欢;丛卫华;朱必波;孔万增
【作者单位】第七一五研究所声纳技术重点实验室,杭州,310023;第七一五研究所声纳技术重点实验室,杭州,310023;第七一五研究所声纳技术重点实验室,杭
州,310023;杭州电子科技大学,杭州,310023
【正文语种】中文
【相关文献】
1.一种基于目标特征挖掘的带钢缺陷图像分割方法
2.一种基于最大熵的改进型PCNN图像分割新方法
3.一种基于最大熵的改进型PCNN图像分割新方法
4.基于局部最大熵的多目标图像分割方法
5.一种基于最大熵的VHP彩色图像分割方法
因版权原因,仅展示原文概要,查看原文内容请购买。