当前位置:文档之家› 基于能量优化的WSN数据收集和融合算法

基于能量优化的WSN数据收集和融合算法

基于能量优化的WSN数据收集和融合算法

基于能量优化的WSN数据收集和融合算法

摘要:针对WSN路由协议LEACH中簇头负载过重的问题,提出一种改进的数据收集和融合算法LEACH-E,在簇的建立阶段根据节点的剩余能量及相对距离选择簇头;在通信阶段,运用主成分分析法对簇头收到的数据进行降维处理,再将融合后的数据沿着蚁群算法找到的最优路径以多跳方式发送给基站。仿真结果表明,该算法在均匀分簇、均衡节点能耗、延长网络生命等方面有更好的性能。关键词:无线传感器网络;路由;能量;数据融合无线传感器网络WSN(Wireless Sensor Network)[1]是将大量微型传感器节点随机部署在目标区域,以自组织方式形成的网络,其目的是让这些节点协作地采集和处理网络覆盖区域的信息,并传递给控制管理中心。WSN将现代通信技术、微型传感器技术和网络技术有机融为一体,在军事、医疗、环境监测、智能交通等许多领域有极高的应用价值和广阔的应用前景。由于受到节点能耗的限制,如何在近乎苛刻的能源条件下延长网络生命成为WSN首要考虑的问题。1 LEACH协议简介 LEACH(Low Energy Adaptive Clustering Hierarchy)[2]是一种低功耗自适应分层路由协议。该协议中网络运行时间按“轮”计量,每轮循环分为簇的建立和数据通信两个阶段。网络节点动态成簇,簇头负责收集、融合成员节点采集的数据,并将融合后的数据直接发送给基站。LEACH协议一方面能够保证各节点等概率地担任簇头,使得网络能量分布相对均衡;另一方面运用TDMA的MAC层机制来减少簇内数据发送冲突,降低了能耗。但该协议仍存在以下几点不足:(1)簇头的选择未考虑节点的距离和剩余能量因素,易导致簇头分布不均或能量低的节点当选簇头;(2)该协议提到了数据融合的概念,但并未给出具体的算法; (3)簇头与基站采用一跳通信模式,如果某个簇头距离基站较远,能耗会大幅增加,影响网络性能。

数据压缩,算法的综述

数据压缩算法的综述 S1******* 许申益 摘要:数据压缩技术在数据通讯和数据存储应用中都有十分显著的益处。随着数据传输技术和计算机网络通讯技术的普及应用,以及在计算机应用中,应用软件的规模和处理的数据量的急剧增加,尤其是多媒体技术在计算机通讯领域中的出现,使数据压缩技术的研究越来越引起人们的注意。本文综述了在数据压缩算法上一些已经取得的成果,其中包括算术编码、字典式压缩方法以及Huffman码及其改进。 关键字:数据压缩;数据存储;计算机通讯;多媒体技术 1.引言 数据压缩技术在数据通讯和数据存储应用中都有十分显著的益处。在数据的存储和表示中常常存在一定的冗余度,一些研究者提出了不同的理论模型和编码技术降低了数据的冗余度。Huffman 提出了一种基于统计模型的压缩方法,Ziv Jacob 提出了一种基于字典模型的压缩方法。随着数据传输技术和计算机网络通讯技术的普及应用,以及在计算机应用中,应用软件的规模和处理的数据量的急剧增加,尤其是多媒体技术在计算机和通讯两个领域中的出现,使数据压缩技术的研究越来越引起人们的注意。本文综述了在数据压缩算法上的一些已经取得的成果。 本文主要介绍了香农范诺编码以及哈弗曼算法的基本思想,运用其算法的基本思想设计了一个文件压缩器,用Java 语言内置的优先队列、对象序列化等功能实现了文件压缩器的压缩和解压功能。 2数据压缩算法的分类 一般可以将数据压缩算法划分为静态的和动态的两类。动态方法又是又叫做适应性(adaptive)方法,相应的,静态方法又叫做非适应性方法(non-adaptive)。 静态方法是压缩数据之前,对要压缩的数据经过预扫描,确定出信源数据的

(完整版)信息融合算法

信息融合算法 1 概述 信息融合又称数据融合,是对多种信息的获取、表示及其内在联系进行综合处理和优化的技术。经过融合后的传感器信息具有以下特征:信息冗余性、信息互补性、信息实时性、信息获取的低成本性。 1、组合:由多个传感器组合成平行或互补方式来获得多组数据输出的一种处理方法,是一种最基本的方式,涉及的问题有输出方式的协调、综合以及传感器的选择。在硬件这一级上应用。 2、综合:信息优化处理中的一种获得明确信息的有效方法。 例:在虚拟现实技术中,使用两个分开设置的摄像机同时拍摄到一个物体的不同侧面的两幅图像,综合这两幅图像可以复原出一个准确的有立体感的物体的图像。 3、融合:当将传感器数据组之间进行相关或将传感器数据与系统内部的知识模型进行相关,而产生信息的一个新的表达式。 4、相关:通过处理传感器信息获得某些结果,不仅需要单项信息处理,而且需要通过相关来进行处理,获悉传感器数据组之间的关系,从而得到正确信息,剔除无用和错误的信息。 相关处理的目的:对识别、预测、学习和记忆等过程的信息进行综合和优化。

2 技术发展现状 信息融合技术的方法,概括起来分为下面几种: 1)组合:由多个传感器组合成平行或互补方式来获得多组数据 输出的一种处理方法,是一种最基本的方式,涉及的问题有 输出方式的协调、综合以及传感器的选择。在硬件这一级上 应用。 2)综合:信息优化处理中的一种获得明确信息的有效方法。例: 在虚拟现实技术中,使用两个分开设置的摄像机同时拍摄到 一个物体的不同侧面的两幅图像,综合这两幅图像可以复原 出一个准确的有立体感的物体的图像。 3)融合:当将传感器数据组之间进行相关或将传感器数据与系 统内部的知识模型进行相关,而产生信息的一个新的表达式。 4)相关:通过处理传感器信息获得某些结果,不仅需要单项信 息处理,而且需要通过相关来进行处理,获悉传感器数据组 之间的关系,从而得到正确信息,剔除无用和错误的信息。 相关处理的目的:对识别、预测、学习和记忆等过程的信息 进行综合和优化。 3 算法描述 3.1 Bayes融合 Bayes融合是融合静态环境中多传感器低层数据的一种常用方法。

混合群智能优化算法研究及应用

混合群智能优化算法研究及应用 优化问题广泛地存在于科学研究和工程实践中。群智能优化算法是优化算法中最新的一个分支,也是最热门的发展方向。群智能优化算法是通过模拟自然界中生物间相互合作、共享信息等群体行为而建立起来的随机搜索算法,相较于经典优化算法具有结构简单、易于实现等优点。不同的群智能优化算法是模拟不同生物行为形成的,所以它们各具特点和适用场景。然而,单一的群智能优化算法均有其局限性,如搜索精度不够高、收敛速度慢、性能受参数影响较大和容易陷入局部最优等。将不同群智能优化算法有机结合,设计混合群智能优化算法是一种提高算法性能的有效方法,具有重要的研究意义。本文的主要研究内容及创新点包括以下几个方面:(1)针对单目标数值优 化问题提出了一种基于跟随蜂搜索的自适应粒子群算法(Follower Bee Search Based Adapitve Particle Swarm Optimization,F-APSO)。首先在经典粒子群算法粒子飞行轨迹分析的基础上提出了一种自适 应的粒子群算法(Adapitve Particle Swarm Optimization,APSO), 提高了算法在求解单峰问题时的性能。然后提出了一种针对自适应粒子群算法的稳定性分析方法,基于该方法对APSO进行了稳定性分析,给出了能够保证算法稳定的参数取值条件。接着通过引入人工蜂群算法中的跟随蜂搜索,提高了算法的开拓性,并将APSO的稳定性条件拓展到了 F-APSO中。仿真实验表明F-APSO在求解单目标数值优化问题时在解的质量和时间消耗上都具有良好表现。将F-APSO用于解决矿山生产排程优化问题,与原有生产方案相比优化后的方案在不同铁

mean shift及其改进算法图像跟踪原理和应用

mean shift及其改进算法图像跟踪原理和应用Mean Shift 简介 Mean Shift 这个概念最早是由Fukunaga等人[1]于1975年在一篇关于概率密度梯度函数的估计中提出来的,其最初含义正如其名,就是偏移的均值向量,在这里Mean Shift是一个名词,它指代的是一个向量,但随着Mean Shift理论的发展,Mean Shift的含义也发生了变化,如果我们说Mean Shift算法,一般是指一个迭代的步骤,即先算出当前点的偏移均值,移动该点到其偏移均值,然后以此为新的起始点,继续移动,直到满足一定的条件结束. 然而在以后的很长一段时间内Mean Shift并没有引起人们的注意,直到20年以后,也就是1995年,另外一篇关于Mean Shift的重要文献才发表.在这篇重要的文献中,Yizong Cheng对基本的Mean Shift算法在以下两个方面做了推广,首先Yizong Cheng定义了一族核函数,使得随着样本与被偏移点的距离不同,其偏移量对均值偏移向量的贡献也不同,其次Yizong Cheng还设定了一个权重系数,使得不同的样本点重要性不一样,这大大扩大了Mean Shift的适用范围.另外Yizong Cheng 指出了Mean Shift可能应用的领域,并给出了具体的例子. Comaniciu等人把Mean Shift成功的运用的特征空间的分析,在图

像平滑和图像分割中Mean Shift 都得到了很好的应用. Comaniciu 等在文章中证明了,Mean Shift 算法在满足一定条件下,一定可以收敛到最近的一个概率密度函数的稳态点,因此Mean Shift 算法可以用来检测概率密度函数中存在的模态. Comaniciu 等人还把非刚体的跟踪问题近似为一个Mean Shift 最优化问题,使得跟踪可以实时的进行. 在后面的几节,本文将详细的说明Mean Shift 的基本思想及其扩展,其背后的物理含义,以及算法步骤,并给出理论证明.最后本文还将给出Mean Shift 在聚类,图像平滑,图像分割,物体实时跟踪这几个方面的具体应用. Mean Shift 的基本思想及其扩展 基本Mean Shift 给定d 维空间d R 中的n 个样本点i x ,i=1,…,n,在x 点的Mean Shift 向量的基本形式定义为: ()()1 i h h i x S M x x x k ∈≡ -∑ (1) 其中,h S 是一个半径为h 的高维球区域,满足以下关系的y 点的集合, ()() (){ } 2:T h S x y y x y x h ≡--≤ (2) k 表示在这n 个样本点i x 中,有k 个点落入h S 区域中.

五种大数据压缩算法

?哈弗曼编码 A method for the construction of minimum-re-dundancy codes, 耿国华1数据结构1北京:高等教育出版社,2005:182—190 严蔚敏,吴伟民.数据结构(C语言版)[M].北京:清华大学出版社,1997. 冯桂,林其伟,陈东华.信息论与编码技术[M].北京:清华大学出版社,2007. 刘大有,唐海鹰,孙舒杨,等.数据结构[M].北京:高等教育出版社,2001 ?压缩实现 速度要求 为了让它(huffman.cpp)快速运行,同时不使用任何动态库,比如STL或者MFC。它压缩1M数据少于100ms(P3处理器,主频1G)。 压缩过程 压缩代码非常简单,首先用ASCII值初始化511个哈夫曼节点: CHuffmanNode nodes[511]; for(int nCount = 0; nCount < 256; nCount++) nodes[nCount].byAscii = nCount; 其次,计算在输入缓冲区数据中,每个ASCII码出现的频率: for(nCount = 0; nCount < nSrcLen; nCount++) nodes[pSrc[nCount]].nFrequency++; 然后,根据频率进行排序: qsort(nodes, 256, sizeof(CHuffmanNode), frequencyCompare); 哈夫曼树,获取每个ASCII码对应的位序列: int nNodeCount = GetHuffmanTree(nodes); 构造哈夫曼树 构造哈夫曼树非常简单,将所有的节点放到一个队列中,用一个节点替换两个频率最低的节点,新节点的频率就是这两个节点的频率之和。这样,新节点就是两个被替换节点的父

数据融合方法优缺点

数据融合方法 随着交通运行状态评价研究的不断发展,对数据的准确性和广泛覆盖性提出了更高的要求,在此基础上,不同的数据融合模型被引进应用于交通领域中来计算不同检测设备检测到的数据。现阶段,比较常用的数据融合方法主要有:表决法、模糊衰退、贝叶斯汇集技术、BP神经网络、卡尔曼滤波法、D.S理论等方法。 1现有方法应用范围 结合数据融合层次的划分,对数据融合方法在智能交通领域的应用作以下归纳总结: 表数据融合层次及对应的方法 2各种融合方法的优缺点 主要指各种融合方法的理论、应用原理等的不同,呈现出不同的特性。从理论成熟度、运算量、通用性和应用难度四个方面进行优缺点的比较分析,具体内容如下: (1)理论成熟度方面:卡尔曼滤波、贝叶斯方法、神经网络和模糊逻辑的理论已经基本趋于成熟;D—S证据推理在合成规则的合理性方

面还存有异议;表决法的理论还处于逐步完善阶段。 (2)运算量方面:运算量较大的有贝叶斯方法、D.S证据推理和神经网络,其中贝叶斯方法会因保证系统的相关性和一致性,在系统增加或删除一个规则时,需要重新计算所有概率,运算量大;D.S证据推理的运算量呈指数增长,神经网络的运算量随着输入维数和隐层神经元个数的增加而增长;运算量适中的有卡尔曼滤波、模糊逻辑和表决法。 (3)通用性方面:在这六种方法中,通用性较差的是表决法,因为表决法为了迁就原来产生的框架,会割舍具体领域的知识,造成其通用性较差;其他五种方法的通用性相对较强。 (4)应用难度方面:应用难度较高的有神经网络、模糊逻辑和表决法,因为它们均是模拟人的思维过程,需要较强的理论基础;D.S证据推理的应用难度适中,因其合成规则的难易而定:卡尔曼滤波和贝叶斯方法应用难度较低。 3 适用的交通管理事件 之前数据融合技术在交通领域中的应用多是在例如车辆定位、交通事件识别、交通事件预测等交通事件中,但是几乎没有数据融合技术在交通运行状态评价的应用研究,而本文将数据融合技术应用在交通运行状态评价中,为了寻找到最适用于交通运行状态评价的数据融合技术方法,有必要将之前适用于其它交通管理事件的数据融合技术进行评价比较。 表2 各种融合方法适用的交通管理事件的比较

多传感器数据融合算法.

一、背景介绍: 多传感器数据融合是一种信号处理、辨识方法,可以与神经网络、小波变换、kalman 滤波技术结合进一步得到研究需要的更纯净的有用信号。 多传感器数据融合涉及到多方面的理论和技术,如信号处理、估计理论、不确定性理论、最优化理论、模式识别、神经网络和人工智能等。多传感器数据融合比较确切的定义可概括为:充分利用不同时间与空间的多传感器数据资源,采用计算机技术对按时间序列获得的多传感器观测数据,在一定准则下进行分析、综合、支配和使用,获得对被测对象的一致性解释与描述,进而实现相应的决策和估计,使系统获得比它的各组成部分更充分的信息。 多传感器信息融合技术通过对多个传感器获得的信息进行协调、组合、互补来克服单个传感器的不确定和局限性,并提高系统的有效性能,进而得出比单一传感器测量值更为精确的结果。数据融合就是将来自多个传感器或多源的信息在一定准则下加以自动分析、综合以完成所需的决策和估计任务而进行的信息处理过程。当系统中单个传感器不能提供足够的准确度和可靠性时就采用多传感器数据融合。数据融合技术扩展了时空覆盖范围,改善了系统的可靠性,对目标或事件的确认增加了可信度,减少了信息的模糊性,这是任何单个传感器做不到的。 实践证明:与单传感器系统相比,运用多传感器数据融合技术在解决探测、跟踪和目标识别等问题方面,能够增强系统生存能力,提高整个系统的可靠性和鲁棒性,增强数据的可信度,并提高精度,扩展整个系统的时间、空间覆盖率,增加系统的实时性和信息利用率等。信号级融合方法最简单、最直观方法是加权平均法,该方法将一组传感器提供的冗余信息进行加权平均,结果作为融合值,该方法是一种直接对数据源进行操作的方法。卡尔曼滤波主要用于融合低层次实时动态多传感器冗余数据。该方法用测量模型的统计特性递推,决定统计意义下的最优融合和数据估计。 多传感器数据融合虽然未形成完整的理论体系和有效的融合算法,但在不少应用领域根据各自的具体应用背景,已经提出了许多成熟并且有效的融合方法。多传感器数据融合的常用方法基本上可概括为随机和人工智能两大类,随机类方法有加权平均法、卡尔曼滤波法、多贝叶斯估计法、产生式规则等;而人工智能类则有模糊逻辑理论、神经网络、粗集理论、专家系统等。可以预见,神经网络和人工智能等新概念、新技术在多传感器数据融合中将起到越来越重要的作用。 数据融合存在的问题 (1)尚未建立统一的融合理论和有效广义融合模型及算法; (2)对数据融合的具体方法的研究尚处于初步阶段; (3)还没有很好解决融合系统中的容错性或鲁棒性问题; (4)关联的二义性是数据融合中的主要障碍; (5)数据融合系统的设计还存在许多实际问题。 二、算法介绍: 2.1多传感器数据自适应加权融合估计算法: 设有n 个传感器对某一对象进行测量,如图1 所示,对于不同的传感器都有各自不同的加权因子,我们的思想是在总均方误差最小这一最优条件下,根据各个传感器所得到的测量值以自适应的方式寻找各个传感器所对应的最优加权因子,使融合后的X值达到最优。

近两年跟踪速度较快的算法

近两年跟踪速度较快的算法小结 近两年跟踪速度较快的算法有CN [1],KCF [2],STC [3],ODFS [4]等等,均足以满足现实场景中实时跟踪的应用。 各算法执行速度: 各算法的主要思想: CN 跟踪器是CSK [5]跟踪器的改进算法。它联合颜色特征(ColorName )和灰度特征来描述目标,在文献[1]作者通过大量的实验证明了Color Name 在视觉跟踪中的卓越性能,并且对ColorName 进行了PCA 降维,去除了ColorName 中的冗余信息,使得对目标的外观描述更加精确和鲁棒。在分类器的训练中,在CSK 算法的代价函数的基础上引入一个固定的权值β,使得分类器的训练和更新更加准确和鲁棒。CN 跟踪器对很多复杂的视频序列都有很好的跟踪结果,比如:光照变化,遮挡,非刚性形变,运动模糊,平面内旋转,出平面旋转和背景杂乱。CN 跟踪器也有不足的地方,比如:尺度变化,快速运动,出视角和低分辨率,等视频的跟踪效果不佳。 KCF 跟踪器是原CSK 跟踪器的作者对CSK 跟踪器的完善,这里简单介绍一下CSK 跟踪器的主要思想。CSK 跟踪器最大亮点就是提出了利用循环移位的方法进行稠密采样并结合FFT 快速的进行分类器的训练。稠密采样的采样方式能提取目标的所有信息,这对目标的跟踪至关重要。虽然CSK 的速度很快,但是CSK 只是简单的使用了灰度特征,对目标的外观描述能力显然不足。对此作者改进了CSK 提出了KCF ,从原来的单通道灰度特征换成了多通道Hog 特征。KCF 算法通过核函数对多通道的Hog 特征进行了融合,使得训练所得的分类器对待检测目标的解释力更强。KCF 跟踪器对光照变化,遮挡,非刚性形变,运动模糊,背景杂乱和旋转等视频均能跟踪良好,但对尺度变化,快速运动,刚性形变等视频跟踪效果不佳。 STC 跟踪器是一个简单快速而且鲁棒的算法,它利用稠密的空时场景模型来进行跟踪。在贝叶斯框架下,它利用目标和目标局部的稠密信息的空时关系来建模。置信图在被计算时考虑了上一帧目标的位置的先验信息,这有效的减轻了目标位置的模糊。STC 跟踪器使用了最简单的灰度特征,但是灰度并不能很好对外观进行描述。这里可以改进为其他比较好的特征(Colorname 或者Hog ),但是就会遇到多通道特征融合的问题。一般的Tracking-by-Detection 跟踪算法基本都不能实现尺度的变化,而STC 跟踪器就提出了一种有效的尺度变化方案,也是文章[3]中最大的亮点。这里简单介绍一下,通过连续两帧的目标最 佳位置t x *处的置信值()t m x *的比值来计算当前帧中目标的估计尺度 ()()()12' 1t t t s m x m x ** -=,为了不引入噪声和避免过度敏感的自适应引入连续n 帧的平均估 计尺度'1 1n t t i i s s n -==∑,最后通过滤波获得最终的目标估计尺度()11t t t s s s λλ+=-+。STC

LZW算法优化及在雷达数据压缩中的应用

总第231期2009年第1期 计算机与数字工程 Computer&D ig ital Eng ineer ing V o l.37No.1 32 LZW算法优化及在雷达数据压缩中的应用* 王志刚 常传文 茅文深 (中国电子科技集团公司28研究所 南京 210007) 摘 要 LZ W算法是一种性能优异的字典压缩算法,具有通用性强、字典在编解码过程中动态形成等优点,在无损压缩领域应用广泛。介绍了其算法原理,给出了程序实现的编码步骤,并选取一个实例进行详细分析。设计了一种哈希表对程序进行优化,显著降低检索字典时间,分别选取图片、雷达数据、文本文件进行编码速度对比,获得了较好的效果。最后,使用不同的数据分段选取若干典型的真实雷达数据进行试验,并与游程编码进行了对比,得出若干结论。 关键词 LZ W;哈希表;优化;游程编码 中图分类号 T P301.6 L Z W Algorithm Optimizing and the A pplicatio n in Radar Data Compression Wang Z hig ang Ch ang Chuanwen M a o W enshen (T he28th R esear ch Institute of CET C,N anjing 210007) A bstract L Z W(L em pe l Z iv We lch)algo r ithm is an outstanding dict io nary co mpr ession alg or ithm,which has ma ny excelle nce s such as str ong univer sal ability and can fo rm the dictionar y dy namic ally in coding and e nco ding,and is w idely used in lo ssle ss compr essio n field.T his a rticle intro duces the elem ents of L Z W,sho ws its pr og ra m steps o f co ding,and an a ly ses an exa mple in detail.A Hash T able is desig ned to optimize the pr og ram,which c an decr ease the se arching dictiona r y time o bser vably.I mag es,radar data,and text f iles a re cho sen to be coded r espectively.T he speeds are com pa red and pr ef era ble r esults ar e obtained.At last,w e cho o se seve ra l classica l re al r adar data to do ex periments by using dif fer ent da t a subsect io n,co mpare the re sults w ith R L E(R un L eng th Enco ding),and o bta in sev er al usef ul conclusio ns. Key words L Z W,H ash T able,o ptimize,R L E Class Nu mber T P301.6 1 引言 如果按照压缩前后信息量划分,数据压缩算法可分为有损压缩和无损压缩,常见的无损压缩算法有游程RLE(Run Leng th Encoding)、霍夫曼、LZW(Lempel Ziv Welch)算法、算术编码等,LZW 算法是一种字典压缩算法,字典是在编解码过程中动态形成的,其突出的优点是通用性强,适合各种不同类型的待压缩信源,该算法被广泛应用于如今的数据压缩领域,如流行的压缩软件WINRAR和GIF图像。 本文旨在研究LZW算法,并从数据结构的设计上对程序进行优化,使之满足实时应用的要求,最后利用雷达数据进行分析,讨论不同数据类型下的压缩效果,取得了较好的实验效果。 2 LZW算法介绍 LZW算法是在1984年由TA Welch对LZ编码中的LZ78算法修改而成的一种实用的算法。其不同于费诺编码、霍夫曼编码和算术编码,在使用时不需要对信源进行概率统计;也不同于游程编码,它既可以对重复字符编码,也可以对不同但重复出现的字符 *收稿日期:2008年10月6日,修回日期:2008年11月15日作者简介:王志刚,男,高级工程师,研究方向:信号与信息处理研究。

S T A P L E 目 标 跟 踪 算 法

计算机视觉中,究竟有哪些好用的目标跟踪算法(下) 在介绍SRDCF之前,先来分析下相关滤波有什么缺点。总体来说,相关滤波类方法对快速变形和快速运动情况的跟踪效果不好。 快速变形主要因为CF是模板类方法。容易跟丢这个比较好理解,前面分析了相关滤波是模板类方法,如果目标快速变形,那基于HOG的梯度模板肯定就跟不上了,如果快速变色,那基于CN的颜色模板肯定也就跟不上了。这个还和模型更新策略与更新速度有关,固定学习率的线性加权更新,如果学习率太大,部分或短暂遮挡和任何检测不准确,模型就会学习到背景信息,积累到一定程度模型跟着背景私奔了,一去不复返。如果学习率太小,目标已经变形了而模板还是那个模板,就会变得不认识目标。(举个例子,多年不见的同学,你很可能就认不出了,而经常见面的同学,即使变化很大你也认识,因为常见的同学在你大脑里面的模型在持续更新,而多年不见就是很久不更新) 快速运动主要是边界效应(Boundary Effets),而且边界效应产生的错误样本会造成分类器判别力不够强,下面分训练阶段和检测阶段分别讨论。 训练阶段,合成样本降低了判别能力。如果不加余弦窗,那么移位样本是长这样的: 除了那个最原始样本,其他样本都是“合成”的,100*100的图像块,只有1-10000的样本是真实的,这样的样本集根本不能拿来训练。如果加了余弦窗,由于图像边缘像素值都是0,循环移位过程中只要目标保持完

整那这个样本就是合理的,只有目标中心接近边缘时,目标跨越边界的那些样本是错误的,这样虽不真实但合理的样本数量增加到了大约2-3(padding= 1),即使这样仍然有1-3(3000-10000)的样本是不合理的,这些样本会降低分类器的判别能力。再者,加余弦窗也不是“免费的”,余弦窗将图像块的边缘区域像素全部变成0,大量过滤掉分类器本来非常需要学习的背景信息,原本训练时判别器能看到的背景信息就非常有限,我们还加了个余弦窗挡住了背景,这样进一步降低了分类器的判别力(是不是上帝在我前遮住了帘。不是上帝,是余弦窗)。 检测阶段,相关滤波对快速运动的目标检测比较乏力。相关滤波训练的图像块和检测的图像块大小必须是一样的,这就是说你训练了一个100*100的滤波器,那你也只能检测100*100的区域,如果打算通过加更大的padding来扩展检测区域,那样除了扩展了复杂度,并不会有什么好处。目标运动可能是目标自身移动,或摄像机移动,按照目标在检测区域的位置分四种情况来看: 1、如果目标在中心附近,检测准确且成功。 2、如果目标移动到了边界附近但还没有出边界,加了余弦窗以后,部分目标像素会被过滤掉,这时候就没法保证这里的响应是全局最大的,而且,这时候的检测样本和训练过程中的那些不合理样本很像,所以很可能会失败。 3、如果目标的一部分已经移出了这个区域,而我们还要加余弦窗,很可能就过滤掉了仅存的目标像素,检测失败。 4、如果整个目标已经位移出了这个区域,那肯定就检测失败了。

数据快速压缩算法的C语言实现

价值工程 置,是一项十分有意义的工作。另外恶意代码的检测和分析是一个长期的过程,应对其新的特征和发展趋势作进一步研究,建立完善的分析库。 参考文献: [1]CNCERT/CC.https://www.doczj.com/doc/012123834.html,/publish/main/46/index.html. [2]LO R,LEVITTK,OL SSONN R.MFC:a malicious code filter [J].Computer and Security,1995,14(6):541-566. [3]KA SP ER SKY L.The evolution of technologies used to detect malicious code [M].Moscow:Kaspersky Lap,2007. [4]LC Briand,J Feng,Y Labiche.Experimenting with Genetic Algorithms and Coupling Measures to devise optimal integration test orders.Software Engineering with Computational Intelligence,Kluwer,2003. [5]Steven A.Hofmeyr,Stephanie Forrest,Anil Somayaji.Intrusion Detection using Sequences of System calls.Journal of Computer Security Vol,Jun.1998. [6]李华,刘智,覃征,张小松.基于行为分析和特征码的恶意代码检测技术[J].计算机应用研究,2011,28(3):1127-1129. [7]刘威,刘鑫,杜振华.2010年我国恶意代码新特点的研究.第26次全国计算机安全学术交流会论文集,2011,(09). [8]IDIKA N,MATHUR A P.A Survey of Malware Detection Techniques [R].Tehnical Report,Department of Computer Science,Purdue University,2007. 0引言 现有的压缩算法有很多种,但是都存在一定的局限性,比如:LZw [1]。主要是针对数据量较大的图像之类的进行压缩,不适合对简单报文的压缩。比如说,传输中有长度限制的数据,而实际传输的数据大于限制传输的数据长度,总体数据长度在100字节左右,此时使用一些流行算法反而达不到压缩的目的,甚至增大数据的长度。本文假设该批数据为纯数字数据,实现压缩并解压缩算法。 1数据压缩概念 数据压缩是指在不丢失信息的前提下,缩减数据量以减少存储空间,提高其传输、存储和处理效率的一种技术方法。或按照一定的算法对数据进行重新组织,减少数据的冗余和存储的空间。常用的压缩方式[2,3]有统计编码、预测编码、变换编码和混合编码等。统计编码包含哈夫曼编码、算术编码、游程编码、字典编码等。 2常见几种压缩算法的比较2.1霍夫曼编码压缩[4]:也是一种常用的压缩方法。其基本原理是频繁使用的数据用较短的代码代替,很少使用 的数据用较长的代码代替,每个数据的代码各不相同。这些代码都是二进制码,且码的长度是可变的。 2.2LZW 压缩方法[5,6]:LZW 压缩技术比其它大多数压缩技术都复杂,压缩效率也较高。其基本原理是把每一个第一次出现的字符串用一个数值来编码,在还原程序中再将这个数值还成原来的字符串,如用数值0x100代替字符串ccddeee"这样每当出现该字符串时,都用0x100代替,起到了压缩的作用。 3简单报文数据压缩算法及实现 3.1算法的基本思想数字0-9在内存中占用的位最 大为4bit , 而一个字节有8个bit ,显然一个字节至少可以保存两个数字,而一个字符型的数字在内存中是占用一个字节的,那么就可以实现2:1的压缩,压缩算法有几种,比如,一个自己的高四位保存一个数字,低四位保存另外一个数字,或者,一组数字字符可以转换为一个n 字节的数值。N 为C 语言某种数值类型的所占的字节长度,本文讨论后一种算法的实现。 3.2算法步骤 ①确定一种C 语言的数值类型。 —————————————————————— —作者简介:安建梅(1981-),女,山西忻州人,助理实验室,研究方 向为软件开发与软交换技术;季松华(1978-),男,江苏 南通人,高级软件工程师,研究方向为软件开发。 数据快速压缩算法的研究以及C 语言实现 The Study of Data Compression and Encryption Algorithm and Realization with C Language 安建梅①AN Jian-mei ;季松华②JI Song-hua (①重庆文理学院软件工程学院,永川402160;②中信网络科技股份有限公司,重庆400000)(①The Software Engineering Institute of Chongqing University of Arts and Sciences ,Chongqing 402160,China ; ②CITIC Application Service Provider Co.,Ltd.,Chongqing 400000,China ) 摘要:压缩算法有很多种,但是对需要压缩到一定长度的简单的报文进行处理时,现有的算法不仅达不到目的,并且变得复杂, 本文针对目前一些企业的需要,实现了对简单报文的压缩加密,此算法不仅可以快速对几十上百位的数据进行压缩,而且通过不断 的优化,解决了由于各种情况引发的解密错误,在解密的过程中不会出现任何差错。 Abstract:Although,there are many kinds of compression algorithm,the need for encryption and compression of a length of a simple message processing,the existing algorithm is not only counterproductive,but also complicated.To some enterprises need,this paper realizes the simple message of compression and encryption.This algorithm can not only fast for tens of hundreds of data compression,but also,solve the various conditions triggered by decryption errors through continuous optimization;therefore,the decryption process does not appear in any error. 关键词:压缩;解压缩;数字字符;简单报文Key words:compression ;decompression ;encryption ;message 中图分类号:TP39文献标识码:A 文章编号:1006-4311(2012)35-0192-02 ·192·

数据融合各种算法整理汇总

数据融合各种算法及数学知识汇总 粗糙集理论 理论简介 面对日益增长的数据库,人们将如何从这些浩瀚的数据中找出有用的知识? 我们如何将所学到的知识去粗取精?什么是对事物的粗线条描述什么是细线条描述? 粗糙集合论回答了上面的这些问题。要想了解粗糙集合论的思想,我们先要了解一下什么叫做知识?假设有8个积木构成了一个集合A,我们记: A={x1,x2,x3,x4,x5,x6,x7,x8},每个积木块都有颜色属性,按照颜色的不同,我们能够把这堆积木分成R1={红,黄,蓝}三个大类,那么所有红颜色的积木构成集合X1={x1,x2,x6},黄颜色的积木构成集合X2={x3,x4},蓝颜色的积木是:X3={x5,x7,x8}。按照颜色这个属性我们就把积木集合A进行了一个划分(所谓A的划分就是指对于A中的任意一个元素必然属于且仅属于一个分类),那么我们就说颜色属性就是一种知识。在这个例子中我们不难看到,一种对集合A的划分就对应着关于A中元素的一个知识,假如还有其他的属性,比如还有形状R2={三角,方块,圆形},大小R3={大,中,小},这样加上R1属性对A构成的划分分别为: A/R1={X1,X2,X3}={{x1,x2,x6},{x3,x4},{x5,x7,x8}} (颜色分类) A/R2={Y1,Y2,Y3}={{x1,x2},{x5,x8},{x3,x4,x6,x7}} (形状分类) A/R3={Z1,Z2,Z3}={{x1,x2,x5},{x6,x8},{x3,x4,x7}} (大小分类) 上面这些所有的分类合在一起就形成了一个基本的知识库。那么这个基本知识库能表示什么概念呢?除了红的{x1,x2,x6}、大的{x1,x2,x5}、三角形的{x1,x2}这样的概念以外还可以表达例如大的且是三角形的 {x1,x2,x5}∩{x1,x2}={x1,x2},大三角{x1,x2,x5}∩{x1,x2}={x1,x2},蓝色的小的圆形({x5,x7,x8}∩{x3,x4,x7}∩{x3,x4,x6,x7}={x7},蓝色的或者中的积木{x5,x7,x8}∪{x6,x8}={x5,x6,x7,x8}。而类似这样的概念可以通过求交运算得到,比如X1与Y1的交就表示红色的三角。所有的这些能够用交、并表示的概念以及加上上面的三个基本知识(A/R1,A/R2.A/R3)一起就构成了一个知识系统记为R=R1∩R2∩R3,它所决定的所有知识是 A/R={{x1,x2},{x3,x4},{x5},{x6},{x7},{x8}}以及A/R中集合的并。 下面考虑近似这个概念。假设给定了一个A上的子集合X={x2,x5,x7},那么用我们的知识库中的知识应该怎样描述它呢?红色的三角?****的大圆? 都不是,无论是单属性知识还是由几个知识进行交、并运算合成的知识,都不能得到这个新的集合X,于是我们只好用我们已有的知识去近似它。也就是在所有的现有知识里面找出跟他最像的两个一个作为下近似,一个作为上近似。于是我们选择了“蓝色的大方块或者蓝色的小圆形”这个概念: {x5,x7}作为X的下近似。选择“三角形或者蓝色的”{x1,x2,x5,x7,x8}作为它的上近似,值得注意的是,下近似集是在那些所有的包含于X的知识库

实时数据压缩算法(GE Historian Compression Methods)

申明:本文中思想及图片都是参照EVSystems(网址如下)说明文档,版权归其所有,鄙人只管翻译和归纳。要转载本文也请说明出处,谢谢! https://www.doczj.com/doc/012123834.html, sfriedenthal@https://www.doczj.com/doc/012123834.html, 实时数据压缩算法(GE Historian Compression Methods) 一、GE Historian Compression Methods 1. CC:Collector Compression ‘X’表示丢弃的数,圆表示保留的数。 方法:选一个点为起始点,以此点为中心,在y轴方向规定一个‘Dead band’区域,在区域内的点丢弃,直到遇到一个不再区域内的点,该点作为新的起始点,从而设定新的‘Dead band’区域。 此方法的缺点是:不能丢弃‘保持斜率不变’的点,如图中‘Constant slope line’。 2. AC:Archive Compression(存档压缩) 此方法通过判断斜率区域来丢弃多余的点,可识别并丢弃‘保持斜率不变’的点,AC一般在CC之后使用。具体实现方法在下文中说明。 CC和AC组合实现实时数据压缩,统称为:GE Historian Compression Methods

二、OSI PI Swinging Door Comrpession(美国OSI公司:游泳门压缩) 方法:选一个点为起始点(存储点)如图中‘Archived Point’,图中‘New Point ’称为当前点。然后依次选取后面的点(做当前点)做平行四边形,如下图所示: 当产生的平行四边形不能容纳上个存储点到当前点之间的所有数据点时,即 有数据点落在当前平行四边形覆盖面积之外时,则将‘当前点’的前一个数据点保存,作为新的存储点,其他点舍弃。以此往复。如下图所示: 判断一个点是否在当前平行四边形覆盖面积之内的方法如下图(能看懂就不翻译了): 该方法的缺点是:计算量大,CPU占时太多,程序实现复杂。 GE Historian Compression Methods和Swinging Door Comrpession不同之处在于:其丢弃点动作的触发条件不一样,它不计算一个点是否在平行四边形中,通过斜率范围来判断,即判断“存储点和但前点之间连线是否与他们中间各个点的dead band 线相交”,其判断方法及整体示意图如下两图所示:

基于自适应动态均匀分簇的WSN数据融合算法

第39卷 第11A期2012年11月计算机科学 Comp uter ScienceVol.39No.11A Nov  2012杨 婷(1981-),女,硕士,讲师,主要研究方向为计算机网络、程序设计,E-mail:zkj no1@163.com。基于自适应动态均匀分簇的WSN数据融合算法 杨 婷 (绍兴文理学院元培学院 绍兴312000 )  摘 要 针对LEACH算法无法进行数据融合以及簇首分布不均匀引起的局部网络能耗过多、失效过快等问题,提出一种基于自适应动态均匀分簇的数据融合算法ADUC。ADUC算法在簇结构生成阶段引入逻辑区域划分机制和簇首能量优选机制,保证了簇首分布的均匀性和网络的能量均衡性;在数据融合阶段使用自适应加权融合机制来减小冗余和误差,并减少报文数据的数量。仿真结果证明,ADUC算法可以在提高监测数据精度的同时减少网络中43.1%的总体能耗。 关键词 数据融合,无线传感器网络,分簇,自适应,能耗中图法分类号 TP393 文献标识码 A  Adaptive Dynamic Uniform Clustering  Data Aggregation Algorithm for Wireless Sensor NetworksYANG Ting (College of Yuanpei,Shaoxing University,Shaoxing  312000,China)  Abstract In order to solve the problem of unable to do data aggregation operation and the problem of unbalanced ener-gy consumption cased by the nonuniform clustering  process in the LEACH protocol,an Adaptive Dynamic UniformClustering(ADUC)data aggregation algorithm is proposed.In the cluster construct phase of ADUC,the logic area di-vide mechanism and the cluster head energy optimize mechanism are introduced to ensure the uniformity of cluster headdistribution and the energy consumption balance of the network,in the data aggregation phase,the adaptive weightedmechanism is introduced to reduce the redundancy and errors of the monitoring data and control the amount of commu-nication packets.Simulation results prove that ADUC algorithm can not only improve the accuracy of monitoring databut also reduce more than 43.1%energy  consumption of the network.Keywords Data aggregation,Wireless sensor networks,Clustering,Adaptive,Energy consumption  无线传感器网络一般由一个与外部网络相连的基站节点 和一组带有计算能力和无线收发装置的传感器节点组成[ 1] 。分布在监测区域中的大量传感器节点可以自主地组成一个自组织网络,节点与节点之间、节点与基站之间以多跳形式进行通信。由于传感器节点通常由电池供电,而且数量巨大、难于回收, 能耗控制就成为关系到无线传感器应用前景的主要问题。数据融合技术就是对无线传感器网络进行能耗控制的核心技术之一。 数据融合是指在数据传输的过程中,对数据进行分布式的汇聚融合处理,去除冗余信息,组合成更有效、更简练、更精确的数据的过程。分簇算法是无线传感器网络调整拓扑结构、实现层次型路由的重要方式,优化的网络簇状拓扑结构可 以明显地降低网络的能耗。LEACH[2] 路由协议是一种典型 的无线传感器网络分簇算法,研究证明LEACH协议可以节省网络中15%的能量。但LEACH算法同时也具有簇分布不均匀、能量均衡度低、网络生存时间短、无法进行有效的数据融合操作等缺陷。本文在分析LEACH优缺点的基础上,提出一种全新的无线自组织网络自适应均匀分簇的数据融合算法ADUC(Adaptive Dynamic Uniform Clustering  data ag-gregation algorithm)。ADUC算法使用动态自适应均匀分簇机制和自适应加权数据融合方法,在保证簇结构均匀分布、节点负载均衡、 网络生存期延长的前提下,可以高效、精确地进行数据融合操作,在明显节省网络能量的同时,提高了监测数据的精度。 1 相关工作 1.1 LEACH算法 LEACH算法的基本思想是划分固定时间为监测周期,每个监测周期分为簇准备阶段和实时监测阶段,在每个监测周期开始时,首先进行等概率的簇首随机选择操作,将网络能耗平均分配到各个节点上,以达到延长网络生存期的目的。每个节点在簇准备阶段生成一个0到1之间的随机数,当随机数小于选择门限参数T(n)时,该节点为簇首节点,否则该节点自动成为簇成员节点,并选择最近的簇首节点进行簇加入操作。选择门限参数T(n)的取值动态地随监测周期数进行调整。当簇结构形成后,网络自动进入实时监测阶段,簇首节点将簇成员节点发送过来的数据进行融合后发送到基站节点。 · 301·

相关主题
文本预览
相关文档 最新文档