序列图像自适应增强目标定位算法研究
- 格式:pdf
- 大小:266.37 KB
- 文档页数:3
人工智能开发中的目标跟踪算法与实现方法人工智能是近年来备受关注的一个热门领域,它涵盖了众多技术和应用领域。
其中,目标跟踪是人工智能领域中重要的研究方向之一。
本文将介绍人工智能开发中的目标跟踪算法与实现方法。
目标跟踪是指在视频流或图像序列中,自动定位和跟踪一个或多个运动目标。
它在安防监控、自动驾驶、机器人导航等领域有着广泛的应用前景。
目标跟踪的实现方法主要分为基于传统计算机视觉技术和基于深度学习的方法两类。
首先,基于传统计算机视觉技术的目标跟踪算法主要包括基于特征的方法和滤波器方法。
在基于特征的方法中,常用的特征包括颜色、纹理、边缘、形状等。
其中,颜色特征是最常用的一种特征。
通过分析目标与背景之间的颜色差异,可以实现目标的定位和跟踪。
而纹理特征则是通过分析目标区域的纹理信息来进行跟踪。
这些方法通常需要人工选择和提取特征,因此对算法的鲁棒性和通用性有一定要求。
另一类是滤波器方法,它将目标的位置和大小建模为状态空间,并利用卡尔曼滤波器、粒子滤波器等方法进行状态估计和跟踪。
这些方法相对于基于特征的方法来说更加灵活和自适应,但对目标的运动模型假设要求较高。
其次,基于深度学习的目标跟踪算法近年来取得了重要进展。
深度学习可以通过大量数据的训练和学习,实现对目标的自动定位和跟踪。
其中,卷积神经网络(CNN)在目标跟踪中得到广泛应用。
通过将目标图像输入CNN网络,在网络的输出层获得目标的位置和边界框信息。
随着深度学习的不断发展,出现了一些基于深度学习的目标跟踪算法的改进和创新。
例如,多目标跟踪算法可以同时跟踪多个目标,提升了跟踪效果。
而端到端目标跟踪算法则是将目标跟踪作为一个整体的任务,通过深度学习模型直接输出目标的位置和特征。
除了算法本身的改进,目标跟踪的实现还需要考虑实时性、鲁棒性和精度等方面的问题。
在实时性的考虑上,目标跟踪算法需要满足快速运算的需求,以适应实时应用场景的需要。
在鲁棒性的考虑上,算法需要具备对光照、目标形变、运动模糊等环境因素的适应能力。
如何利用深度学习算法进行图像目标定位随着深度学习技术的快速发展,图像目标定位的准确性和效率得到了大幅提升。
深度学习算法能够通过自动学习和表示来识别和定位图像中的目标。
本文将介绍如何利用深度学习算法进行图像目标定位。
首先,为了进行图像目标定位,我们需要一些训练数据。
训练数据是由包含目标物体和其对应位置的图像组成的数据集。
这些数据集可以是手动标记的,也可以通过自动标记的方式生成。
接下来,我们需要选择适合的深度学习架构来进行目标定位。
在图像目标定位中,卷积神经网络(Convolutional Neural Network,CNN)是最常用的深度学习架构之一。
CNN具有良好的图像特征提取能力,能够有效地捕捉目标物体的特征。
在构建CNN模型时,我们可以选择预训练的模型作为基础网络,并在其基础上进行微调。
预训练的模型已经在大规模数据集上进行了训练,能够学习到通用的图像特征。
通过微调,在目标数据集上进行进一步训练,可以使模型更好地适应目标物体的特征。
为了训练CNN模型,我们需要定义适当的损失函数和优化算法。
常用的损失函数包括交叉熵损失函数和均方差损失函数。
交叉熵损失函数适用于分类任务,而均方差损失函数适用于回归任务。
优化算法的选择也是非常重要的,常用的优化算法包括随机梯度下降(Stochastic Gradient Descent,SGD)和自适应矩估计(Adaptive Moment Estimation,Adam)等。
在实际应用中,我们可以采用数据增强的方式来扩充训练数据集,提高模型的泛化能力。
数据增强可以通过图像旋转、翻转、缩放等方式对原始图像进行变换,生成更多的训练样本。
此外,还可以通过使用目标物体的上下文信息,如位置关系、语义信息等来提高模型的定位精度。
在进行图像目标定位时,我们还需要注意选择合适的评价指标来评价模型的性能。
常用的评价指标包括准确率、召回率和平均精确度均值(mean Average Precision,mAP)等。
光电技术应用序列图像轴对称物体中轴线提取方法魏敏1,2,吴国华1,2,周进1,吴钦章1(1.中国科学院光电技术研究所,四川成都610209;2.中国科学院研究生院,北京100039)摘要:针对轴对称目标三维姿态参数中的偏航角、俯仰角的提取问题,提出了一种自动提取目标中轴线方法。
该方法运用自适应Canny算子检测目标边缘,改进的Hough变换获得边缘图像中各条直线边缘的坐标点;通过优化的最小二乘算法将各条直线边缘的坐标点进行拟合获得边缘直线方程;结合序列图像中目标特性,检测出边缘直线中特定的两条平行直线进而获得目标的中轴线方程。
实验表明:该方法能够有效地、高精度地提取轴对称目标的中轴线,提取的中轴线平均角度误差为0.022 。
关键词:中轴线;Canny算子;改进Hough变换;边缘检测中图分类号:TN911.73 文献标识码:A 文章编号:1001-5868(2007)01-0143-04A New Method for Extracting Axes of Axes Symmetry Object through Seguent Optical ImagesWEI Min1,2,WU Guo-hua1,2,ZHOU Jin1,WU Oin-zhang1(1.Institute of Optics and Electronics,Chinese Academy of Sciences,Chengdu610209,CHN;2.Graduate School of Chinese Academy of Sciences,Beijing100039,CHN)Abstract:In order to measure the pitching angie and yaw angie of the axes symmetry object in three-dimension orientation,an automatic method of extracting the axes of the object has been presented.The edge points of the target have been detected through Canny operator,the support region points of aii the edge iine have been obtained by using the improved Hough transform,and the iine eguation has been caicuiated with the ieast sguare aigorithm.According to the characters of the target in the image,the specified paraiiei iine has been detected to get the eguation of the axes.Experimentai resuits show that this method can extract the axes of the axes symmetry object effectiveiy in high precision,and the mean error of the axes angie is0.022 .Key words:axes iine;Canny operator;improved Hough transform;edge detection1 引言在靶场试验中,测量火箭、导弹等目标在发射、飞行过程中的三维姿态对目标的优化设计,故障分析有重要意义。
山东农业大学学报(自然科学版),2023,54(5):691-699VOL.54NO.52023 Journal of Shandong Agricultural University(Natural Science Edition)doi:10.3969/j.issn.1000-2324.2023.05.008基于改进YOLOv5s的咖啡叶病虫害识别方法刘金涛,李双,李佳骏,蔺瑶,曾晏林,贺壹婷,杨毅*云南农业大学大数据学院,云南昆明650201摘要:为了提高咖啡的质量和产量,实现咖啡叶病虫害高效精准检测,本文提出了一种基于改进YOLOv5s的咖啡叶病虫害识别方法。
利用CARAFE上采样模块替换原始模型中的上采样模块,减少上采样过程中特征信息的损失,提升特征金字塔网络性能;在检测头前端引入GAM全局注意力机制,提取空间和通道不同维度的交互信息,增强病虫害的识别能力;用高效解耦头(Decoupled Head)替换原始耦合头区分回归和分类,加快模型收敛和提高检测精度;结果显示,改进后的模型准确率、召回率和平均精度均值分别为91.6%、86.0%、91.4%;比原始YOLOv5s平均精度均值提升了2.9%,精确度和召回率分别提升了3.1%、2.7%;与当前主流的Faster R-CNN、SSD、YOLOv4-tiny、YOLOX 和YOLOv7等模型相比,平均精度均值分别提升了8.2%、20.2%、37.7%、5.9%、9.7%。
本文的方法对咖啡叶病虫害检测具有较高的准确率,可以为咖啡叶病虫害检测提供参考和依据。
关键词:咖啡;病虫害;YOLOv5s中图法分类号:TP391.4文献标识码:A文章编号:1000-2324(2023)05-0691-09 Coffee Leaf Diseases and Insect Pests Identification Method Basedon Improved YOLOv5sLIU Jin-tao,LI Shuang,LI Jia-jun,LIN Yao,ZENG Yan-lin,HE Yi-ting,Y ANG Yi* College of Big Data/Yunnan Agricultural University,Kunming650201,ChinaAbstract:In order to improve the quality and yield of coffee and detect coffee leaf pests and diseases efficiently and accurately,we studied the method based on improved YOLOv5s.CARAFE up-sampling module is used to replace the up-sampling module in the original model to reduce the loss of feature information in the sampling process and improve the performance of the feature pyramid network.The GAM global attention mechanism was introduced at the front end of the detection head to extract the interactive information of different dimensions of space and channel to enhance the pests and diseases identification ability.The efficient decoupling head replaced the original coupling head to distinguish regression and classification to improve model convergence and detection accuracy.The results show that the average accuracy,recall and average accuracy of the improved model are89.6%,86.0%and91.4%,pared with the average accuracy of the original YOLOv5s,the average accuracy is increased by2.9%,and the accuracy and recall rate are increased by3.1%and 2.7%,pared with the current mainstream models such as Faster R-CNN,SSD,YOLOv4-tiny,YOLOX and YOLOv7,the average accuracy is increased by8.2%,20.2%,37.7%,5.9%and9.7%,respectively.Our method has a high accuracy rate for coffee leaf diseases and insect pests detection,and can provide a reference and basis for the detection of coffee leaf diseases and insect pests.Keywords:Coffee;diseases and pests;YOLOv5s咖啡树是一种经济价值极高的热带经济作物和饮料作物,位居世界三大饮料作物之首[1,2]。
基于YOLOv5s目标检测算法的研究作者:马琳琳马建新韩佳芳李雅迪来源:《电脑知识与技术》2021年第23期摘要:近几年,环境污染依然是人们非常关注的话题,而生活垃圾的快速收集处理,能够有效地减少环境的污染。
因此,智能垃圾收集机器人的研究与发展是非常必要的,它可以代替人们完成大量垃圾收集的工作。
基于此,研究了一种YOLOv5s目标检测算法,先对目标进行合理的标注,接着进行有效的算法训练,然后算法测试,最后得到目标检测算法的模型,进而可以快速检测识别目标。
关键词: YOLOv5s;目标检测;目标标注;算法训练;算法测试中图分类号:TP391 文献标识码:A文章编号:1009-3044(2021)23-0100-04Abstract:In recent years, environmental pollution is still a topic of great concern. It is necessary to collect and treat domestic waste quickly, which can effectively reduce environmental pollution. Therefore, the research and development of intelligent garbage collection robot is very necessary, it can replace people to complete a lot of garbage collection work. Based on this, a yolov5s target detection algorithm is studied. Firstly, the target is labeled reasonably, then the algorithm is trained effectively, and then the algorithm is tested. Finally, the model of the target detection algorithm is obtained, and then the target can be detected and recognized quickly.Key words:YOLOv5s; target detection; target labeling; algorithm training; algorithm testing1 引言近幾年,我国对环境治理方面越来越重视。
融合边缘特征的MeanShift跟踪算法史宝明;贺元香;邢玉娟【摘要】经典MeanShift跟踪算法通常用颜色特征进行跟踪,算法简单、速度快、跟踪效果较好,但用单一的颜色特征描述跟踪目标,当背景颜色和目标颜色接近时易受干扰,导致跟踪失败,鲁棒性较差.文中提出了一种融合边缘特征的MeanShift跟踪算法,用颜色和边缘特征来共同描述目标,根据特征对目标与背景的区分能力进行自适应特征选择跟踪.实验结果表明:文中提出的算法抗干扰性能更强,具有更好的鲁棒性.【期刊名称】《兰州文理学院学报:自然科学版》【年(卷),期】2015(029)006【总页数】5页(P48-52)【关键词】目标跟踪 Mean Shift算法颜色特征边缘特征【作者】史宝明;贺元香;邢玉娟【作者单位】兰州文理学院数字媒体学院,甘肃兰州730000【正文语种】中文【中图分类】TP391目标跟踪是在一段视频图像序列中的每幅图像中找出感兴趣的目标所在的位置,是计算机视觉领域和图像处理领域的重要研究方向之一.它在视频监控、智能交通系统、基于目标的视频压缩、人机交互、医学图像、视觉重构等领域有广泛的应用.在诸多的目标跟踪算法中,Meanshift算法由于其原理简单,易于实现,实时性好,且有较好的跟踪性能,对边缘遮挡、背景运动、目标变化、目标旋转都不敏感,近年来受到广泛的关注.Meanshift算法是一种基于特征概率密度统计的建模方法.在目标跟踪过程中,通常由用户在视频序列的第一帧图像中选定目标区域,并采用核函数建立其相应的目标直方图.在后续帧中迭代地搜索目标模型的最佳候选区域.这种方法使得该算法在目标跟踪中对边缘遮挡、背景运动、目标变化、目标旋转等具有鲁棒性,有较好的跟踪性能.但当目标颜色和背景颜色相同或有多个与目标颜色相同的区域时,会导致该算法跟踪性能下降.Meanshift这个概念[1]提出后的很长一段时间内,并没有受到人们的重视,直到Comaniciu等人[2,3]把Meanshift运用到特征空间的分析,该算法才开始受到人们关注.文献[2]和文献[3]成功证明了Meanshift算法在满足一定条件下一定可以收敛到最近的一个概率密度函数的稳态点,因此可用来检测概率密度函数中存在的模态.之后学者们纷纷提出了很多改进的算法.文献[4]通过对跟踪目标的颜色进行聚类分析来自适应地划分目标的颜色空间,以改进Meanshift算法.文献[5]实现了对仿射变换或相似性变换目标的跟踪.文献[6]用帧差法来检测运动区域,用Kalman滤波预测的方法挑选可信区域进行Meanshift颜色相似度检测,来减少算法的搜索迭代次数.文献[7]利用AdaBoost组合弱分类器进行自适应特征融合,在产生的信任映射图上利用Meanshift跟踪目标,但该方法的实时性较差.文献[8]建立以一种自适应空间颜色直方图的方法实现跟踪,并根据各块的相似度大小,确定权重系数.在文献[9]中,引入颜色、文理、灰度等多个特征进行自适应特征融合计算,来提高跟踪的抗干扰能力和跟踪精度,但算法对目标完全遮挡的情况没有研究.文献[10]在特征选取上融合了传统的颜色直方图以及基于LBP表示的纹理特征,将跟踪目标分割成多个带权值的互不遮挡的矩形分块进行跟踪,较好的实现了目标遮挡和姿势改变的问题.受文献[6-10]的启发,本文提出了一种融合边缘特征的Meanshift 跟踪算法,采用颜色核函数直方图和边缘方向核函数直方图共同描述跟踪目标,根据目标与背景的特征值概率分布,利用概率距离计算特征对目标与背景的区分度对颜色和边缘特征融合进行跟踪,取得了较好的跟踪效果.本节定义目标模型、候选目标模型和相似性函数.跟踪目标用颜色特征和纹理特征的概率密度值(Poobability Density Function, PDF)共同来描述,目标模型通常在视频的第1帧图像上建立,候选模型从后续的其它帧建立.相似性函数用来度量目标模型和候选目标模型的相似度.通常目标区域的中心位置定义在原点,候选区域的中心位置在y处,于是可得到目标模型:其中u1}是颜色特征的u2}是边缘特征的PDF,m1为颜色特征的bin值,m2为边缘特征的bin值.同理可得到候选模型:用}j=1,…,n表示基于颜色特征的目标区域的归一化像素位置,k(x)为目标加权核函数,定义函数)∶R2→{1,…,mi}表示位置坐标处映射于第i个特征空间中的特征值,于是可计算:其中σ是冲击函数,C是归一化常量.设}j=1,…,nh表示候选区域的归一化像素位置,使用和上述相同的核函数k(x),候选区域的宽度为h,Ch为归一化常量.则可计算候选区域的PDF:定义与(y)的相似性函数ui(y)],其值介于0到1之间,值越大,表示候选模型与目标模型越相似.计算分布和的距离:其中为巴氏系数,取值介于0到1之间,当值越大,d(y)值就越小,目标模型和候选模型越相似.根据(5)式定义融合颜色和边缘特征的距离:其中为巴氏系数,k1,k2为自适应特征权重系数,并满足k1+k2=1.目标定位就是在新的一帧中要找出目标区域的中心位置.以前一帧的中心坐标0作为当前帧中目标区域的起始点,在其领域内进行目标搜索.要使搜索候选目标相似度最大化,则(4)式中的2(y)dy 应取得最大值.对i(y)在点0处进行泰勒展开可得:将(4)式代入(5)式可得:其中观察(8)式,发现式中的第一项为常数,主要分析第二项.令:根据微积分原理,对(10)式求梯度寻找最大值点,在这个过程中,当前帧中目标候选区域的中心坐标从0逐渐迭代至新位置1处.计算公式为:式中g(x)=-k′(x),k1+k2=1,上式即为基于颜色和边缘特征融合的目标定位公式.在目标跟踪过程中,随着目标与背景的动态变化,某一个特征的区分度也会随着变化,在一些状态,颜色特征的区分度会较小,而在有些状态下,边缘特征的区分度会较小.通过研究表明,颜色特征和边缘特征可以形成很好的互补[9].本文采用文献[9]的特征融合方法,根据目标与背景的特征值概率分布,利用概率距离计算特征对目标与背景的区分度,从而对颜色和边缘特征进行融合.上一节对目标跟踪定位和特征融合进行了推导和分析,本节给出融合边缘特征的Meanshift跟踪算法.算法的具体步骤如下:(1)初始化:根据(1)式,在视频序列第一帧中建立目标模型,确定初始位置0;(2)在当前帧中用0初始化候选目标位置,由式(4)计算0),初始化迭代次数n=0,由式(6)计算;(3)根据式(9),导出权值系数{wiji=1,…,nk,j=1,…,nh};(4)根据式(11),计算出候选目标的新位置1;(5)根据式(4)计算,并由式(6)计算(6)当时,将赋值给,并重新计算;(7)设定阈值ε和最大迭代次数N,当‖0‖<ε或n>N时,终止本次迭代,并将1赋值给0,迭代次数n的值增1,转到第(2)步进行下一次迭代.本节对算法进行了实现,并对算法的性能进行分析.运行环境为VS2013+OpenCV2.4.8,计算机配置为Intel(R) Core(TM) i5-2450M***********,内存4GB.算法使用的RGB颜色模型的量化空间bin值为16×16×16,边缘特征空间的bin值为32.实验中对本文提出的算法与经典的MeanShift跟踪算法的实验结果进行比较.文中提出的算法采用颜色核函数直方图和边缘方向核函数直方图共同描述跟踪目标,而经典的MeanShift跟踪算法仅采用颜色核函数直方图描述跟踪目标.实验采用的验证视频图像大小为320×240,视频序列帧数为53帧,跟踪的目标对象为校园中拍摄的行人,目标初始大小为40×100.图1为本文提出的算法跟踪行人的实验结果,图2为经典的MeanShift算法跟踪行人的实验结果.可以看出,在图像序列的1到26帧,场景中只有单个行人即跟踪目标,从27帧开始,场景中有行人进入,并对跟踪目标进行干扰.根据实验结果,文中提出的算法在跟踪目标对象时,跟踪精度比经典MeanShift算法较高,特别是从第42帧以后,由于其他行人对象的干扰,经典MeanShift算法出现跟丢的情况,导致跟踪失败,而文中提出的算法由于融合了边缘特征,因此仍然能进行准确的跟踪。
基于视觉运动目标跟踪技术分析陈曦;殷华博【摘要】计算机视觉研究的主要问题之一是运动物体的检测与跟踪.它将图像处理、模式识别、自动控制、人工智能和计算机等很多领域的先进技术结合在了一起,主要应用在军事视觉制导、视频监控、医疗诊断和智能交通等各个方面,因此该技术已经成为一个重要的研究方向.阐述了视觉跟踪算法的研究现状和视觉跟踪算法的种类,研究了基于区域的跟踪算法、基于模型的跟踪算法、基于特征的跟踪算法和基于主动轮廓的跟踪算法,探讨了视觉跟踪算法的未来研究方向.【期刊名称】《无线电工程》【年(卷),期】2011(041)006【总页数】4页(P22-24,39)【关键词】计算机视觉;视觉跟踪;均值漂移【作者】陈曦;殷华博【作者单位】石家庄铁路运输学校,河北,石家庄,050081;河北远东哈里斯通信有限公司,河北,石家庄,050081【正文语种】中文【中图分类】TP391.40 引言计算机视觉是人工智能的一个重要分支,其研究目的就是用计算机代替人对环境和景物进行感知、解释和理解。
计算机视觉的研究融合了图像处理、模式识别、人工智能和自动控制等多方面的知识。
基于视觉的目标跟踪技术在许多方面都有着广泛的应用。
因此研究基于视觉的运动目标的检测和跟踪具有很重要的现实意义和应用价值。
视觉分析一般步骤包括视觉检测(Visual Detection)、视觉跟踪(Visual Tracking)和视觉理解(Visual Understanding)[1]。
1 运动目标跟踪运动目标的跟踪,即通过目标的有效表达,在图像序列中寻找与目标模板最相似候选目标区位置的过程。
简单来说就是在序列图像中为目标定位。
1.1 运动目标的有效表达除了对运动目标建模外,目标跟踪中常用到的目标特性表达主要包括视觉特征(图像边缘、轮廓、形状、纹理、区域)、统计特征(直方图、各种矩特征)、变换系数特征(傅里叶描绘子、自回归模型)和代数特征(图像矩阵的奇异值分解)等[2]。
学校代码***** 学号************ 分类号TP391 密级公开硕士学位论文基于稀疏表示的目标跟踪算法研究学位申请人邵豪指导教师张莹副教授学院名称信息工程学院学科专业控制科学与工程研究方向机器视觉与智能信息处理二○一八年六月四日Research on Target Tracking Algorithm Based on Sparse RepresentationCandidate Shao HaoSupervisor Associate Prof. Zhang YingCollege College of Information EngineeringProgram Control Science and EngineeringSpecialization Machine vision and intelligent information processing Degree Master of EngineeringUniversity Xiangtan UniversityDate Jun, 2018摘要目标跟踪就是在连续的视频序列中,建立所要跟踪物体的位置关系,得到物体完整的运动轨迹,目前广泛应用于军事导航、城市智能交通管控、视频监控以及人机交互等方面。
在目标运动的过程中,会出现姿态或形状的变化、尺度的变化、背景遮挡或光线亮度的变化等情况,降低了跟踪算法的准确率,构建一个性能高效、稳定的适应强的追踪算法是当前跟踪领域的一大难题。
为解决目标跟踪过程中出现的目标丢失及提高跟踪效率,本文做了以下研究:(1)为提高计算速率,减小背景信息的干扰并增强稀疏表示跟踪模型性能,提出了一种利用分段加权函数构建的反向稀疏跟踪算法,将跟踪问题转化为在贝叶斯框架下寻找概率最高的候选对象问题,通过构造不同的分段权重函数分别度量候选目标与正负模板的判别特征系数。
利用池化降低跟踪结果的不确定性干扰,选择正模板与负模板相减得到的最大差值系数所对应的候选表示作为当前跟踪结果。