基于增强Tiny YOLOV3算法的车辆实时检测与跟踪
- 格式:pdf
- 大小:2.20 MB
- 文档页数:8
I. 概述智慧交通系统是目前智能城市建设中的重要组成部分,而智慧车辆监控系统则是其中的重要一环。
基于yolo算法的智慧车辆监控系统通过实时监测和识别车辆及其行为,能够有效提升交通管理的效率和安全水平,为城市交通管理提供了新的可能性。
本文将从系统架构设计、yolo算法原理、系统应用场景等方面进行详细介绍,并探讨其在智慧交通系统中的潜在应用。
II. 系统架构设计1. 数据采集层智慧车辆监控系统的数据采集层包括摄像头、传感器、雷达等设备,通过这些设备可以实时获取路面车辆的信息数据。
2. 数据处理层数据处理层主要通过数据预处理和特征提取等方法,对原始数据进行处理和分析,为后续的车辆识别和行为分析提供支持。
3. 车辆识别层车辆识别层采用yolo算法进行实时车辆检测和识别,能够快速准确地识别路面车辆的类型和位置信息。
4. 数据存储与分析层数据存储与分析层主要对识别出的车辆信息进行存储和分析,并可以根据需要生成相应的报表或分析结果。
III. yolo算法原理yolo(You Only Look Once)算法是一种基于卷积神经网络的目标检测算法,采用单个神经网络直接在全图上预测边界框和类别概率。
相较于传统的目标检测算法,yolo算法能够实现实时高效的目标检测和识别。
1. 网络结构yolo算法的网络结构主要由卷积层、池化层和全连接层组成,其中卷积层用于提取图像特征,池化层用于降低数据维度,全连接层用于进行目标的分类和定位。
2. 目标检测yolo算法通过将整个图像划分为多个网格单元,每个网格单元负责检测图像中的目标,同时预测目标的边界框和类别概率,从而实现对目标的快速检测和识别。
IV. 系统应用场景1. 交通管理智慧车辆监控系统可以通过对路面车辆的监测和识别,实现对交通状况的实时监控和分析,为交通管理部门提供有力的数据支持。
2. 交通安全系统可通过实时监测车辆的行为,及时发现危险驾驶行为,预防交通事故的发生,提升交通安全水平。
《基于深度学习的车辆目标检测》篇一一、引言随着科技的快速发展,深度学习在计算机视觉领域的应用越来越广泛,特别是在车辆目标检测方面。
车辆目标检测是智能交通系统、自动驾驶、安防监控等众多领域的重要技术之一。
本文旨在探讨基于深度学习的车辆目标检测技术的相关内容、研究现状、发展及应用,为相关研究与应用提供参考。
二、车辆目标检测相关内容概述车辆目标检测是指利用图像处理技术,从图像或视频中检测出车辆的目标位置。
传统的车辆目标检测方法主要依赖于人工设计的特征提取器,如SIFT、HOG等。
然而,这些方法在复杂环境下的检测效果并不理想。
近年来,随着深度学习技术的发展,基于深度学习的车辆目标检测方法逐渐成为研究热点。
三、深度学习在车辆目标检测中的应用深度学习通过构建多层神经网络,可以自动学习图像中的特征,从而提高车辆目标检测的准确性和鲁棒性。
目前,基于深度学习的车辆目标检测方法主要包括基于区域的方法和基于回归的方法。
1. 基于区域的方法:该方法首先在图像中生成一系列候选区域,然后利用卷积神经网络对候选区域进行分类和回归。
代表性算法有R-CNN系列(R-CNN、Fast R-CNN、Faster R-CNN等)。
2. 基于回归的方法:该方法直接从图像中回归出车辆的位置和大小。
代表性算法有YOLO系列(YOLOv1、YOLOv2、YOLOv3等)和SSD等。
四、深度学习车辆目标检测的研究现状目前,基于深度学习的车辆目标检测在学术界和工业界都取得了显著的进展。
一方面,研究人员不断改进神经网络结构,提高模型的性能;另一方面,研究人员也关注模型的实时性和鲁棒性。
此外,针对不同场景和需求,研究人员还提出了许多具有针对性的算法和模型。
五、深度学习车辆目标检测的挑战与展望尽管基于深度学习的车辆目标检测取得了显著的成果,但仍面临一些挑战和问题。
首先,在复杂环境下,如光照变化、遮挡、多尺度等情况下,车辆的准确检测仍然具有一定的难度。
其次,实时性和鲁棒性也是亟待解决的问题。
《基于深度学习的雾天环境车辆检测》一、引言随着深度学习技术的飞速发展,其在计算机视觉领域的应用日益广泛。
在复杂的自然环境中,如雾天环境下的车辆检测,一直是智能交通系统的重要研究课题。
本文旨在探讨基于深度学习的雾天环境车辆检测技术,提高车辆检测的准确性和实时性。
二、相关背景及技术发展近年来,随着深度学习技术的快速发展,其在计算机视觉领域的应用已经取得了显著的成果。
其中,卷积神经网络(CNN)在目标检测任务中表现出了强大的性能。
针对雾天环境下的车辆检测,传统的图像处理技术和机器学习方法往往难以应对能见度低、图像模糊等挑战。
而基于深度学习的目标检测算法,如Faster R-CNN、YOLO等,通过学习大量数据中的特征,能够在复杂环境下实现准确的车辆检测。
三、深度学习在雾天环境车辆检测的应用(一)算法原理基于深度学习的雾天环境车辆检测算法主要通过训练大量的图像数据,学习车辆在各种环境下的特征。
在训练过程中,算法会提取图像中的特征信息,如颜色、形状、大小等,并通过卷积神经网络进行特征学习和分类。
在测试阶段,算法会将输入的图像与已学习的特征进行匹配,从而实现对车辆的准确检测。
(二)算法实现在实际应用中,我们采用了YOLOv5算法进行雾天环境下的车辆检测。
YOLOv5是一种基于深度学习的实时目标检测算法,具有较高的检测速度和准确率。
我们首先收集了大量的雾天图像数据,并对数据进行预处理和标注。
然后,我们使用YOLOv5算法对数据进行训练,学习车辆在雾天环境下的特征。
最后,我们将训练好的模型应用于实际场景中,实现对车辆的准确检测。
四、实验与分析为了验证算法的有效性,我们进行了多组实验。
实验中,我们分别在不同的雾天环境下进行车辆检测,并对算法的准确率、召回率、误检率等指标进行评估。
实验结果表明,基于深度学习的雾天环境车辆检测算法在各种环境下均能实现较高的准确率和召回率,同时误检率较低。
与传统的图像处理技术和机器学习方法相比,基于深度学习的算法在雾天环境下的车辆检测中具有明显的优势。
第51卷 第3期 激光与红外Vol.51,No.3 2021年3月 LASER & INFRAREDMarch,2021 文章编号:1001 5078(2021)03 0285 07·激光应用技术·基于注意力机制的实时车辆点云检测算法赖坤城1,赵 津2,刘 畅1,刘子豪1,王玺乔1(1.贵州大学机械工程学院,贵州贵阳550025;2.贵州大学现代制造技术教育部重点实验室,贵州贵阳550025)摘 要:针对现有激光点云目标检测效果、实时性差的问题,提出了一种基于注意力机制的实时车辆点云检测算法。
本文所提出的检测算法将注意力机制算法与YOLOv3相结合,利用注意力机制对点云鸟瞰图的特征进行权重分配,以学习不同通道和空间下特征的相关性,并通过CIOUloss和Focalloss来改进检测器的损失函数。
实验结果表明基于注意力机制的车辆点云检测算法检测速度可达30帧/秒,车辆目标的平均检测精度达到了92 5%。
并且在实车数据测试中,该算法能快速准确的对一定范围内车辆进行准确识别,并且达到实时检测效果。
关键词:车辆检测;注意力机制;YOLOv3;CIOUloss中图分类号:TP391 4 文献标识码:A DOI:10.3969/j.issn.1001 5078.2021.03.005VehiclepointclouddetectionalgorithmbasedonattentionmechanismLAIKun cheng1,ZHAOJin2,LIUChang1,LIUZi hao,1WANGXi qiao1(1.SchoolofMechanicalEngineering,GuizhouUniversity,Guiyang550025,China;2.KeylaboratoryofAdvancedManufacturingTechnology,MinistryofEducation,Guiyang550025,China)Abstract:Aimingattheproblemofpoordetectioneffectandreal timeperformanceofexistinglaserpointcloudtar get,areal timevehiclepointclouddetectionalgorithmbasedonattentionmechanismisproposed.Thedetectionalgo rithmproposedinthispapercombinestheattentionmechanismalgorithmwithYOLOv3,usestheattentionmechanismtodistributetheweightofthefeaturesofthebird′s eyeviewofthepointcloud,soastolearnthecorrelationofthefea turesindifferentchannelsandspaces,andimprovesthelossfunctionofthedetectorthroughCIOUlossandfocalloss.Theexperimentalresultsshowthatthedetectionspeedofthevehiclepointclouddetectionalgorithmbasedontheat tentionmechanismcanreach30f/s,andtheaveragedetectionaccuracyofthevehicletargetcanreach92.5%.Intherealvehicledatatest,thealgorithmcanquicklyandaccuratelyidentifyvehiclesinacertainrange,andachievereal timedetectioneffect.Keywords:vehicledetection;attentionmechanism;YOLOv3;CIOUloss基金项目:国家自然科学基金(No.51965008);黔科合重大专项(No.[2019]3012);贵州省优秀青年科技人才项目(No.[2017]5630)资助。
第13卷㊀第4期Vol.13No.4㊀㊀智㊀能㊀计㊀算㊀机㊀与㊀应㊀用IntelligentComputerandApplications㊀㊀2023年4月㊀Apr.2023㊀㊀㊀㊀㊀㊀文章编号:2095-2163(2023)04-0147-05中图分类号:TP389.1文献标志码:A基于双目视觉的车辆检测跟踪与测距郭鹏宇(上海工程技术大学机械与汽车工程学院,上海201620)摘㊀要:由于道路上存在各种不安全因素,车辆检测跟踪并测距是自动驾驶技术的重要组成部分㊂本文将YOLOv4-tiny作为检测器使之加快模型检测速度且更适合在车辆嵌入式设备中使用㊂考虑到目标检测失败的情况,本文在历史缓冲区中存储以前的跟踪细节(唯一ID)和每个对象的相应标签,提出了一个基于中值的标签估计方案(MLP),使用存储在前一帧的历史标签的中值来预测当前帧中对象的检测标签,使得跟踪错误最小化,并用双目摄像头获取图像检测车辆距离㊂测试新网络结构后,检测精度(MeanAveragePrecision,mAP)为80.14%,检测速度较YOLOv4相比提高了184%,检测到的距离误差平均在0.5%左右㊂关键词:YOLOv4-tiny;目标跟踪;中值算法;双目测距Vehicledetection,trackingandrangingbasedonbinocularvisionGUOPengyu(SchoolofMechanicalandAutomotiveEngineering,ShanghaiUniversityofEngineeringScience,Shanghai201620,China)ʌAbstractɔDuetovariousunsafefactorsontheroad,vehicledetection,trackingandrangingaretheimportantpartofautomaticdrivingtechnology.Inthispaper,YOLOv4-tinyisusedasadetectortospeedupmodeldetectionandismoresuitableforvehicleembeddeddevices.Consideringthefailureofobjectdetection,thispaperstorestheprevioustrackingdetails(uniqueID)andthecorrespondinglabelofeachobjectinthehistorybuffer,andproposesamedium-basedlabelestimationscheme(MLP),whichusesthemedianvalueofthehistorylabelstoredinthepreviousframetopredictthedetectionlabeloftheobjectinthecurrentframe,sothattrackingerrorsareminimized.Theimagesobtainedbybinocularcameraareusedtodetectvehicledistance.Aftertestingthenewnetworkstructure,thedetectionaccuracy(MeanAveragePrecision,mAP)is80.14%,thedetectionspeedis184%higherthanthatofYOLOv4,andthedetecteddistanceerrorisabout0.5%onaverage.ʌKeywordsɔYOLOv4-tiny;targettracking;medianalgorithm;binoculardistancemeasurement作者简介:郭鹏宇(1995-),女,硕士研究生,主要研究方向:智能网联汽车㊂收稿日期:2022-05-240㊀引㊀言在自动驾驶辅助系统中,基于传感器,采用车辆检测㊁跟踪㊁测距等一系列计算机视觉算法进行环境感知,辅助系统就能得到车辆周围信息,以保证驾驶员安全驾驶㊂基于视觉的车辆检测及测距系统主要应用在道路交通场景下,用于辅助检测前方目标以及进行距离预警,其性能好坏主要依赖于采用的车辆检测算法㊂目前,在使用相机进行目标检测时,多采用传统的机器视觉检测方法㊂对于前方车辆目标,该方法首先根据车辆的局部特征,如阴影㊁边缘纹理㊁颜色分布等特征生成感兴趣区域;然后利用对称特征等整体特征对感兴趣区域进行验证㊂在从产生感兴趣区域到验证感兴趣区域的过程中,为了达到实时检测的要求,一般需要对图像进行灰度化,并对灰度化后的图像进行阴影分割和边缘分析㊂因此,对于相机获得的图像,传统的机器视觉的车辆检测方法通常找到感兴趣区域的车辆的特点和梯度直方图特征(HOG[1]),SIFT[2]特征或Haar-like[3]特征通常用于获得前面的假设检验区域车辆,即ROI区域;此后用这些特征训练SVM[4]或Adaboost[5]车辆检测分类器,计算车辆图像的特征值,并根据车辆特征值的大小与前方车辆进行判断,得到前车的假设测试区域验证,完成对前车的检测㊂而上述传统的机器视觉检测方法本质上是通过人工选择特征进行识别和分类㊂在复杂场景中,人工特征的数量会呈几何级数增长,这对前面车辆的识别率也有很大的影响㊂这种方法更适合在某种特定场景下的车辆识别,因为其数据规模并不大,泛化能力则较差,很难实现快速和准确的复杂应用场景的检测㊂近年来,随着卷积神经网络(CNN)的应用,出现了许多算法㊂一阶段方法包括SSD[6]㊁YOLO系列[7-8]㊁RetinaNet[9]㊂两阶段方法包括FastR-CNN[10]和FasterR-CNN[11]㊂最近提出的最先进的YOLO-v4[12]具有很高的检测精度和检测速度㊂目前,对于多目标车辆轨迹跟踪技术主要可分为两大类㊂一类是传统方法,如利用背景差分法㊁帧差法㊁光流法等方法提取运动目标,传统方法部署方便,资源消耗低,但受先验知识限制,跟踪稳定性差,准确性不高㊂另一类是基于卷积神经网络的㊁称为深度学习的方法,深度学习方法可以学习更多的目标特征,能在连续的视频帧中检测出目标对象㊂深度学习方法精度高,但其计算量较大,实时性不高,因此,基于视频跟踪的车辆检测算法仍需改进㊂研究可知,基于视觉相机的测距方法主要有单目测距和双目测距两种㊂这2种方法的共同特点是通过相机采集图像数据,随后从图像数据中得到距离信息㊂单目检测方法的优点是成本低,缺点是对检测精度的依赖过大㊂此外,从实用的角度来看,在汽车上安装单目相机时,由于汽车的颠簸,汽车的俯仰角经常发生变化,导致精度显著下降㊂双目测距的方法是通过计算2幅图像的视差直接测量距离㊂1㊀车辆检测与跟踪本文使用的目标检测算法是YOLOv4-tiny,其中YOLO表示YouOnlyLookOnce,由Bochkovskiy等学者开发㊂YOLOv4-tiny是YOLOv4的压缩版本,虽在平均精度方面受到了影响,但却可以在低计算能力下高效运行㊂与未压缩版本的4个YOLO头相比,YOLOv4-tiny只使用了2个YOLO头,并使用了29个预训练卷积层作为基础㊂YOLO各变量参数设置见表1,卷积层各变量参数设置见表2㊂㊀㊀上一代YOLO的非maxpool抑制(NMS)等遗留特性和一些新特性㊁包括加权剩余连接(WRC)㊁Mosaic数据增强在内有效提高了算法在模糊图像中识别类的能力,降低了识别类所需的处理能力㊂YOLOv4-tiny提供了较高的帧率,同时具有中间地带平均精度与常用模型并列㊂在本文中,使用YOLOv4-tiny算法作为车辆的检测器,并且使用DeepSORT[13]算法作为初始车辆跟踪器㊂表1㊀YOLO各变量参数设置Tab.1㊀YOLOparametersettingsYOLO变量参数Mask0,1,2anchors10,14,㊀23,27㊀37,58㊀81,82㊀135,169㊀344,319classes4num6jitter0.3scale_x_y1.05cls_normalizer1.0iou_lossciouignore_thresh0.7truth_thresh1random0Resize1.5nms_kindgreedynmsbeta_nms0.6表2㊀卷积层各变量参数设置Tab.2㊀Theconvolutionlayerparametersettings卷积层变量参数batch_normalize1filters64size3stride2pad1activationleaky㊀㊀图1显示了2个ID及其前3个标签㊂对于ID#137的车辆,本文方法预测的标签用加黑来标记㊂[1255,739,1421,856][960,719,1006,758]车辆I D 137[1255,739,1421,859][955,721,1006,758][1255,739,1421,856][952,722,1006,758]目标检测标签1图1㊀应用MLP后的历史缓冲区示例图Fig.1㊀AhistorybufferexampleafterapplyingMLP841智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀㊀㊀本文使用历史缓冲区来调整和改进每个检测标签的视觉质量和在帧中的显示㊂如果有任何车辆检测标签缺失,那么本文的MLP为该车辆生产一个估计的检测标签㊂延时使用一系列的检测标签前存储在历史缓冲区来预测未检测到车辆的检测标签ID在给定的框架(见图1)㊂条件估计为特定车辆检测标签,标签ID应该至少在2个连续帧出现㊂为了预测缺失的检测标签,本文对当前帧t应用以下公式:Ñ=l(t-1)(i)-l(t-2)(i)(1)l(t)(i)=l(t-1)(i)+Ñ(2)㊀㊀这里,lxmin,ymin,xmax,ymax()表示每个车辆ID基于调整边界框标签的中值,Ñ表示边界框位置的变化从时间戳(t-2)到(t-1);i表示每辆车唯一的ID㊂2㊀双目测距双目视差示意如图2所示㊂由图2可知,2个摄像头的中心距是B,两个摄像头观察同一点P,P1的坐标为(X1,Y1),P2的坐标为(X2,Y2),由于2台相机始终是平行的,高度相同,所以在左右2张图像中P点的Y坐标是相同的,在X方向上存在视差㊂因此,可以通过标定相机内外参数来确定图像坐标与世界坐标之间的关系㊂双目视差原理如图3所示㊂PZ 2X 2P 2Z 1P 1O 2Y 2Y 1BC 2X 1O 1C 1x 1y 1y 2x 2图2㊀双目视差示意图Fig.2㊀SchematicdiagramofbinocularparallaxdfB aP RC RA RbP LX LX RPC LA L图3㊀双目视差原理图Fig.3㊀Principleofbinocularparallax㊀㊀图3中,CL和CR是2个摄像头的光学中心,摄像头之间的距离是b,相机的焦距为f,P点在左右图像的投影点为PlXl,Yl(),PrXr,Yr(),AL,PL=XL,AR,PR=XR,PR,B=a,从三角形相似关系可知:d-fd=aa+xRd-fd=b-xL+xR+ab+xR+a(3)㊀㊀由式(3)可知:a=bxRxL-xR-xR(4)㊀㊀由此,空间中P点到相机的距离为:d=fa+xRxR=bfxL-xR(5)㊀㊀P在相机坐标系中的三维坐标可以由几何关系得到:X=bxLxL-xRY=byxL-xRZ=bfᶄxL-xMìîíïïïïïïïï(6)㊀㊀对于车辆的测距,本文取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂3㊀实验结果与分析将YOLOv4-tiny与其他常用的目标检测算法进行比较,将其mAP与FPS进行比较,得到表3中的结果㊂本文提出的车辆检测与跟踪方法使用了TensorFlow库和基于YOLOv4-tiny模型的DeepSORT算法㊂经综合比较,使用YOLOv4-tiny的精度和检测速度是可以接受的,精度比YOLOv3-tiny高,速度比YOLOv4的方法更快㊂YOLOv4-tiny模型检测车辆效果如图4所示㊂表3㊀各模型帧率和mAP对比Tab.3㊀FramerateandmAPcomparison模型mAP/%帧率(FPS)YOLOv485.0814.12YOLOv4-tiny80.1440.11YOLOv383.3216.99YOLOv3-tiny69.0352.77941第4期郭鹏宇:基于双目视觉的车辆检测跟踪与测距图4㊀YOLOv4-tiny模型检测车辆效果Fig.4㊀CarsvideodetectionusingYOLOv4-tinymodel㊀㊀使用本文方法前后汽车的标签变化曲线如图5所示㊂对于ID#39的车辆,图5(a)是使用方法前,图5(b)是使用本文方法后,相同的汽车标签变得更加平滑㊂X (b o u n d i n g b o x 的中心)100200300400500600700800730720710700690680670Y (b o u n d i n g b o x 的中心)(a)使用本文方法前100200300400500600700800730720710700690680670X (b o u n d i n g b o x 的中心)Y (b o u n d i n g b o x 的中心)(b)使用本文方法后图5㊀使用本文方法前后汽车的标签变化Fig.5㊀Thelabelchangesbeforeandafterusingthemethodinthispaper㊀㊀在目标跟踪时,从历史缓冲区中预测缺失标签的方法往往会产生不好的结果,因为对象检测器的可视化结果经常显示不稳定和闪烁的边框标签㊂在应用本文的基于中值的算法后,可以得到高度稳定的标签㊂因此,本文方法提高了目标检测器的视觉性能,并为目标检测器和跟踪器提供了对缺失标签的更好估计㊂利用双目相机取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂仿真测试结果见表4㊂从距离测试的结果来看,测试精度相对较高,基本保持在0.5% 0.6%之间㊂表4㊀测量结果分析Tab.4㊀Themeasuredresultsanalysis实验组数测量距离/cm实际距离/cm误差/%11567.001559.110.503521655.001646.140.535331738.001729.160.508641893.001883.170.519351983.001971.200.595162236.002223.220.571672489.002475.260.55204㊀结束语本文介绍了一种用于自动驾驶的实时检测跟踪与测距系统㊂通过本文提出的实时同步方法,该系统方便了车辆实时同步检测;利用双目摄像头,YOLOv4-tiny和DeepSORT算法对车辆进行检测和跟踪,并提出中值标签预测方法优化跟踪效果,同时实现了对前方车辆的精确测距㊂整个系统在检测和测距方面取得了较高的精度和实时性㊂对于自动驾驶的应用,该系统可以结合许多智能技术,如目标预警㊁自动避障等㊂与此同时,该系统还有很大的改进空间㊂在检测方面,通过优化算法提高检测性能,通过训练更多类型的物体,如行人㊁非机动车等,为自动驾驶提供更多的道路信息㊂在这个系统中,测距是指从双目相机的中心到物体的距离㊂在实际情况下,车辆的具体位置到物体的距离可以根据相机的安装位置和车辆的实际长度来计算㊂通过优化双目测距算法,可以提高测距精度㊂参考文献[1]TAIGMANY,YANGMing,RANZATOMA,etal.DeepFace:Closingthegaptohuman-levelperformanceinfaceverification[C]//2014IEEEConferenceonComputerVisionandPatternRecognition.Columbus,OH,USA:IEEE,2014:1701-1708.[2]MAXiaoxu,GRIMSONWEL.Grimson.Edge-basedrichrepresentationforvehicleclassification[C]//TenthIEEEInternationalConferenceonComputerVision.Beijing:IEEE,2005:1185-1192.[3]XUQing,GAOFeng,XUGuoyan.Analgorithmforfront-vehicledetectionbasedonHaar-likefeature[J].AutomotiveEngineering,2013,35(4):381-384.(下转第157页)051智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀参考文献[1]SHIJianping,TAOXin,XULi,etal.Breakamesroomillusion:depthfromgeneralsingleimages[J].ACMTransactionsonGraphics(TOG),2015,34(6):1-11.[2]YANGDong,QINShiyin,Restorationofdegradedimagewithpartialblurredregionsbasedonblurdetectionandclassification[C]//IEEEInternationalConferenceonMechatronicsandAutomation.Beijing,China:IEEE,2015:2414–2419.[3]ABBATEA,ARENAR,ABOUZAKIN,etal.Heartfailurewithpreservedejectionfraction:refocusingondiastole[J].InternationalJournalofCardiology,2015,179:430-440.[4]LYUW,LUWei,MAMing.No-referencequalitymetricforcontrast-distortedimagebasedongradientdomainandHSVspace[J].JournalofVisualCommunicationandImageRepresentation,2020,69:102797.[5]YIXin,ERAMIANM.LBP-basedsegmentationofdefocusblur[J].IEEETransactionsonImageProcessing,2016,25(4):1626-1638.[6]GOLESTANEHSA,KARAMLJ.Spatially-varyingblurdetectionbasedonmultiscalefusedandsortedtransformcoefficientsofgradientmagnitudes[C]//IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Honolulu,Hawaii:IEEE,2017:596-605.[7]SUBolan,LUShijian,TANCL.Blurredimageregiondetectionandclassification[C]//Proceedingsofthe19thACMinternationalconferenceonMultimedia.ScottsdaleArizona,USA:ACM,2011:1397-1400.[8]SHIJianping,XULi,JIAJiaya.Discriminativeblurdetectionfeatures[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.Columbus,USA:IEEE,2014:2965-2972.[9]TANGChang,WUJin,HOUYonghong,etal.Aspectralandspatialapproachofcoarse-to-fineblurredimageregiondetection[J].IEEESignalProcessingLetters,2016,23(11):1652-1656.[10]王雪玮.基于特征学习的模糊图像质量评价与检测分割研究[D].合肥:中国科学技术大学,2020.[11]CHENQifeng,LIDingzeyu,TANGCK,etal.KNNMatting[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2013,35(9):2175-2188.[12]OJALAT,PIETIKAINENM,MAENPAAT.Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(7):971-987.[13]ACHANTAR,SHAJIA,SMITHK,etal.SLICsuperpixelscomparedtostate-of-the-artsuperpixelmethods[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(11):2274-2282.[14]WANGJingdong,JIANGHuaizu,YUANZejian,etal.Salientobjectdetection:Adiscriminativeregionalfeatureintegrationapproach[J].InternationalJournalofComputerVision,2017,123:251-268.[15]ZHAOMinghua,LIDan,SHIZhenghao,etal.BlurfeatureextractionplusautomaticKNNmatting:Anoveltwostageblurregiondetectionmethodforlocalmotionblurredimages[J].IEEEAccess,2019,7:181142-181151.[16]OTSUN.Athresholdselectionmethodfromgray-levelhistograms[J].IEEETransactionsonSystems,Man,andCybernetics,1979,9(1):62-66.[17]GASTALESL,OLIVEIRAMM.Domaintransformforedge-awareimageandvideoprocessing[J].Eurographics,2010,29(2):753-762.(上接第150页)[4]KAZEMIFM,SAMADIS,POORREZAHR,etal.VehiclerecognitionusingcurvelettransformandSVM[C]//Proc.ofthe4thInternationalConferenceonInformationTechnology.LasVegas,NV,USA:IEEE,2007:516-521.[5]FREUNDY,SCHAPIRERE.Adecision-theoreticgeneralizationofon-linelearningandanapplicationtoboosting[J].JournalofComputerandSystemSciences,1997,55:119-139.[6]LIUWei,ERHAND,SZEGEDYC,etal.SSD:Singleshotmultiboxdetector[C]//EuropeonConferenceonComputerVision(ECCV).Switzerland:Springer,2016:21-37.[7]REDMONJ,DIVVALAS,GIRSHICKR,etal.Youonlylookonce:Unified,real-timeobjectdetection[C]//IEEEConferenceonComputerVisionandPatternRecognition.LasVegas,NV,USA:IEEE,2016:779-788.[8]REDMONJ,FARHADIA.YOLOv3:Anincrementalimprovement[J].arXivpreprintarXiv:1804.02767,2018.[9]LINTY,GOYALP,GIRSHICKR,etal.Focallossfordenseobjectdetection[C]//IEEEInternationalConferenceonComputerVision(ICCV).Venice,Italy:IEEE,2017:2980-2988.[10]GIRSHICKR.FastR-CNN[C]//IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015:1440-1448.[11]RENShaoqing,HEKaiming,GIRSHICKR,etal.FasterR-CNN:Towardsrealtimeobjectdetectionwithregionproposalnetworks[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2016,39(6):1137-1149.[12]BOCHKOVSKIYA,WANGCY,LIAOHYM.YOLOv4:Optimalspeedandaccuracyofobjectdetection[J].arXivpreprintarXiv:2004.10934,2020.[13]AZHARMIH,ZAMANFHK,TAHIRNM,etal.PeopletrackingsystemusingDeepSORT[C]//10thIEEEInternationalConferenceonControlSystem,ComputingandEngineering(ICCSCE).IEEE,2020:137-141.751第4期李浩伟,等:基于LBP特征与图像显著性的散焦模糊区域检测。
基于机器学习的车辆目标检测与追踪研究车辆目标检测与追踪是自动驾驶技术中关键的研究领域之一。
随着机器学习算法的发展和计算硬件的提升,基于机器学习的方法在车辆目标检测与追踪中取得了明显的进展。
本文将针对基于机器学习的车辆目标检测与追踪进行研究,介绍相关方法和技术。
一、引言车辆目标检测与追踪技术在自动驾驶领域具有重要的应用价值。
车辆目标检测是指识别图像或视频中的车辆存在,并准确定位其位置,而车辆目标追踪是指在检测到的车辆基础上,进行连续的跟踪和预测。
二、基于机器学习的车辆目标检测基于机器学习的车辆目标检测方法可以分为两类:传统机器学习方法和深度学习方法。
1. 传统机器学习方法传统机器学习方法主要采用特征工程的方式,通过提取图像或视频中的各种特征,再通过分类器进行目标检测。
(1)特征提取在传统机器学习方法中,常用的特征提取方法包括Haar特征、边缘特征和HOG(Histogram of Oriented Gradients)特征等。
这些特征提取方法可以在图像或视频中提取到车辆的边缘、形状和纹理等信息。
(2)分类器在得到特征向量后,常用的分类器有支持向量机(SVM)、AdaBoost和随机森林等。
这些分类器可以通过训练样本来学习到车辆的特征模式,并进行目标检测。
2. 深度学习方法深度学习方法在车辆目标检测中取得了显著的进展。
它主要利用多层神经网络结构对图像或视频进行端到端的学习和特征提取。
(1)卷积神经网络(CNN)卷积神经网络是深度学习中最常用的网络结构之一。
它通过多层卷积和池化操作,自动学习到图像或视频中的特征信息。
在车辆目标检测中,常用的卷积神经网络结构有Faster R-CNN、YOLO和SSD等。
(2)循环神经网络(RNN)循环神经网络主要用于车辆目标的跟踪和预测。
通过记忆之前的状态信息,RNN可以在视频中实现车辆的连续追踪,并预测车辆的未来位置。
三、基于机器学习的车辆目标追踪基于机器学习的车辆目标追踪是车辆目标检测的延伸和细化,主要关注车辆的运动轨迹和未来预测。
基于YOLO算法的车辆实时检测近年来,随着人工智能技术的迅猛发展,计算机视觉领域取得了重大突破。
其中,YOLO(You Only Look Once)算法以其高效、准确的特点,成为目标检测领域的重要算法之一。
本文将探讨,分析其原理、应用场景以及挑战。
YOLO算法的原理是将整个图像划分为一个个网格单元,并预测每个单元中是否存在物体以及物体的类别和边界框信息。
相比其他目标检测算法,YOLO算法具有两个显著特点:速度快和准确率高。
YOLO算法能够在一张图片上实现实时物体检测,使其在自动驾驶、智能监控、交通管理等领域有广泛应用前景。
车辆实时检测是基于YOLO算法的一个重要应用场景。
在交通管理系统中,实时检测车辆可以帮助进行道路拥堵检测、违章抓拍、停车场管理等工作。
此外,在自动驾驶领域,车辆实时检测是无人驾驶的基础,能够实时感知周围环境并采取相应的驾驶决策。
在实现车辆实时检测的过程中,需要解决一些挑战。
首先,车辆的外观多样,尺寸不一,不同场景下的车辆形态差异较大,这给车辆检测带来了困难。
其次,车辆检测需要实时性,要求算法能够在较短的时间内完成目标检测任务。
此外,车辆实时检测还需要应对复杂的环境光照、天气条件以及遮挡等干扰因素。
为了满足实时检测的要求和解决上述挑战,研究者们不断对YOLO算法进行改进。
例如,在网络结构方面,YOLOv2和YOLOv3相继提出,通过改变网络结构和引入多尺度特征表示,进一步提高了目标检测的效果。
此外,一些研究还尝试结合其他领域的知识,如使用光流信息进行目标追踪,提高车辆检测的准确性。
除了算法的改进,数据集的质量和数量对于车辆实时检测也至关重要。
大规模的车辆数据集能够帮助训练检测模型,提高模型的鲁棒性和泛化能力。
同时,数据集应包含各种车辆类型、不同场景和光照条件下的样本,以模拟真实世界的情况,提高模型在实际应用中的效果。
在车辆实时检测应用中,YOLO算法已经取得了显著的成果。
例如,某城市交通管理系统通过对实时监控视频进行车辆检测,实现了交通拥堵实时预警和交通信号优化。
《交通场景下的车辆行人多目标检测与跟踪算法研究》篇一一、引言在现代化交通系统中,对于车辆行人多目标检测与跟踪的准确性以及效率,正变得愈发重要。
对于实现自动驾驶、交通流量分析以及事故预防等应用,多目标检测与跟踪技术发挥着至关重要的作用。
本文将深入探讨交通场景下的车辆行人多目标检测与跟踪算法的研究现状、方法和应用。
二、多目标检测与跟踪的背景和意义在复杂的交通场景中,对车辆和行人多目标进行检测和跟踪是计算机视觉领域的重要研究方向。
这种技术能够实时获取交通场景中的动态信息,为自动驾驶、智能交通系统等提供关键数据支持。
同时,通过多目标检测与跟踪技术,我们可以更好地理解交通流动态,预测可能的交通状况,以实现事故预防和交通优化。
三、多目标检测与跟踪算法研究现状目前,多目标检测与跟踪算法主要包括基于深度学习和传统计算机视觉的方法。
其中,基于深度学习的方法在处理复杂交通场景时表现出色。
例如,卷积神经网络(CNN)在特征提取和目标识别方面具有强大的能力,而循环神经网络(RNN)和长短期记忆网络(LSTM)等在序列数据处理中具有优势,可实现目标的持续跟踪。
四、车辆行人多目标检测算法研究车辆行人多目标检测是利用图像处理技术从交通场景中提取出车辆和行人等目标信息的过程。
常见的检测算法包括基于区域的方法、基于特征的方法以及基于深度学习的方法。
其中,基于深度学习的目标检测算法如Faster R-CNN、YOLO等在准确性和实时性方面表现出色。
这些算法能够自动学习目标的特征表示,从而实现对复杂交通场景中车辆和行人的准确检测。
五、车辆行人多目标跟踪算法研究多目标跟踪是在检测到目标的基础上,通过关联分析等方法实现对多个目标的持续跟踪。
常见的多目标跟踪算法包括基于滤波的方法、基于匹配的方法以及基于深度学习的方法。
其中,基于深度学习的方法通过学习目标的时空特征,实现更准确的跟踪。
同时,利用神经网络模型如Siamese网络等可以实现高效的在线学习和跟踪。
第14期2023年7月无线互联科技Wireless Internet TechnologyNo.14July,2023作者简介:崔瑞(1997 ),男,山东德州人,硕士研究生;研究方向:计算机科学技术㊂∗通信作者:贾子彦(1981 ),男,山西太原人,副教授,博士;研究方向:计算机科学,物联网㊂一种多摄像头车辆实时跟踪系统崔㊀瑞,贾子彦∗(江苏理工学院,江苏常州213000)摘要:随着城市人口的增加,越来越多的车辆使得城市的交通状况越来越复杂㊂针对传统的车辆检测中出现的跟踪车辆易丢失㊁跟踪精度低等问题,文章提出一种基于多摄像头的车辆实时跟踪检测方法,从多角度对运动车辆进行跟踪㊂在分析YOLOv5算法的基础结构后,文章针对车辆尺度变化大的特点,充分利用YOLOv5算法检测轻量化㊁速度快㊁实时性强的性质,并在此基础上利用多个摄像头之间的单应性矩阵来确定车辆位置的变化㊂结合颜色特征识别和车辆特征识别对车辆进行重识别,不仅提高了运行速度,而且满足了实时性和准确性的要求,有效解决跟踪车辆易丢失的问题,获得了较为成功的车辆实时跟踪效果㊂关键词:多摄像头;YOLOv5;单应性矩阵;特征识别中图分类号:TP391㊀㊀文献标志码:A0㊀引言㊀㊀随着城市现代化㊁智慧化进程不断加快,城市车辆的使用也越来越普遍,监控摄像随处可见㊂与此同时,车辆的系统管理正在向智能化过渡㊂多摄像头环境下的目标车辆的检测和跟踪已经日益引起高度重视,成为当下的研究热点㊂目前,智能视频监控主要有两大关键技术:一是对运动目标的识别跟踪;二是对目标行为的定义[1-2]㊂多摄像头车辆识别与跟踪是现代智能交通系统中研究的重点内容㊂在多摄像头的切换过程中,可能出现因目标车辆的外形检测发生变化导致错检㊁漏检的情况㊂尤其是在十字路口等事故高发地点,监控视频背景复杂㊁目标车辆遮挡等问题也对识别跟踪的准确度及误检率提出了巨大的挑战[3-4]㊂对于同一车辆在多摄像头重叠监控区域下的定位,不仅是区别于单一摄像头车辆的识别与定位,而且也是多个摄像头车辆的识别与定位的难点所在㊂对于同一车辆的识别既包括对同一车辆在不同摄像头监控区域下的匹配确定[5],同时也包括对车辆出现被遮挡状态时的判断,通过对车辆的行驶状态和被遮挡情况的分析判断,完成同一车辆在不同监控区域下的连续识别与跟踪㊂针对上述问题,本文提出一种多摄像头车辆实时跟踪系统㊂该方法首先采用车辆检测算法进行车辆的识别,同时结合多个摄像头之间的单应性矩阵来确定多个摄像头重叠区域下同一车辆的位置,然后结合HSV 颜色空间和车辆特征来进行车辆的匹配,提高车辆的识别匹配精度,最后将特征识别和全卷积网络的跟踪算法结合起来,实现多角度对车辆的实时跟踪㊂本文的应用场景以十字路口为主㊂本文提出的车辆跟踪流程如图1所示㊂图1㊀车辆跟踪流程1 多摄像头车辆识别与定位1.1㊀车辆检测模型㊀㊀YOLO算法系列在车辆检测方面有着非常显著的识别能力㊂近些年来,随着科技的发展和变迁, YOLO算法系列不断地更新换代,而YOLO系列近几年最新推出的YOLOv5模型则是更加适合当代工程和实际应用的需求㊂目前,YOLOv5算法有4个不同的版本,每个版本之间的网络结构有些许的差别[6]㊂本文采用的YOLOv5s算法是4个版本中网络最小的版本,主要以检测像车辆等之类的大目标为主㊂相对于其他的版本,YOLOv5s的检测速度快,识别准确度比其他算法高,非常适合在嵌入式设备中应用㊂本文对出现在交通视频中的各种交通车辆进行检测,选择YOLOv5s 结构进行研究㊂YOLOv5s网络主要有3个组成部分㊂(1)Backbone:提取特征的主干网络,主要用来提取图片中的信息以供后面的网络使用㊂常用的Backbone有resnet系列(resnet的各种变体)㊁NAS网络系列(RegNet)㊁Mobilenet系列㊁Darknet系列㊁HRNet系列㊁Transformer系列和ConvNeXt㊂主要结构包括focus㊁conv㊁bottle-neckcsp和空间金字塔层㊂(2)Neck(空间金字塔池化):它是通过将图像特征进行糅合并重新组合成一个新的网络结构,将提取到的图像特征传递到预测层㊂(3)Head:主要是针对图像的特征进行预测,然后生成检测框并且预测其类别㊂本文的车辆检测方案使用改进后的YOLOv5s检测算法对车辆数据集进行训练,并引入CA注意力机制,用改进后的检测模型对相关的车辆数据集进行测试,经过实验验证提高了检测精度,更好地完成车辆检测目标㊂1.2㊀多摄像头空间模型的确立㊀㊀单应性矩阵能够将十字路口4个摄像头之间的相互关系形象生动地表达出来,通过将拍摄到的同一车辆不同角度的图片进行像素坐标之间的变换,能够实现车辆在不同监控角度下的像素位置的转换,从而实现同一车辆在不同监控视角下的车辆位置的定位㊂在通常情况下,单应性矩阵一般采用人工标定的方法来进行特征点之间的匹配,但是由于人工标定会产生一定的误差,导致得出的单应性矩阵也存在一定的误差㊂因此,鉴于这一问题,本文采用精确的棋盘格来求取匹配点,结合张正友棋盘标定的方法,求取相对准确的单应性矩阵㊂首先,打印一张8ˑ8的黑白相间的棋盘方格;其次,将打印好的棋盘格放置在十字路口的中间,用4个方向的摄像头对其进行拍摄;然后,对4个视角下的棋盘格图片进行特征点的检测;最后,根据棋盘格中获取的匹配点求取4个摄像头之间的单应性矩阵㊂通过模拟十字路口4个摄像头同时对视野区域内的棋盘格上特征点求取单应性矩阵,对同一标定点在4个摄像头之间的空间位置进行定位㊂本文根据实际十字路口的环境,按照一定的比例搭建了十字路口的实际模型进行研究㊂本文采用UA-detrac车辆检测数据集与自建数据集进行三维空间模型构建,求取单应性矩阵㊂在自建数据库中,在模型上放置标记物进行标记,按照东西南北4个方向分别标定为1㊁2㊁3㊁4号摄像头,同时以第3摄像头为基准,分别求取1㊁2㊁4号摄像头与该摄像头的转换矩阵H13㊁H23㊁H43㊂自建数据库的标定如图2所示,红圈表示选取的特征匹配点㊂图2㊀人工标定图其他视角到该视角的转换矩阵为:H13=0.00020.00140.0025-0.00140.00840.0011-0.00120.00040.0001éëêêêùûúúúH23=0.0015-0.00230.0028-0.00430.00550.0012-0.0020-0.00280.0010éëêêêùûúúúH43=-0.00580.00140.0063-0.00940.00660.0066-0.001000.0010éëêêêùûúúú经过本文实验证明,与人为标定特征点求取单应性矩阵的方法相比,用棋盘标定通过特征点之间的匹配进行单应性矩阵的求取精度会更高,这是由于相对于人工标定,采用棋盘标定的方法,匹配点的数量更多,相互之间匹配点的位置关系会更加准确,减少了人为标定方法产生的误差,同时还提高了求取单应性矩阵的准确性㊂1.3㊀车辆颜色特征匹配㊀㊀车辆的颜色特征能够更加直观地反映车辆的外部整体信息,通常采用RGB颜色空间与HSV颜色空间来提取车辆的颜色特征㊂RGB 颜色空间和HSV 两个颜色空间虽然都是用来表示图像的颜色特性㊂相比而言,RGB 颜色空间获取车辆的颜色特征更加准确㊂HSV 颜色空间更容易被人眼所接受,从而更方便人们观察㊂因此,本文首先通过RGB 颜色空间获取车辆的全局外观颜色特征,之后再转换到HSV 颜色空间进行颜色特征的量化,车辆的颜色特征可以直观地反映车辆的全区信息,由于HSV 颜色空间可以对颜色空间进行量化,降低颜色空间的特征维数,从而减少提取匹配的计算量,提高算法的运算效率㊂HSV 颜色空间具有自然性,与人类的视觉神经感知接近,反映了人类对于色彩的观察,同时有助于查找图像㊂由此分析,本文采用了基于HSV 颜色空间模型对车辆的全局外观进行颜色提取㊂通常来说,拍摄到的车辆图像基本都是以RGB 的方式保存㊂图像从RGB 颜色空间转换到HSV 空间㊂RGB 颜色空间将图片进行R㊁G㊁B 的3种通道的划分,设(r ,g ,b )分别是一个颜色的红㊁绿和蓝颜色的坐标,他们的值是0~1的实数,令max 等于r ㊁g ㊁b 3个分量中的最大值,min 等于r ㊁g ㊁b 3个分量中的最小值,则从RGB 颜色空间到HSV 颜色空间的变换过程可用如下公式来表示:h =00if max =min 600ˑg -b max -min +00,if max =r and g ȡb 600ˑg -b max -min+3600,if max =r and g <b 600ˑg -b max -min +1200,if max =g 600ˑg -b max -min +2400,if max =b ìîíïïïïïïïïïïïïs =0,if max =0max -min max =1-minmax,otherwise{ν=max输入的车辆图片的颜色特征通常用颜色直方图来表示,它的算法简单,速度较快㊂它具有尺度平㊁平移和旋转不变形的特征,在特征提取㊁图像分类方面有着非常好的应用㊂本文通过HSV 颜色空间对多组相同车型不同颜色和相同颜色不同车型的车辆分组图片进行颜色特征的提取和匹配㊂本研究对UA -detrac 车辆检测数据集和自建模型拍摄的多角度下不同颜色的车辆进行颜色特征提取,并计算其颜色相似度㊂对比结果如表1所示㊂表1㊀颜色特征相似程度对比结果测试数据颜色特征相似度第一组红色车辆车辆1-车辆20.975车辆1-车辆30.964车辆1-车辆40.834车辆1-车辆50.435第二组蓝色车辆车辆1-车辆20.954车辆1-车辆30.963车辆1-车辆40.945车辆1-车辆50.364第三组橙色车辆车辆1-车辆20.986车辆1-车辆30.963车辆1-车辆40.895车辆1-车辆50.382通过表1的颜色特征相似度的结果可以看出,颜色特征相似度越大,表示两辆车之间的相似程度越高㊂相同的一辆车在4个方向下的相似度的范围均在0.8以上,颜色相似的两辆车之间的相似度均在0.8以下㊂颜色不同但是车型相同的两辆车之间的相似度均在0.6以下㊂由此可知,颜色特征可以用来区分车型相同或相似但颜色差别大的车辆㊂同一辆车在不同摄像头的监控视野内由于拍摄角度的问题会出现导致同一辆车的颜色特征存在一定的差异的情况发生㊂若是直接将相似度设置为0.8可能会存在在不同的监控角度下,同一车辆被漏检的情况㊂若阈值设置得过低又可能误检一些颜色相近的车辆㊂只是颜色特征识别并不能满足不同角度下车辆的匹配,存在一定的缺陷,因此还需要通过局部特征的匹配来提高匹配的精度㊂1.4㊀SURF 特征匹配㊀㊀鉴于颜色特征能针对局部特征对于颜色信息不区分这一缺点进行补充,而SURF 的特点是具备光线照射㊁角度的调整以及尺寸不变性,速度比较快而且相对比较稳定㊂由于仅是局部特征或者仅是全局特征很容易发生在多摄像头切换角度时出现跟踪错误的信息,从而导致跟踪失败㊂因此,本文将全局特征和局部特征结合起来,从而提高匹配的准确性㊂相对而言,SURF 特征提取的数量虽然比SIFT 特征提取少很多,但还是存在错误匹配的情况㊂因此,本文根据SURF 的算法特性,特征匹配点之间的欧式距离越近,相似度越高,匹配得越准确㊂对匹配点之间的欧氏距离进行筛选,选择合适的阈值,对欧式距离进行排序,从而选出最优的SURF 特征匹配点,减少匹配的误差,降低错误匹配的概率㊂2 融合多特征与全卷积孪生网络的跟踪算法㊀㊀因为在多摄像头切换角度时对同类型的车辆误检㊁漏检的情况时有发生,所以本文对全卷积孪生网络跟踪算法中的图像特征向量相似度与多特征融合进行改进,并引入注意力通道机制网络结构,针对错检㊁漏检的情况进行改进,提升准确度㊂使用上述提到的HSV颜色特征提取和SURF特征作为匹配的特征,与全卷积孪生网络跟踪模型计算的相似度进行结合,即使在发生目标车辆部分遮挡的情况下,在切换到另一角度的摄像头时仍然能对同一车辆继续进行定位跟踪㊂在出现完全遮挡的情况或者在多摄像头角度切换后,目标车辆短时间内未再次出现的情况下仍然继续工作,在等待目标车辆再次出现时,继续对目标车辆进行定位检测与跟踪,以保证目标车辆的持续跟踪㊂跟踪模块首先利用全卷积网络训练的跟踪模型提取目标车辆图片,通过提取检测车辆图像的特征向量,计算目标车辆与待检测车辆之间的相似度,然后通过HSV颜色空间得出车辆的全局特征的相似度,最后对SURF特征进行车辆的局部特征匹配,过滤掉错误的匹配点,提高准确度,因为SURF特征点之间的距离长短表示特征点之间匹配值的高低,所以在所有检测到的车辆中选择特征点之间距离最短的也就是匹配值最小的目标车辆,对目标车辆进行定位,并利用上述计算的3种目标车辆判断的值对初定位的目标车辆进行阈值比较处理,从而最终定位目标车辆㊂目标车辆实验结果如表2所示㊂表2㊀在自建数据库上的实验结果(单位:%)车辆ID Car1Car2Car3Car4Car5定位成功率96.8497.2393.4297.2689.73跟踪成功率94.1593.5889.5694.4588.533 结语㊀㊀本文提出的多摄像头车辆实时跟踪系统,通过多个摄像头之间的单应性矩阵对十字交通路口的车辆进行定位,并结合颜色特征和SURF特征进行匹配,利用多特征和全卷积孪生网络相结合的跟踪模型,得到最终的检测结果,在车辆的检测和跟踪程度上有一定的提高㊂该系统在一定程度上解决了因遮挡问题造成的误检㊁漏检的问题,提高了检测精度和跟踪的准确性㊂根据实践表明,本文提出的方法效果比单一摄像头的检测方法更加可靠㊂参考文献[1]刘建.基于多摄像头的视频跟踪智能算法研究[D].上海:东华大学,2017.[2]罗凡波,王平,梁思源,等.基于深度学习与稀疏光流的人群异常行为识别[J].计算机工程,2020 (4):287-293.[3]李成美,白宏阳,郭宏伟,等.一种改进光流法的运动目标检测及跟踪算法[J].仪器仪表学报,2018 (5):249-256.[4]王朝卿.运动目标检测跟踪算法研究[D].太原:中北大学,2019.[5]张富凯,杨峰,李策.基于改进YOLOv3的快速车辆检测方法[J].计算机工程与应用,2019(2):12-20.[6]鲍金玉.基于视频分析的车辆智能检测技术研究[D].北京:北方工业大学,2019.(编辑㊀王永超)A real time vehicle tracking system with multiple camerasCui Rui Jia Ziyan∗Jiangsu University of Technology Changzhou213000 ChinaAbstract With the increase of urban population year by year more and more vehicles make urban traffic conditions more and more complicated.Aiming at the problems of tracking vehicles easy to lose low tracking rate and poor real-time performance in traditional vehicle detection a multi-camera based vehicle real-time tracking detection method is proposed to track moving vehicles.After analyzing the basic structure of the YOLOv5algorithm and considering the large scale variation of vehicles the YOLOv5algorithm is fully utilized to detect the properties of lightweight fast speed and strong real-time.On this basis the homography matrix between multiple cameras is used to determine the changes of vehicle bining color feature recognition and vehicle feature recognition vehicle rerecognition not only improves the running speed but also meets the requirements of real-time and accuracy effectively solves the problem that tracking vehicles are easy to lose and finally achieves a more successful real-time vehicle tracking effect.Key words multiple cameras YOLOv5 monography matrix feature recognition。
基于深度学习的车辆检测方法研究进展摘要:随着智能交通系统和自动驾驶技术的快速发展,车辆检测成为了关键的研究领域。
传统的车辆检测方法在准确性和鲁棒性方面存在一定的局限性,而深度学习技术的出现为车辆检测带来了新的突破。
本文对基于深度学习的车辆检测方法的研究进展进行了综述,包括常用的深度学习模型、算法的改进以及面临的挑战和未来的发展方向。
关键词:深度学习;车辆检测;卷积神经网络;目标检测一、引言车辆检测是智能交通系统、自动驾驶和安全监控等领域的重要基础。
准确、快速地检测车辆对于交通管理、事故预防和自动驾驶的实现具有重要意义。
传统的车辆检测方法主要基于图像处理和计算机视觉技术,如边缘检测、模板匹配和特征提取等,但这些方法在复杂场景下的性能往往不够理想。
深度学习技术的发展为车辆检测提供了新的思路和方法,其能够自动学习图像特征,具有更高的准确性和鲁棒性。
二、常用的深度学习模型在车辆检测中的应用(一)卷积神经网络(CNN)CNN 是深度学习中最常用的模型之一,在车辆检测中得到了广泛的应用。
CNN 可以自动提取图像中的特征信息,对车辆的外观、形状和纹理等特征具有很强的学习能力。
例如,VGG、ResNet 和 Inception 等经典的 CNN 模型在车辆检测任务中取得了较好的效果。
通过对大量的车辆图像进行训练,这些模型可以学习到不同类型车辆的特征,从而实现对车辆的准确检测和分类。
(二)区域卷积神经网络(R-CNN)R-CNN 是基于 CNN 的一种改进型车辆检测方法,它将车辆检测问题转化为一个目标分割问题。
首先,通过选择性搜索等方法生成大量的候选区域,然后将这些候选区域输入到 CNN 中进行特征提取,最后使用分类器对每个候选区域进行分类,判断其是否为车辆。
R-CNN 系列算法包括 R-CNN、Fast R-CNN 和 Faster R-CNN 等,它们在检测精度和速度方面不断进行改进,成为了车辆检测领域的重要算法。