网络清分模型的验证与修正方法_周璐川
- 格式:pdf
- 大小:270.04 KB
- 文档页数:5
基于改进YOLOv8n的轻量化织物疵点检测算法目录1. 内容概述 (2)1.1 研究背景与意义 (3)1.2 国内外研究现状 (4)1.3 论文架构与创新点 (5)2. 织物疵点检测的重要性 (6)2.1 织物疵点产生原因 (7)2.2 疵点检测的现实意义 (8)2.3 疵点检测技术的应用 (9)3. YOLOv8n算法概述 (11)4. 改进YOLOv8n算法的轻量化策略 (12)4.1 轻量化网络结构设计 (13)4.2 数据增强技术 (14)4.3 损失函数优化 (15)4.4 训练策略优化 (16)5. 算法性能评估指标 (17)5.1 准确率 (19)5.2 召回率 (19)6. 实验设计与数据集介绍 (20)6.1 实验环境与硬件配置 (21)6.2 数据集收集与预处理 (22)6.3 实验流程与参数设置 (23)7. 改进后的轻量化织物疵点检测算法 (24)7.1 网络结构改进 (25)7.2 训练与验证过程 (27)7.3 算法实现细节 (27)8. 实验结果与分析 (28)8.1 实验数据展示 (30)8.2 算法性能对比 (31)8.3 实验分析与讨论 (32)9. 应用案例分析 (33)9.1 真实生产线上的应用 (34)9.2 改进算法的工业反馈 (35)10. 结论与展望 (36)10.1 研究成果总结 (37)10.2 算法存在的不足 (38)10.3 未来研究方向 (39)1. 内容概述本文档旨在探讨和介绍一项改进后的YOLOv8n架构在轻量化织物疵点检测系统中的应用。
织物疵点检测是纺织品质量控制中的关键步骤,通过精确识别和分类不同的瑕疵,可有效提升产品质量并减少生产成本。
尤其是YOLOv8n,其在速度和精度之间取得了更佳的平衡。
提高检测效率:通过优化网络结构,减少计算复杂度和内存占用,使得检测系统能在更短的时间内完成对织物的检测。
提升检测精度:利用YOLOv8n的优势,通过进一步优化其训练过程和损失函数,确保织物上的疵点被更加准确地识别和分类。
基于改进YOLOv5s网络的绝缘子缺陷检测目录1. 内容概括 (2)1.1 绝缘子缺陷检测的重要性 (2)1.2 YOLOv5s网络简介 (3)1.3 改进YOLOv5s网络的目的 (4)2. 相关工作 (5)2.1 绝缘子缺陷检测方法综述 (6)2.2 YOLO系列目标检测算法概述 (7)2.3 YOLOv5s网络在目标检测中的应用 (8)3. 改进YOLOv5s网络 (9)3.1 网络结构改进 (10)3.1.1 网络结构优化 (11)3.1.2 激活函数改进 (12)3.1.3 层次特征融合 (13)3.2 数据增强策略 (14)3.3 损失函数调整 (15)3.4 消融实验与分析 (16)4. 实验环境与数据集 (18)4.1 实验环境搭建 (18)4.2 数据集介绍 (19)4.2.1 数据集规模 (20)4.2.2 数据集分布 (21)4.2.3 数据集预处理 (22)5. 实验结果与分析 (23)5.1 检测效果评估 (25)5.1.1 指标定义 (25)5.1.2 检测效果对比 (26)5.2 不同参数对检测性能的影响 (27)5.3 实际应用案例 (28)6. 结论与展望 (29)6.1 改进YOLOv5s网络在绝缘子缺陷检测中的应用效果 (30)6.2 存在的问题与改进方向 (30)6.3 未来研究方向 (32)1. 内容概括本文主要针对高压输电线路绝缘子缺陷检测问题,提出了一种基于改进5s网络的智能检测方法。
该文首先阐述了绝缘子缺陷检测对输电线路安全运行的重要性,然后对5s网络进行了详细介绍,包括其结构、工作原理及特点。
在此基础上,针对5s网络在绝缘子缺陷检测中的局限性,提出了一系列改进措施。
本文重点介绍了改进后的网络在不同绝缘子缺陷图像上的实验结果,并与其他检测方法进行了比较。
结果表明,改进后的5s网络在绝缘子缺陷检测任务上具有较高的准确率、实时性和鲁棒性,为输电线路绝缘子缺陷检测提供了一种有效且实用的方法。
第 43 卷第 2 期2024年 3 月Vol.43 No.2Mar. 2024中南民族大学学报(自然科学版)Journal of South-Central Minzu University(Natural Science Edition)基于改进Yolo v8s-seg的船舶旋转角度检测方法丁秀清1,周斌1*,胡波2(1 中南民族大学a.计算机科学学院;b.国家民委信息物理融合智能计算重点实验室,武汉430074;2 武汉东信同邦信息技术有限公司,武汉430074)摘要水上收费站的智能控制船闸开关系统为了能够自动识别船闸内外船舶的动向,需要精准检测航道内船舶的旋转角度.传统的目标检测算法存在着精度有限、实时性差等问题.针对以上问题,在Yolo v8s-seg模型的基础上通过添加CA注意力机制,提出了检测船舶旋转角度的模型Yolo v8s-seg-boat.模型采用实例分割算法提取船舶的轮廓点,并据此判断船舶重心,最终计算出船舶的旋转角度.实验结果表明:该模型在水上收费站拍摄的船舶数据集上分割评价指标mAP相比于Yolo v8s-seg提升了1.8%,分割精确率达到了97.6%,获取的船舶旋转角度与实际角度误差小于Yolo v8s-seg模型.关键词实例分割;旋转角度;注意力机制;重心中图分类号TP391.41 文献标志码 A 文章编号1672-4321(2024)02-0209-08doi:10.20056/ki.ZNMDZK.20240209Boat rotation angle detection method based on improved Yolo v8s-segDING Xiuqing1,ZHOU Bin1*,HU Bo2(1 South-Central Minzu University a. College of Computer Science; b. Key Laboratory of Information-Physical Fusion Intelligent Computing of the State People's Committee of the People's Republic of China, Wuhan 430074, China;2 Wuhan Dongxin Tongbang Information Technology Co., Ltd., Wuhan 430074, China)Abstract Intelligent control lock switching system for water toll station needs to be able to accurately detect the rotation angle of boats in the channel in order to be able to automatically recognize the movement of boats inside and outside the lock. Traditional target detection algorithms have problems such as limited accuracy and poor real-time performance. To address the above problems,a model Yolo v8s-seg-boat is proposed to detect the rotation angle of a boat by adding CA (Coordinate Attention)mechanism on the basis of Yolo v8s-seg model. The model adopts the instance segmentation algorithm to extract the boat’s contour points, and judge the boat's center of gravity accordingly, and finally calculate the rotation angle of the boat .The experimental results show that the model improves the segmentation evaluation index mAP by 1.8% compared with Yolo v8s-seg on the boat dataset captured at the water toll station, and the segmentation precision rate reaches 97.6%, and the error between the acquired boat rotation angle and the actual angle is smaller than that of the Yolo v8s-seg model.Keywords instance segmentation; rotation angle; attentional mechanism; center of gravity传统水上收费站通过人眼观察控制船闸的开关,不仅消耗人力而且容易观察失误引起安全事故.近几年兴起的智慧船闸系统引入人工智能技术,将摄像机拍摄的船舶图片自动转化为鸟瞰图,智能控制船闸开关,并且自动识别船闸内外船舶的动向.为了完成上述任务,系统需要能够精准检测航道内船舶的旋转角度.为了得到船舶的旋转角度,需要先对船舶进行目标检测确定其位置,而传统的目标检测算法如HOG+SVM[1]、Haar Cascades[2]等存在着精度有限、实收稿日期2023-08-12* 通信作者周斌(1971-),男,教授,博士,研究方向:计算机网络,大数据处理,E-mail:******************基金项目湖北省技术创新专项基金资助项目(2019ADC071);中央高校基本科研业务费专项资金资助项目(CZY23006)第 43 卷中南民族大学学报(自然科学版)时性差、不适用于大规模数据的缺点.近几年研究主流的方法是使用基于深度学习的旋转框目标检测方法来检测物体的旋转角度,如RR-CNN[3]、R3Det[4],常应用到遥感图片和航拍图片,这些模型经过大规模的数据训练能够直接输出目标的旋转角度,但是对数据集的要求较高,这些数据集的共同点是图片以较大的俯瞰角度来拍摄,而水上收费站的摄像头高度并不满足该条件.如果直接使用旋转框检测模型对船舶图片进行训练,会导致较大的角度误差.对于实例分割问题,主流的方法分为三大类:二阶段实例分割、一阶段实例分割、Query-based 实例分割.二阶段实例分割(如Mask R-CNN[5]、HTC[6]、Cascade Mask R-CNN[7])通常分为两个阶段:第一阶段使用一个目标检测器来检测图像中的对象,第二阶段使用一个分割器来对每个检测到的对象进行像素级的分割,该方法的优点是可以准确地定位和分割多个对象,并且可以在复杂的场景中实现高精度的分割,但是对于小尺寸物体的分割效果不太理想,因为可能会被模型误认为是噪声或背景.一阶段实例分割(如YOLACT[8]、BlendMask[9]、CondInst[10])不需要先进行目标检测,而是直接在单一的网络中同时进行检测和分割任务.该方法通常采用卷积神经网络(CNN)来实现,可以在速度和精度之间取得平衡,并且实时性好,在实际应用中具有很高的实用性,但是由于该方法需要在单一网络中进行检测和分割任务,因此会出现目标漏检和分割不完整的现象.该方法与二阶段方法相比通常需要更多的训练数据和更高的计算资源,以达到与之相当的准确度.此外,对于复杂场景中的多个对象分割任务,该方法可能会遇到困难.Query-based 实例分割(如SOLOv2[11])允许用户指定一个查询对象,然后自动检测和分割该对象的所有实例.在该技术中,用户可以通过在图像中选择一个查询对象来指定要检测的对象,然后系统会使用预训练模型来检测和分割所有与查询对象相似的实例.这种方法可以用于许多应用,如自动化图像分析和智能监控系统[12],主要缺点是对于一些复杂场景和多样性对象的识别和分割效果不够理想.由于该方法是基于预先定义的查询对象进行分割的,因此对于未知的、多样性的对象,可能会出现错误的分割结果.针对以上问题,本文提出一种基于实例分割的船舶旋转角度检测模型,先对船舶进行实例分割提取轮廓坐标点,再使用坐标点计算船舶旋转角度.模型使用实时性更强的one-stage实例分割方法进行分割并提取坐标,在此基础上引入注意力机制以弥补该方法在分割精度上的不足.在得到坐标后,模型使用轮廓法计算船舶旋转角度.两种方法结合以得到更为精确的船舶旋转角度.1 船舶旋转角度检测模型的设计与实现Yolo v8s-seg模型结构如图1所示.Yolo v8s-seg模型在Yolov8模型的基础上添加了一个mask分支用于实例分割,与目标检测同步进行.本模型命名为Yolo v8s-seg-boat,结构如图2所示,主要改进方法为:在Yolo v8s-seg模型的主干网络中添加了CA注意力机制;在C2f结构中添加了CA注意力机制;将IOU函数替换为Wise-IOU. Yolo v8s-seg-boat模型主要分为二个阶段:第一阶段使用改进后的网络对船舶图片进行实例分割处理,得到船舶的轮廓点坐标;第二阶段对每组坐标点使用旋图 1 Yolo v8s-seg模型结构Fig. 1 Yolo v8s-seg model structure 210第 2 期丁秀清,等:基于改进Yolo v8s-seg的船舶旋转角度检测方法转角度计算模块得到船舶的旋转角度并显示在图片上.P1、P2、P3、P4和P5表示网络不同级别的不同特征图,通过一系列卷积层和下采样操作获得.P1是指在骨干网络的第一阶段之后获得的特征图.P2、P3、P4和P5是在随后的阶段中获得的,并且具有逐渐降低的分辨率.P3+C2f和P4+C2f表示这些特征图的C2f结构中添加了注意力机制,P5+CA+C2f表示该特征图在其C2f结构中添加了注意力机制的同时,在SPPF层前添加了注意力机制CA.1.1 Yolo v8s-seg-boat网络1.1.1 主干网络添加注意力机制CAYolo v8s-seg-boat网络结构借鉴了基于改进的yolact模型[13]结构,使用的分割方法是典型的一阶段实例分割方法,实时性高,但是在分割精度方面有所欠缺.为了得到更高的船舶分割精度,在Yolo v8s-seg网络的基础上添加了CA (Coordinate Attention)注意力机制[14],其backbone结构如图3所示.在特征融合层SPPF前添加的注意力机制CA,它能根据输入的特征图中的重要区域和上下文信息,对特征进行加权,让SPPF层能够接收到更加强化的特征表示,从而提升模型特征的表达能力.将CA放在SPPF 层之前能够进一步增加特征的感受野,使模型能够更好地捕捉到不同尺度上的关键信息;另一方面,CA还考虑了特征空间的位置信息,特征在SPPF层进行融合时,模型能够更加准确地对局部信息和全局信息进行加权,从而提高特征的融合效果. Yolo v8s-seg-boat的backbone网络结构主要用于提取船舶图片的特征,用于head结构的检测和分割,矩形大小代表各个层的参数量,而加入的注意力机制CA参数量较大,能够加强backbone网络的特征提取能力.1.1.2 C2f添加注意力机制CA模型的C2f模块参考了Yolo v5中C3结构和Yolo v7[15]中ELAN[16]设计思想,结构如图4所示,让Yolo v8s-seg-boat网络可以在保证轻量化的同时获得更加丰富的梯度流信息.该模块首先用1×1卷积核对特征进行降维,通过split模块将特征图分为图 3 Yolo v8s-seg-boat的backbone网络结构Fig. 3 Backbone network structure of Yolo v8s-seg-boat图 2 Yolo v8s-seg-boat模型结构Fig. 2 Yolo v8s-seg-boat model structure211第 43 卷中南民族大学学报(自然科学版)主干分支和支干分支,再通过瓶颈结构Bottleneck 在有效减少参数量的情况下提取特征,最后通过Concat 模块进行特征拼接,在此基础上添加了CA 注意力机制到Concat 模块后,为特征分配不同的权重,增强模型对重要特征的关注,同时通过对特征图的加权,改善了多尺度特征融合效果.C2f 结构中加入的注意力机制CA 同样也起到了加强特征提取的作用,相比于Yolov5中的C3结构检测效果更好.1.1.3 CIOU 损失函数优化Yolo v8s -seg 使用CIoU 损失函数[17]来计算分割损失,该函数考虑重叠面积、中心点距离、长宽比三个方面,公式如下:CIoU =IoU -(ρ2(b ,b gt)c 2+αν),(1)ν=4π2(arctan w gt hgt -arctan w h )2,(2)α=ν(1-IoU)+ν,(3)其中:IoU 为交并比,是目标检测中常见的指标,主要用于反映预测检测框与真实检测框的检测效果;v 为中心点距离,表示预测框的中心点与实际框中心点之间的距离;α为长宽比,用于衡量预测框与实际框长度和宽度的比例误差.CIoU 计算过程中涉及到反三角函数,计算量较大,尤其是在处理大量数据时,会影响模型的训练速度,此外在处理低质量训练数据时,长宽比的几何度量会加剧对低质量数据的惩罚从而使模型的泛化性能下降,导致出现精度不高的情况.综合以上原因,Yolo v8s -seg -boat 使用Wise -IoU [18](简称为WIoU )代替CIoU 来计算分割损失,公式如下:R WIoU=exp ((x -x gt )2+(y -y gt )2(W g 2+H g 2)),(4)WIoU =R WIoU ·(1-IoU),(5)其中W g ,H g 是最小预测框的宽度与高度,(x gt ,y gt )是目标框中心点坐标.对于低质量锚框,1-IoU 的值将被显著放大;对于高质量锚框,会显著降低R WIoU .WIoU 取消了长宽比损失项,降低了对数据集中出现的低质量锚框的惩罚,另一方面降低了计算量,加快了模型的训练速度.对于船舶数据集而言,遮挡和噪声现象普遍存在,如果模型使用CIoU 作为损失函数,由于其对低质量锚框的惩罚,会使模型训练时难以收敛.1.2 旋转角度计算模块图片在经过Yolo v8s -seg -boat 网络进行分割后,对其轮廓点坐标使用边缘法计算旋转角度,算法步骤如下:(1)通过计算所有轮廓点的坐标的平均值得到船舶的重心坐标,如图5所示;(2)对于每一个轮廓点,计算该点和船舶重心的连线与x 轴的夹角,如图6所示;(3)将所有点的夹角根据不同位置进行加权平均处理,得到船舶的平均夹角;(4)平均夹角减去90度得到船舶的旋转角度,如图7所示.计算船舶的旋转角度时,需要将平均夹角减去90度,是因为船舶的轮廓点坐标与x 轴的夹角是相对于水平方向的,而图片船舶的朝向是垂直于水平图5 opencv 计算重心Fig.5 Opencv calculates the center of gravity图7 旋转角度显示Fig.7 Rotation angle display图 4 改进后的C2f 结构Fig. 4 Improved C2f structure图6 计算轮廓点与重心的夹角Fig. 6 Calculate the angle between the contour point and thecenter of gravity212第 2 期丁秀清,等:基于改进Yolo v8s-seg的船舶旋转角度检测方法方向的,由于船舶生成的轮廓点总数并不完全相同,先将权值根据轮廓点数量平均化,再赋予4个顶点(离矩形框4个顶点最近的4个轮廓点)2倍于其他点的权值,这是因为顶点对旋转坐标的影响更大.2 实验结果与分析2.1 实验数据集收集的船舶的数据集来自于江苏某个水上收费站多个高清摄像头拍摄的航道内船舶图片,这些船舶图片用于该收费站中智慧船闸系统的人工智能训练.根据航道内船舶的数量、大小和种类采集了4000张俯视角度图片,图片大小均为640 × 640,将图片按照8∶1∶1的比例分为训练集、验证集和测试集.相比于航拍和遥感等一系列较高俯视角度的图片数据集,本数据集有着俯视角度较低、船舶位置密集等特点,对模型的检测精度有更高的要求. 2.2 实验评价指标使用以下指标来衡量Yolo v8s-seg-boat网络的分割效果:(1)精确度Precision表示预测为正样本的数据样本中,真正的正样本所占的比例,公式如下:Precision=TP TP+FP,(6)其中:TP表示模型预测为正样本实际也为正样本的数据样本,FP表示模型预测为正样本实际却为负样本的数据样本.(2)召回率Recall表示实际为正样本的数据样本中,真正的正样本所占的比例,公式如下:Recall=TP TP+FN,(7)其中:FN表示实际为正样本预测为负样本的数据样本;一般来说,数据的召回率越高,它的精确度越低.(3)AP与mAP. mAP是目标检测任务中最常用的评估指标之一,可以用来比较不同模型的性能差异;AP表示的是模型在一个类别上的优劣程度,它的实际值是图中曲线与横坐标轴、纵坐标轴围成的面积,取值范围在0∼1之间.2.3 实验结果及分析使用Pytorch深度学习框架搭建实验环境,通过RTX 3090 24GB显卡进行GPU加速,具体环境如表1所示.2.3.1 船舶数据集IoU实验结果分析在船舶数据集训练过程中,输入的图像大小为640 × 640,batch_size、缩放因子、最大迭代轮次、初始学习率分别设为2,0.35,100,0.01. 使用SGD[19]算法优化器调控模型收敛,动量momentum设置为0.937,用于控制模型参数的更新速度和方向.动态焦点损失权重dfl设置为1.5,目的是优化动态焦点损失对总损失函数的贡献程度.实验结果与其他IoU函数进行比较,如表2.对比这3种IoU函数的实验效果可以看出,搭载了WIoU损失函数的分割模型在船舶数据集上的效果最好.与Yolo v8s-seg模型自带的CIoU函数相比较,EIoU[20]在mAP上提升了0.3%,这说明EIoU在CIoU基础上拆分长宽比惩罚项分为长损失和宽损失的操作在船舶数据集上有助于提高分割精度;而WIoU相比于EIoU通过考虑预测框和真实框之间的区域来对IoU进行加权,mAP进一步提高了0.1%.前50轮训练不同IoU函数下模型的分割损失变化如图8所示.从图8中可以看出搭载WIoU损失函数的模型在训练过程中收敛速度最快,分割损失值最小,这说明了WIoU在CIoU的基础上简化的长损失和宽损失在一定程度上加快了模型的收敛,另一方面减少了低质量框对模型训练的影响,使得分割损失变小.2.3.2 船舶数据集注意力机制的实验结果分析在Yolo v8s-seg的主干网络上添加各种注意力机制进行模型训练,效果对比如表3.其中FLOPS是浮点运算数(Floating Point Operations),表示在训练过程中所执行的浮点运算的数量, Parameters是模型的参数量.在mAP50-95表1 实验环境配置单Tab. 1 Experimental environment configuration sheet硬件设备CPUGPU操作系统加速环境深度学习框架参数Intel Xeon Bronze 3104NVIDIA GeForce RTX 3090Ubuntu 20.04CUDA 11.5Pytorch表2 IOU效果对比Tab. 2 IOU effect comparison模型Yolo v8s-seg+CIoUYolo v8s-seg+EIoUYolo v8s-seg+WIoUPre/%95.295.695.6mAP50-95/%91.191.491.5213第 43 卷中南民族大学学报(自然科学版)指标上,CA 效果最好,相较于原模型提高了1%,同时分割精准度提高了2.2%;相比于CBAM ,CA 提取重要空间信息时主要是依据像素之间的关联性,能够更好地捕捉到局部细节和空间结构,而CBAM 主要专注于对通道关系进行建模,无法完全捕捉像素之间的空间依赖性;另一方面,CA 不仅能够捕获跨通道的信息,还能捕获方向感知和位置感知的信息,在复杂场景中更加适合,如本数据集中,船舶分布密集且存在覆盖的情形.因此CA 在指标Pre 和mAP50-95上最优.最后12轮训练中不同注意力机制下mAP 的变化如图9所示.从图9中可以看出注意力机制CA 在训练过程中mAP 的上升速度明显超过其他注意力机制,这说明它对模型梯度下降过程起到了促进作用,帮助模型更好地进行拟合.为了更好地理解CA 对本模型的影响,引入热力图来直观感受特征在加入注意力机制前后的变化,打印未加入CA 的模型Yolo v8s -seg 第9层特征热力图和加入CA 后模型Yolo v8s -seg + CA 第10层(加入注意力机制CA 的层数)特征热力图作比较,如图10所示.模型的热力图主要用于显示图像中各个区域的目标物体的位置和置信度,颜色越深的区域表示模型认为该区域存在目标物体的可能性越高.从图10中可以明显看到加入CA 后颜色在船舶区域更深,说明模型在加入注意力机制CA 后对目标检测物船舶的准确率增加;另一方面,非船舶区域的颜色存在不同程度变浅的现象,这说明了模型对特征权重的分配更加合理,降低了检测误差.2.3.3 消融实验结果分析为了验证模型中加入的各个模块(注意力机制,IoU )的作用,单独加入CA 或者WIoU进行实验,图 9 最后12轮训练中不同注意力机制对模型mAP 的影响Fig. 9 Effect of different attentional mechanisms on model mAP in the last 12 rounds of training图10 无注意力机制(左)与注意力机制CA (右)的热力图对比Fig. 10 Heat map comparison between no attention mechanism (left )and attention mechanism CA (right)图8 训练过程中不同IoU 对模型的分割损失变化Fig.8 Segmentation loss variation of the model with different IOUsduring the training process表3 不同注意力机制效果对比Tab. 3 Comparison of the effects of different attention mechanisms模型Yolo v8s -segYolo v8s -seg+CBAM Yolo v8s -seg+MHSAYolo v8s -seg+GAM Yolo v8s -seg+CA FLOPS/G 42.7106.8106.7108.0107.2Parameters/M 11.7925.2025.0526.6825.73Pre/%95.296.597.096.497.4mAP50-95/%91.191.991.691.592.1214第 2 期丁秀清,等:基于改进Yolo v8s -seg 的船舶旋转角度检测方法实验结果如表4.由表4可见:加入的注意力机制CA 与WIoU 对船舶轮廓分割的准确率有不同程度的提升效果,注意力机制CA 涉及到网络层数的增加,训练参数也进一步增加,而WIoU 对模型的准确率提升效果更高,同时WIoU 降低了CIoU 带来的计算复杂度,在一定程度上减少了模型的训练时间,加入这两个模块的模型相比于原模型在mAP50-95指标上提升了1.8%. Yolo v8s -seg 模型与Yolo v8s -seg -boat 模型对船舶轮廓的分割效果对比如图11所示.从图11中可以明显看出:本模型检测的船舶轮廓相比于Yolo v8s -seg 模型更加完整,并且在相同置信度下漏检率更低.船舶角度检测效果如图12所示.由图12可知:水上收费站实地考察得到的上述船舶角度为70.9度,这说明Yolo v8s -seg -boat 模型在角度检测上更加准确.3 结语本文针对船舶旋转角度检测高实时化的需求,提出了基于实例分割的船舶旋转角度检测模型,在Yolo v8s -seg 网络的基础上添加了注意力机制,使用Yolo v8s -seg -boat 网络来得到船舶的轮廓点坐标,再使用旋转角度检测模块来得到船舶的角度.实验结果表明本文提出的改进模型Yolo v8s -seg -boat 相较于Yolo v8s -seg 模型能得到更加完整和精确的船舶轮廓,对船舶角度的检测更加精准,并已在工程上进行了应用.参考文献[1] XU P F , HUANG L D , SONG Y. An optimal methodbased on HOG -SVM for fault detection [J ]. Multimedia Tools and Applications , 2022, 81(5): 6995-7010.[2] CHOI C H , KIM J , HYUN J , et al. Face detection usinghaar cascade classifiers based on vertical component calibration [J ]. Human -centric Computing and Information Sciences , 2022, 12(11).[3] LIU Z K , HU J G , WENG L B , et al. Rotated regionbased CNN for ship detection [C ]// IEEE. 2017 IEEE International Conference on Image Processing (ICIP ). Beijing : IEEE , 2017: 900-904.[4] YANG X ,YAN J C ,FENG Z M ,et al. R3Det : Refinedsingle -stage detector with feature refinement for rotating object [J ]. Proceedings of the AAAI Conference on Artificial Intelligence , 2021, 35(4): 3163-3171.[5] LIU Z , YEOH J K W , GU X Y , et al. Automatic pixel -level detection of vertical cracks in asphalt pavement based on GPR investigation and improved mask R -CNN [J ]. Automation in Construction , 2023, 146: 104689.[6] CHEN K ,PANG J M , WANG J Q ,et al. Hybrid taskcascade for instance segmentation [C ]//IEEE. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach : IEEE , 2019: 4974-4983.[7] CAI Z W , VASCONCELOS N. Cascade R -CNN : Highquality object detection and instance segmentation [J ]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2021, 43(5): 1483-1498.[8] BOLYA D , ZHOU C , XIAO F Y , et al. YOLACT : Real -time instance segmentation [C ]// IEEE. 2019 IEEE/CVFInternational Conference on Computer Vision (ICCV ). Seoul : IEEE , 2019: 9156-9165.[9] GAO Y C , WANG H T , LI M , et al. Automatic tandem表4 注意力机制与IoU 对模型的影响Tab. 4 Attentional mechanisms and the effect of IOUs on modeling模型Yolo v8s -seg Yolo v8s -seg + WIOU Yolo v8s -seg + CAYolo v8s -seg -boatPre/%95.295.697.497.6mAP50-95/%90.491.592.192.2图 11 Yolo v8s -seg 模型(左)与本模型(右)轮廓分割效果对比Fig. 11 Comparison of contour segmentation effect between Yolo v8s -seg model (left ) and the presented model (right)图 12 Yolo v8s -seg 模型(左)与本模型(右)角度检测效果对比Fig. 12 Comparison of angle detection effect between Yolo v8s -segmodel (left ) and the presented model (right )215第 43 卷中南民族大学学报(自然科学版)dual BlendMask networks for severity assessment of wheatFusarium head blight[J]. Agriculture, 2022, 12(9): 1493.[10]TIAN Z,SHEN C,CHEN H. Conditional convolutions for instance segmentation[C]//ECCV. Computer Vision-ECCV 2020: 16th European Conference. Glasgo: SpringerInternational Publishing,2020: 282-298.[11]SUN X M,FANG W T,GAO C Q,et al. Remote estimation of grafted apple tree trunk diameter in modernorchard with RGB and point cloud based on SOLOv2[J].Computers and Electronics in Agriculture,2022,199:107209.[12]WU W T,LIU H,LI L L,et al. Application of local fully Convolutional Neural Network combined withYOLO v5 algorithm in small target detection of remotesensing image[J]. PLoS One, 2021, 16(10): e0259283.[13]杨长辉,吕庆,邹贵帆,等.基于改进YOLACT的金属滚动接触疲劳缺陷检测模型[J].计算机应用,2023,43(S1):235-242.[14]HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[C]// IEEE.2021IEEE/CVF Conference on Computer Vision and PatternRecognition (CVPR). Nashville:IEEE,2021:13708-13717.[15]张艳君,沈平,郭安辉,等.融合CBAM-YOLOv7模型的路面缺陷智能检测方法研究[J].重庆理工大学学报(自然科学),2023,37(11):213-220.[16]齐向明,董旭. 改进Yolov7-tiny的钢材表面缺陷检测算法[J]. 计算机工程与应用, 2023, 59(12): 176-183.[17]ZHENG Z H,WANG P,LIU W,et al. Distance-IoU loss:Faster and better learning for bounding boxregression[J]. Proceedings of the AAAI Conference onArtificial Intelligence, 2020, 34(7): 12993-13000.[18]TONG Z,CHEN Y,XU Z,et al. Wise-IoU: Bounding box regression loss with dynamic focusing mechanism[J].arXiv Preprint arXiv: 2301.10051, 2023.[19]AMARI S I. Backpropagation and stochastic gradient descent method[J]. Neurocomputing,1993,5(4/5):185-196.[20]YANG Z,WANG X,LI J. EIoU:An improved vehicle detection algorithm based on vehiclenet neural network[J].Journal of Physics:Conference Series IOP Publishing,2021, 1924(1): 012001.(责编曹东,校对刘钊)216。
运营管理李春晓,杨慧芳,孙 诗,李卫星,刘 超(武汉地铁运营有限公司,湖北武汉 430000)第一作者:李春晓, 女, 工程师引用格式:李春晓, 杨慧芳, 孙诗, 等. 城市轨道交通环线清分模型优化研究[J]. 现代城市轨道交通, 2024(04): 113-119. LI Chunxiao, YANG Huifang, SUN Shi, et al. Research on the optimization of circular line clearing and the sharing model of urban railtransit[J]. Modern Urban Transit, 2024(04): 113-119.DOI:10.20151/ki.1672-7533.2024.04.0171 引言随着武汉市轨道交通线网规模日益扩大,截至2023年12月,已开通运营线路达到12条,总里程达到487.77 km ,车站总数达300座。
12号线作为第一条环形线路的即将开通,以及PPP (政府和社会资本合作模式)多运营主体运营模式的预期实施,对票务清分系统的精准性提出更高的要求。
本文结合线网实际情况,对既有清分算法进行优化研究,旨在提高客流和收益清分的精准性,同时也有助于更准确地掌握线网客流的时空分布特征,对超大规模网络化运营下的行车组织也具有摘 要:随着城市轨道交通线网规模不断扩大,乘客的出行路径选择日益多样,城市轨道交通运营也由单一主体向多运营主体发展。
这些变化都对清分收益和客流精准性提出更高的要求。
文章以武汉市轨道交通线网为研究对象,通过对既有清分模型进行适用性分析,并结合乘客出行行为调查数据,深入探讨换乘便利性、路径迂回因素以及环形线路如何影响乘客路径的选择。
研究提出一种迂回路径的识别方法,优化清分模型中有效路径筛选规则,并通过构造换乘便利性函数、迂回因子函数优化路径效用计算方法。
基于IC卡数据的轨道交通站点客流数据获取方法提出了基于IC卡数据的轨道交通站点客流数据获取方法,包括进站客流数据、出站客流数据和换乘客流数据。
首先对IC卡原始数据作预处理,通过客流OD匹配获取客流OD数据,生成并修正客流OD矩阵,考虑换乘客流的有效路径分配,建立OD组合与换乘客流匹配关系,并以此获取换乘客流数据。
标签:IC卡数据;客流数据;有效路径分配;换乘客流引言随着我国社会经济的持续发展、城市化进程的加快及城市人口的不断上涨,城市交通拥堵问题日益凸显。
优先发展城市公共交通成为治堵的良方,而轨道交通在公共交通系统中发挥着关键作用。
轨道交通的客流数据反映了乘客的出行需求,通过对IC卡数据的处理与分析获取客流数据,能够指导轨道交通规划建设和运营管理工作。
关于使用IC卡数据统计轨道交通客流量这一问题,周崇华[1]使用了深圳市地铁IC卡数据计算了OD矩阵、O点主流向和关键OD对,但未考虑换乘站的换乘客流,因此客流统计方法有待改进。
1 站点客流数据概述站点客流数据包括进站客流数据、出站客流数据和换乘客流数据,其中进站客流数据与出站客流数据可直接由客流OD矩阵得出,而换乘客流数据与乘客乘车路径选择相关,需要将客流匹配至所有有效路径,再统计各换乘站点的客流。
2 IC卡原始数据预处理IC卡原始数据包括4个有效字段,其中ID字段表示IC卡记录编码,TIME 字段表示刷卡时间,STATION字段表示站点名称,DIRECTION字段表示该条记录的进出站方向。
由于机器故障等原因,IC卡原始数据中存在着数据缺失、重复记录等问题,因此在数据应用之前应作相应预处理,其步骤如下:(1)按照ID和TIME字段对IC卡原始数据进行排序。
(2)提取同一ID连续两条数据,若前后两条数据的DIRECTION字段同为“进站”,则剔除前一条数据,若若前后两条数据的DIRECTION字段同为“出站”,则剔除后一条数据。
(3)重复步骤2直至遍历所有IC卡原始数据。
第44卷第11期包装工程2023年6月PACKAGING ENGINEERING·249·基于改进YOLOv5s模型纸杯缺陷检测方法蒋亚军1,曹昭辉1,丁椒平2,文煜超1,张闯1,胡志刚1(1.武汉轻工大学机械工程学院,武汉430048;2.湖北克拉弗特实业有限公司,武汉430048)摘要:目的针对小尺寸和特征不明显的纸杯缺陷在检测过程中易出现漏检、错检的问题,提出一种基于改进YOLOv5s模型纸杯缺陷检测方法。
方法在原始模型的Backbone部分引入CBAM注意力机制模块,提升模型的特征提取能力;增加一个YOLO检测头,将三尺度检测改为四尺度检测,提高模型对小目标和特征不明显目标的检测能力;在Neck部分借鉴加权双向特征金字塔网络BiFPN,对原始模型中的PANet进行部分改进,加强模型的特征融合能力。
结果结果显示,改进后的模型YOLOv5s–CXO 精度为89.1%、召回率为90.4%、平均精度均值为89.5%,比原始模型的精度提高了1.5%、召回率提高了1.3%、平均精度均值提高了1.2%。
结论本文的改进方法有效提高了模型的检测能力,对小尺寸和特征不明显纸杯缺陷的检测效果有明显提升。
关键词:YOLOv5s;CBAM;BiFPN;多尺度检测;纸杯中图分类号:TS206.4 文献标识码:A 文章编号:1001-3563(2023)11-0249-10DOI:10.19554/ki.1001-3563.2023.11.029Paper Cup Defect Detection Method Based on the Improved YOLOv5s Model JIANG Ya-jun1, CAO Zhao-hui1, DING Jiao-ping2, WEN Yu-chao1, ZHANG Chuang1, HU Zhi-gang1(1. College of Mechanical Engineering, Wuhan Polytechnic University, Wuhan 430048, China;2. Hubei Kraftpack Industry Co., LTD., Wuhan 430048, China)ABSTRACT: The work aims to propose a paper cup defect detection method based on improved YOLOv5s model aiming at the problem that paper cup defects in small size and with insignificant features are easy to be missed and misdetected in the detection process. The CBAM attention mechanism module was introduced in the Backbone part of the original model to improve the feature extraction ability of the model. A YOLO detection head was added, and the three-scale detection was changed to four-scale detection to improve the detection ability of the model for small targets and targets with insig-nificant features. In the Neck part, the weighted bidirectional feature pyramid network BiFPN was used to partially im-prove the PANet in the original model to strengthen the feature fusion ability of the model. The results indicated that the precision of the improved model YOLOv5s-CXO was 89.1%, the recall was 90.4%, and the average precision mean was89.5%. Compared with the original model, the precision was increased by 1.5%, the recall was increased by 1.3%, andthe average precision mean was increased by 1.2%. The proposed improved method effectively improves the detection ability of the model, and significantly improves the detection effect of paper cup defects in small size and with insignifi-cant features.KEY WORDS: YOLOv5s; CBAM; BiFPN; multi-scale detection; paper cups收稿日期:2022−08−16基金项目:湖北省教育厅指导性项目(B2021119);武汉轻工大学校立科研项目(2021Y27)作者简介:蒋亚军(1990—),男,博士,讲师,主要研究方向为现代农业装备设计与测控。