改进Retina-Net的草坪杂草目标检测
- 格式:docx
- 大小:36.88 KB
- 文档页数:2
基于机器视觉的田间杂草识别方法研究的开题报告一、研究背景和意义随着现代农业的发展,除了预测气候和管理土壤以提高农业生产力之外,化学农药和机械处理也被广泛应用以控制杂草。
在现代农业中,合理使用化学农药是一个主要的策略,但是不当使用可能会导致不良后果,如对环境和人类健康的负面影响,对土壤生态系统的破坏等。
根据美国环保署的一份报告,每年可能有数百万人受到农药的污染,其中包括儿童和农民。
因此,发展一种更安全,更可持续的杂草管理方法是非常必要的。
机器视觉技术在农业中的应用已经引起了广泛的关注,其可以提高农业生产效率和降低成本。
随着深度学习技术的发展和计算机硬件性能的提高,机器视觉技术在农业中被广泛应用。
其中,杂草检测和分类便是其中的一项关键技术。
本研究通过机器视觉和深度学习技术,研究一种新的基于机器视觉的田间杂草识别方法,该方法能够有效地检测和分类杂草,以降低农业生产成本和对环境的影响。
二、研究内容和方案本研究的主要研究内容是:1. 收集农田中常见的杂草图像数据。
2. 使用卷积神经网络(CNN)进行训练和分类,通过迁移学习的技术,使用ImageNet预训练网络的权值初始化来提高训练效率和分类精度。
3. 在训练过程中,主要考虑数据样本的数量和质量、网络结构的优化和参数调试。
4. 对所选的数据集进行预测和测试,使用评价指标(如准确率,精确率和召回率)对所训练的网络进行评估。
5. 分析实验结果,并对研究方法进行总结和探讨。
三、研究进展目前,我们已经完成了数据集的收集和处理,利用深度学习算法进行杂草图像分类的初步实验,并获得了较好的分类效果。
我们计划进一步提高算法的鲁棒性和实现遥感图像中的杂草分类,以适应现代农业生产的需求,为农业提供更可持续、环保的管理方法。
四、预期结果和意义预期结果是:开发出一种基于机器视觉的田间杂草识别方法,达到较高的分类精度和可重复性。
研究意义主要有以下几个方面:1.提高农业生产效率和降低成本。
胡彦军,张平川,张彩虹,等.基于改进Mask-RCNN 的桃树穿孔病检测研究[J].沈阳农业大学学报,2023,54(6):702-711.沈阳农业大学学报,2023,54(6):702-711Journal of Shenyang Agricultural Universityhttp ://DOI:10.3969/j.issn.1000-1700.2023.06.007收稿日期:2023-10-11基金项目:河南省科技厅科技攻关项目(222102210116)第一作者:胡彦军(1981-),男,硕士,副教授,从事计算机视觉、智慧农业研究,E-mail:***************通信作者:张平川(1968-),男,博士,教授,从事智慧农业研究,E-mail:****************基于改进Mask-RCNN 的桃树穿孔病检测研究胡彦军1,2,张平川1,张彩虹1,2,陈旭1,李珊1,杨莹1,2,马泽泽1,2(1.河南科技学院计算机科学与技术学院,河南新乡453003;2.郑州电力职业技术学院信息工程学院,郑州451450)摘要:穿孔病是桃树常见的病害,分为细菌性穿孔病(bacterial_shot-hole_disease ,BSD )和真菌性穿孔病(fungal_shot-hole_dis⁃ease ,FSD )。
大多数果农凭借经验难以准确识别两种病害,因而贻误防治,造成减产。
为解决这一难题,提出了基于Mask RCNN(mask region based convolutional neural network )的桃树穿孔病检测方法。
该方法对Mask RCNN 模型进行了三方面的改进:首先,将Sim-AM (simple,parameter-free attention module )机制融入到残差网络的每一层,使用能量函数对神经元分配三维权重,增强对穿孔病关键特征的提取能力;其次,对RPN 网络重复计算识别框进行简化处理,从9种Anchor Box 降为3种,提升计算效率;再次,用软性非极大值抑制算法(Soft-NMS,soft non-maximum suppression )替换NMS 算法进行Anchor Box 选取,提高对遮挡病斑的检测效果。
改进YOLOv5的遥感图像小目标检测算法作者:张腾泽李旭军饶立明来源:《计算机时代》2023年第12期摘要:针对目前主流算法在遥感图像目标检测任务中对于图像中小目标检测效果较差、易产生漏检误检的问题,提出一种改进YOLOv5的小目标检测算法YOLOv5-FRM。
首先在原YOLOv5骨干网络的最后添加坐标注意力机制Coordinate attention(CA)模块替代原SPP模块,之后提出一种改进多尺度空间净化模块,实现了检测头的添加,并融合进原YOLOv5的颈部网络中。
最后引入Copy-reduce-paste数据增强方法提高模型训练效果。
实验结果表明,该改进算法有效提升了遥感图像小目标的检测精度,降低了误检率与漏检率。
关键词: YOLOv5;遥感图像;目标检测;注意力机制;空间净化;数据增强中图分类号:TP312 文献标识码:A 文章编号:1006-8228(2023)12-89-07Improved YOLOv5 for remote sensing image small target detectionZhang Tengze, Li Xujun, Rao Liming(School of Physics and Optoelectronics, Xiangtan University, Xiangtan, Hunan 411100,China)Abstract: An improved YOLOv5 small target detection algorithm, YOLOv5-FRM, is proposed to address the issue of poor detection performance of mainstream algorithms in remote sensing image small target detection. Firstly, a Coordinate Attention (CA) module is added at theend of the original YOLOv5 backbone network to replace the original SPP module. Then, an improved multi-scale spatial purification module is proposed, which implements the addition of detection heads and integrates them into the neck network of the original YOLOv5. Finally, a Copy-reduce-paste data augmentation method is introduced to improve the training effectiveness of the model. The experimental results show that the improved algorithm effectively improves the detection accuracy of small targets in remote sensing images, and reduces the false detection rate and missed detection rate.Key words: YOLOv5; remote sensing images; target detection; attention mechanism; spatial purification; data augmentation0 引言遙感技术是通过探测和测量地球表面,将地表的数据信息处理、应用和分析的技术,目前广泛应用于农业、地质、水利等多个领域。
0 引言农作物的生长周期往往会伴随着杂草的不断生长。
杂草生命力旺盛,会与农作物争夺水分、阳光、生长空间,影响农作物的正常生长。
当前化学除草方式是治理杂草的主要措施,但这类方法存在许多缺点,比如会造成农产品品质降低、不必要的土壤污染和劳动力成本的增加。
考虑到上述除草技术的不足,高效实时的农业自动化杂草检测研究具有很强的现实意义,有利于推动农业可持续发展[1]。
目前,目标检测[2]分为基于传统机器学习和深度学习两种检测方式。
前者主要通过学习目标的颜色、纹理等特征信息,再对这些区域进行特征提取,最后通过使用分类器对目标进行分类识别。
Bakhshipour等人[3]利用图像滤波提取颜色和区域特征,然后对场景中每个目标进行标记,提出一种基于区域的分类方法,包括敏感度、特异性、正预测值和负预测值。
Deng等人[4]通过提取杂草图像的颜色、形状和纹理特征,并对其进行归一化处理以解决稻田中杂草单一特征识别精度低的问题。
但传统目标检测算法依赖于图像采集方式、预处理方法和特征图提取质量,无法在复杂的自然场景中准确地执行定位分类任务。
基于深度学习的目标检测算法主要分为两阶段和单阶段目标检测算法。
两阶段目标检测算法首先通过相关算法生成目标候选框;再通过卷积神经网络从候选框中提取特征,用于目标分类和边界框回归。
典型算法有:RCNN[5]、Fast RCNN[6]、Faster RCNN[7]等。
单阶段目标检测算法对特征图上每个位置目标直接进行分类和回归。
常见的算法有SSD[8]、YOLO[9]、YOLOv2[10]、YOLOv3[11]等。
很多算法都是基于主流算法进行改进的,如温德圣[12]提出一种基于卷积神经网络Faster-RCNN的模型,首先对不同光照环境下的杂草图像进行颜色迁移等预处理;再利用构建好的深度卷积神经网络,对候选框区域进行优化,得到最终的网络识别模型。
马巧梅等人[13]利用Inception-SE结构使得网络更加收敛,实现多尺度融合,提高检测精度。
基于ResNet和ViT双流网络的小麦病虫害识别
王汉生;姚建斌
【期刊名称】《农业技术与装备》
【年(卷),期】2024()2
【摘要】针对小麦病虫害识别过程中,传统深度学习模型表现不稳定、识别精度低、泛化能力有限的现状,提出了新的双流网络模型,即结合ResNet和ViT以提高识别
准确性。
该方法融合了卷积神经网络处理图像局部结构,同时利用Transformer捕捉长距离依赖关系,改进了识别性能。
通过2070张小麦病虫害图片数据集训练验证,调整ResNet50和ViT预训练模型参数,结果显示,双流模型在训练集上达96.5%准确率,在验证集获0.94的F分数,明显优于其他主流单一模型。
结果证实,新模型
在小麦病虫害识别卓越性能,为其在智能农业系统中广泛应用提供潜力。
【总页数】4页(P18-21)
【作者】王汉生;姚建斌
【作者单位】华北水利水电大学
【正文语种】中文
【中图分类】S512.11
【相关文献】
1.基于双流P3D-Resnet的人体行为识别研究
2.基于改进双流ResNet网络的人体行为识别算法研究
3.基于MSDB-ResNet的水稻病虫害识别
4.基于ResNet网络
模型的番茄病虫害识别方法5.基于ResNet网络模型的番茄病虫害识别方法
因版权原因,仅展示原文概要,查看原文内容请购买。
第42卷第3期2021年3月中国农机化学报Journal of Chinese Agricultural MechanizationVol.42No.3Mar.2021DOI:10.13733/j.j cam.issn.2095-5553.2021.03.011改进RetinaNet的刺梨果实图像识别闫建伟1,2,张乐伟】,赵源】,张富贵1(1.贵州大学机械工程学院,贵阳市,550025; 2.国家林业和草原局刺梨工程技术研究中心,贵阳市,550025)摘要:为实现加工车间刺梨果实的快速识别,提出一种基于改进的RetinaNet刺梨果实图像的识别方法。
基于RetinaNet 的模型,对RetinaNet框架中Focal loss的bias进行改进,使其能根据不同的情况控制bias的取值,再运用维度聚类算法找出Anchor的较好尺寸并匹配到相对应的特征层,对卷积神经网络结构进行优化。
通过改进RetinaNet目标检测算法对7426幅刺梨果实图像进行检测识别,并与原始RetinaNet目标检测算法对比。
试验结果表明:改进的RetinaNet网络模型识别方法对6类刺梨果实的识别率分别为99.47%,91.42%、96.92%,90.92%,96.89%和93.53%,平均识别率为94.86%;相对于原始RetinaNet目标检测算法,改进算法的识别准确率提高4.21%,单个刺梨果实检测时间由60.99ms缩减到57.91ms,检测时间缩短5.05%。
本文改进算法对加工车间刺梨果实的识别具有较高的正确率和实用性。
关键词:卷积神经网络;刺梨果实;RetinaNet;标检测;图像识别中图分类号:TP391.4文献标识码:A文章编号:2O95-5553(2021)03-0078-06闫建伟,张乐伟,赵源,张富贵.改进RetinaNet的刺梨果实图像识别[J].中国农机化学报,2021,42(3):78:83Yan Jianwei,Zhang Lewei,Zhao Yuan,Zhang Fugui.Image recognition of Rosa roxburghii fruit by improved RetinaNet[J].Journal of Chinese Agricultural Mechanization,2021,42(3):78—830引言近年来,随着深度学习理论研究的不断深入,基于Anchor目标检测框架已成为国内外卷积神经网络领域研究的热点。
基于改进ResNet34模型的杂草识别方法
张媛;陈西曲
【期刊名称】《武汉轻工大学学报》
【年(卷),期】2023(42)1
【摘要】要实现杂草的精准防控,除草剂的变量喷洒,杂草的准确识别是前提。
针对田间复杂的自然环境,为了进一步提高杂草识别准确率,解决模型在识别中泛化和拟
合能力较差等问题,提出了一种基于改进ResNet34模型的杂草识别方法。
该方法
以ResNet34为基础模型,将高效通道注意力机制(Efficient Channel Attention,ECA)与残差块相结合作为骨干网络,以此优化网络权重,强化对目标杂草
的特征提取。
并采用空洞卷积增加引入前方特征图的感受野,减少特征图精度上的
损失。
实验结果表明,该方法较未改进的AlexNet,GoogLeNet,VGG16,ResNet34
网络相比,识别准确率分别提高了12%,16.41%,10.62%,1.44%,同时泛化能力更强。
该方法也为杂草防治提供了新的解决方案,为农田的智能除草提供了新思路。
【总页数】9页(P86-94)
【作者】张媛;陈西曲
【作者单位】武汉轻工大学电气与电子工程学院
【正文语种】中文
【中图分类】TP391
【相关文献】
1.基于光谱和神经网络模型的作物与杂草识别方法研究
2.基于主成分-贝叶斯分类模型的除草机器人杂草识别方法
3.基于改进语义分割模型的无人机多光谱图像杂草分割
4.基于改进的Vision Transformer杂草生长周期识别方法研究
5.基于改进的ResNet34网络模型的苹果叶病害识别
因版权原因,仅展示原文概要,查看原文内容请购买。
2021年5月农业机械学报第52卷第5期doi:10.6041/j.issn.1000-1298.2021.05.003基于优化Faster R CNN的棉花苗期杂草识别与定位樊湘鹏1周建平1!许燕1!李开敬1温德圣1(1•新疆大学机械工程学院,乌鲁木齐830047;2•新疆维吾尔自治区农牧机器人及智能装备工程研究中心#830047)摘要:为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化FaterR-CNN和数据增强的杂草识别与定位方法。
采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对FaterR-CN N模型设计合适的锚尺度,对比VGG16&VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。
试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s#平均识别精确率为94.21%%—YOLO算法和SSD算在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法—法进行对比,优化后的FaterR-CNN模型具有明显优势%将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s#说明本文方法具有一定的适用性和可推广性%关键词:棉田杂草;识别与定位;优化Fater R-CNN;数据增强;特征提取网络中图分类号:TP274+.2;TP391.4文献标识码:A文章编号:1000-1298(2021)05-0026-09Identification and Localization of Weeds Based onOptimized Faster R-CNN in Cotton Seedling StageFAN Xiangpeng1ZHOU Jinping1#2XU Yan1,2LI Kaijing1WEN Desheng1(1.School of Mechanical Engineering#Xinjiang University#Urumqi830047#China2.Agriculturr and Animal Husbandry Robot and Intelligent Equipment EngineeringResearch Center of Xinjiang Uygur Autofomoos Regioo#Urumqi830047#China) AbstracC:In ordrs to solve thr problems of low wcaanWWn rate and poor robustness of catton seedlings and cwss-ww/of various weeds distribution status,srvvn kinds of cammon weeds in thr field were taken as thr reserrch objrci undrs natural canditions of Xinjiang catton seedling period.A Fastrs R—CNN method of growing catton seedling weed identiWca/on with data augmentation was proposed.A total of4694imaars of weeds in catton seedling stagr undrs difereni growing backgrounde and diWewnt werthrs canditions were callrcted#then thr objrcts of1X31/-were annotated and thr data sets were augmented.Thr suitably anchor scale of thr model was designed#and four feature extractors invalving VGG16#VGG19#RrsNet50and RrsNet101were campared.VGG16was selected as thr optimal feature extractor to train catton seedling and weeds imaars and optimized Faster R—CNN network detrctWn model was obtained for weeds of diWerent werthrs canditions and thr varieta growth statue#which can e//ctivvly identig and1x00110/srvvn typre of weeds and catton seedlings.Thr avaraar identification timr for single picture was0.261-and thr avarayr prrcWWn of optimized Faster R—CNN was94.21%.With thr sama samplr#chawcteWs/c extractor network#camputrs condition#thr proposed method wae campared with thr stat/of-th/oW methode YOLO and SSD alyorithme.Thr results showed that thr 收稿日期:2020-08-05修回日期:2020-08-29基金项目:新疆维吾尔自治区研究生科研创新项目(XJ2019G033)和国家级大学生创新创业训练项目(201810755079S)作者简介:樊湘鹏(1993―),男,博士生,主要从事机电控制与农业信息化研究,E-mail:1509324673C163.cam通信作者:周建平(1974—),男,教授,博士生导师,主要从事机电控制农业与信息化研究,E-mail:linkzhouC163.cam第5期樊湘鹏等:基于优化Faster R-CNN的棉花苗期杂草识别与定位27proposed Faster R—CNN model had obvious advantayas in the identiCcation of various weeds in the seed iong s iage oPco i on oeid.Theiaaoned mode iwas p iaced on oeid env oaonmen i oaveaoocaioon iesi.During the wceanitmn pycas s,totally150valid imayas wee verified,and the averaya raceaniCon rate aNachNd88.67%.ThNavNaagNaNcognoioon iomNooaNach omagNwas0.385s.ThNaNsuiiondocaid ihaiihN proposed method had cartain applicabCita and generalization in precise cantrol of weeds.Key words:cotton field w eeds;identiCcation and localizaiton;optimized Faster R—CNN;data augmentation;feature extraction neteork0引言我国棉花的生产量和消费量均位居世界前列[新疆作为中国最大的优质商品棉生产基地,其棉花产量占全国棉花产量的60%-70%[2],棉花已成为新疆地区国民经济的重要支柱%棉田中的杂草与棉花争夺水分、养分和生长空间,造成棉花产量和品质下降[3],杂草也为病虫害滋生和蔓延提供了生存条件,导致作物病虫害频发。
基于改进YOLOv8n的双模态杂草检测方法目录1. 内容概要 (2)1.1 研究背景 (2)1.2 杂草检测的重要性 (3)2. 文献综述 (4)2.1 传统杂草检测方法 (5)2.2 YOLO系列模型 (7)2.3 双模态检测技术 (8)2.4 现有改进方案 (9)3. 改进YOLOv8n算法 (10)4. 双模态数据集构建 (12)4.1 数据收集方法 (13)4.2 数据预处理 (14)4.3 模态特征融合 (15)4.4 标签生成与验证 (16)5. 检测方法设计 (18)5.1 检测算法流程 (19)5.2 特征提取模块 (20)5.3 边界框预测模块 (21)5.4 多尺度检测策略 (22)6. 实验验证 (23)6.1 实验设置与数据分析 (24)6.2 关键参数调整对比 (25)6.3 性能评估指标与实验结果 (27)6.4 算法性能分析 (28)7. 结果分析与讨论 (29)7.1 检测效果对比 (30)7.2 改进YOLOv8n性能分析 (31)7.3 双模态检测优势 (32)7.4 存在问题与未来工作 (34)8. 结论与展望 (35)8.1 研究总结 (36)8.2 未来研究方向 (37)8.3 实践应用场景 (38)1. 内容概要本文提出了一种基于改进8n的双模态杂草检测方法,旨在提高杂草检测的准确性和效率。
该方法充分利用了图像和多光谱图像的互补信息,通过融合图像特征,有效地识别和定位杂草。
我们对8n架构进行了改进来提升其检测性能,包括优化网络结构、引入注意力机制和使用新的损失函数。
实验结果表明,本方法在多个公开数据集上实现了显著的检测精度提升,相比于单模态方法,检测结果更加准确,同时运行速度也得到了一定的加速。
该方法具有广泛的应用前景,能够为精准农业、环境监测等领域提供有效的解决方案。
1.1 研究背景杂草是农田管理中的一个重要问题,它们不仅与农作物争抢养分和空间,还会影响农作物的生长质量和产量。
改进Retina-Net的草坪杂草目标检测
宋建熙;李兴科;于哲;李西兵
【期刊名称】《中国农机化学报》
【年(卷),期】2022(43)12
【摘要】在城市规划与园林景观中,人工养护的草坪起到美化环境的作用,但是各类草坪杂草的滋生,严重损害景观草坪的观赏性。
而人工分辨杂草费时费力,影响后续的除草效率。
因此,借助深度学习的研究成果,对现有的Retina-Net目标检测模型进行针对性改进,通过提取训练集目标图像特征信息、增设多尺度感受野、改进软池化层等方式,提升模型的杂草检测和种类分辨的能力,有助于后续除草工作的高效展开。
最终试验对6类杂草的识别率分别为
85.3%,84%,89.6%,86.7%,95.1%,91.5%。
相比较于其他主流目标检测算法,识别率分别提高2.2%~9.3%。
【总页数】8页(P170-177)
【作者】宋建熙;李兴科;于哲;李西兵
【作者单位】福建农林大学机电工程学院
【正文语种】中文
【中图分类】TP391.41
【相关文献】
1.草坪宁51号和草坪宁71号混合防除草坪杂草试验
2.草坪宁51号和草坪宁71号混合防除草坪杂草试验
3.草坪杂草防除技术更新的进展——《草坪杂草原色图
鉴及防除指南》介绍4.基于改进的Retinex算法的草坪杂草识别5.基于改进模糊C均值聚类算法的草坪杂草识别
因版权原因,仅展示原文概要,查看原文内容请购买。