收藏 分销(赏)

改进YOLOv5识别复杂环境下棉花顶芽.pdf

上传人:自信****多点 文档编号:1451002 上传时间:2024-04-27 格式:PDF 页数:7 大小:2.41MB
下载 相关 举报
改进YOLOv5识别复杂环境下棉花顶芽.pdf_第1页
第1页 / 共7页
改进YOLOv5识别复杂环境下棉花顶芽.pdf_第2页
第2页 / 共7页
改进YOLOv5识别复杂环境下棉花顶芽.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、改进 YOLOv5 识别复杂环境下棉花顶芽彭炫1,2,周建平1,2,许燕1,2,席光泽1(1.新疆大学机械工程学院,乌鲁木齐830017;2.新疆维吾尔自治区农牧机器人及智能装备工程研究中心,乌鲁木齐830017)摘要:为提高复杂环境下棉花顶芽识别的精确率,提出了一种基于 YOLOv5s 的改进顶芽识别模型。建立了田间复杂环境下棉花顶芽数据集,在原有模型结构上增加目标检测层,提高了浅层与深层的特征融合率,避免信息丢失。同时加入 CPP-CBAM 注意力机制与 SIOU 边界框回归损失函数,进一步加快模型预测框回归,提升棉花顶芽检测准确率。将改进后的目标检测模型部署在 Jetsonnano 开发

2、板上,并使用 TensorRT 对检测模型加速,测试结果显示,改进后的模型对棉花顶芽识别平均准确率达到了 92.8%。与 FastR-CNN、YOLOv3、YOLOv5s、YOLOv6 等算法相比,平均准确率分别提升了 2.1、3.3、2、2.4 个百分点,该检测模型适用于复杂环境下棉花顶芽的精准识别,为后续棉花机械化精准打顶作业提供技术理论支持。关键词:作物;图像识别;小目标检测;YOLOv5s;SIOU 损失函数;CPP-CBAM 注意力机制;棉花打顶doi:10.11975/j.issn.1002-6819.202305026中图分类号:S24文献标志码:A文章编号:1002-6819(

3、2023)-16-0191-07彭炫,周建平,许燕,等.改进 YOLOv5 识别复杂环境下棉花顶芽J.农业工程学报,2023,39(16):191-197.doi:10.11975/j.issn.1002-6819.202305026http:/www.tcsae.orgPENG Xuan,ZHOU Jianping,XU Yan,et al.Cotton top bud recognition method based on YOLOv5-CPP in complexenvironmentJ.TransactionsoftheChineseSocietyofAgriculturalEngin

4、eering(TransactionsoftheCSAE),2023,39(16):191-197.(inChinesewithEnglishabstract)doi:10.11975/j.issn.1002-6819.202305026http:/www.tcsae.org0引言棉花是中国仅次于粮食的第二大作物,是关系到国计民生的重要资源。近年来,棉花种植主要依靠人工,劳动力短缺、机械智能化生产程度低等问题仍需解决,因此中国的棉花产量仍有很大提升空间1-5。棉花打顶是棉田作业过程中的重要环节,脱离人工打顶促进智能机械化打顶是降低成本、提升棉花生产效率的重要手段。对于棉花打顶机器人的设计,首要

5、任务是解决复杂棉田环境中不损伤棉花蕾,精准驱动激光去除顶芽是其重中之重,因此精准识别定位棉花顶芽是关键环节。近年来,随着 FastR-CNN、YOLO 系列等6-9经典目标检测算法不断迭代更新,其迅速在各个领域得到了广泛应用。国内外研究学者针对目标检测技术在农业领域的应用进行了广泛的研究。KOIRALA 等10为验证芒果发育阶段影响开花数量,使用 YOLOv3 算法在芒果发育阶段自动检测圆锥花序数量,但 YOLOv3 检测物体的实时性较慢。刘海涛等11为实现非接触、低成本、精准识别棉花顶芽,提出一种基于 YOLOv4 模型的复杂环境下棉花顶芽识别方法,然而该设计对顶芽了解不够全面,并没有对顶芯

6、进行识别,造成顶芽识别率过低,打顶效果不佳。JIA 等12-13改进了 MaskRCNN 算法,提升了树叶遮挡等复杂环境下苹果识别的准确度,但是 MaskRCNN 模型为一阶段检测模型,较比 YOLO 模型检测效率较低。朱旭等14采用 FastR-CNN 模型算法在恶劣环境下对蓝莓进行识别,目标检测准确率和效率明显提高,但是 FastR-CNN 算法需要采集大量的数据训练模型,在样本不足的时检测准确度明显降低。李天华等15-16设计了一种基于 YOLOv4 的改进算法,实现了对复杂环境下的番茄识别定位,能够有效解决果实遮挡、光照影响下番茄识别准确率低的问题,但训练成本过大,检测帧数过低,模型计

7、算量过大,不便于模型轻量化运行。CHEN等17为提升茶蕾识别定位精度,保证茶蕾采摘的完整率,设计了一种基于 YOLOv3 的改进茶蕾识别算法模型,该模型能在光照变化和部分遮挡等复杂环境下识别茶蕾并定位采摘点。茶蕾与棉花顶芽同样是小目标农作物,但YOLOv3 检测算法对小目标提取效果并不理想,该算法识别的准确率有待加强。薛月菊等18针对果园场景下光照的多样性、背景的复杂性及芒果与树叶颜色的高度相似性,特别是树叶和枝干对果实遮挡及果实重叠等问题,提出了改进 YOLOv2 检测方法,但由于 YOLOv2 模型过大,识别效果和检测速度不够理想。樊湘鹏等19为建立高效、准确的葡萄叶部病害检测系统,引入迁

8、移学习机制,利用大型公开数据集对 VGG16 模型预训练,保持模型前端 13 个层等参数和权重不变,对全连接层和分类层改进后利用新数据集微调训练模型,虽然能够完成对葡萄叶部病虫害识别,但训练成本过大,检测速度较慢。基于此,上述研究学者在目标检测技术存在小目标检测精度低、实时检测慢、模型计算量大等问题,本文收稿日期:2023-05-06修订日期:2023-07-22基金项目:2022 新 疆 大 学 优 秀 博 士 研 究 生 科 研 创 新 项 目(XJU2022BS086);新疆维吾尔自治区自然科学基金项目:复杂环境下棉花顶芽识别定位与激光去除技术研究(No.2022D01C67);新疆农机

9、研发制 造 推 广 应 用 一 体 化 项 目:棉 花 激 光 打 顶 机 研 发 制 造 推 广 应 用(No.2022D14002)作者简介:彭炫,博士,研究方向为计算机视觉技术农业领域应用。Email:通信作者:周建平,教授,博士生导师,研究方向为机电一体化、农业机械化与信息化。Email:第39卷第16期农 业 工 程 学 报 Vol.39No.162023年8月TransactionsoftheChineseSocietyofAgriculturalEngineeringAug.2023191对复杂环境下对棉花顶芯识别为研究对象,本文选用YOLOv5s 模型,针对以上述问题进行优化,

10、设计一种基于 YOLOv5s 的改进棉花顶芽识别模型,为棉花机械化打顶提供视觉识别研究基础。1试验数据获取棉花顶芽数据采集地于新疆生产建设兵团第八师143 团棉花基地,品种为新路早 50,采集设备为索尼A7M3 全高清摄像机,为采集真实环境的复杂棉花顶芽数据,不同光照和不同天气条件下均分为单株顶芽、多株顶芽、遮挡顶芽 3 种类别进行拍摄,共采集到 1360张顶芽图像,经筛选后得到 506 张清晰顶芽图像(其中不同光照 156 张,不同天气 150 张,不同遮挡顶芽面积 200 张),经数据增强(平移、翻转、剪切、降噪、缩放比例、亮度增强)扩充到 3103 张图像,随机抽取2663 张作为训练集

11、,240 张作为验证集,200 张作为测试集,图 1 为棉花顶芽样本数据。2YOLOv5s 检测算法改进2.1YOLOv5-CPP 模型使用 YOLOv5s 目标检测算法对棉花顶芽数据集进行训练,在复杂环境下棉花顶芽识别效果并不理想。随着网络层的加深,小目标信息逐渐丢失,同时由于YOLOv5s 算法中原有 3 个检测头,对多尺度目标特征信息提取效果不佳,尤其对棉花顶芽小目标检测识别会出现错检漏检的问题。为了实现顶芽较好的检测效果,以YOLOv5s 目标检测算法为基础,将主干网络得第 2 层引出第 4 个目标检测头,因浅层含有特征信息更加丰富,为避免随着网络加深信息丢失,将浅层与深层提取到的特征

12、信息进行融合,解决小目标特征信息随着网络结构加深信息丢失问题,避免特征提取不充分。由于在改进的 YOLOv5s 结构中增加目标检测层会使模型的计算量加大,因此在原有目标检测网络中,需要设计一种既能解决模型参数量问题又能解决对小目标提取效果好的模块来代替 C3 模块。经试验分析,CPP-CBAM 注意力机制为最佳模块,将 CPP-CBAM 加入到第 13 层得到棉花顶芽最佳目标检测模型,图 2 为 YOLOv5-CPP 目标检测模型改进结构图。a.雨天顶芽 a.Rainy crown bud b.阴天顶芽 b.Cloudy crown bud c.晴天顶芽c.Sunny crown bude.遮

13、挡25%e.Blocking 25%f.遮挡50%f.Blocking 50%g.遮挡75%g.Blocking75%h.顺光顶芽h.Crown bud withfront lighti.侧光顶芽i.Crown bud withside lightj.背光顶芽j.Crown bud withback light图 1样本数据集Fig.1Sampledataset输入图640640卷积层卷积层卷积层卷积层卷积层卷积层卷积层卷积层卷积层32032064160160128 808025640405122020102440405121601601288080256404012820201024Focu

14、s 卷积核 卷积核 Focus convolution Convolution C3 卷积核 C3 convolutionCPP-CBAM 模块CPP-CBAM module8080256160160128输出图卷积层输出图卷积层输出图输出图8080256404012820201024图 2YOLOv5-CPP 模型结构图Fig.2TheYOLOv5-CPPmodelstructurefigure192农业工程学报(http:/www.tcsae.org)2023年2.2CPP-CBAM 注意力机制模块CPP-CBAM 注意力机制模块如图 3 所示,C3 卷积核结构分为两个分支,第一分支将特征

15、图先升维后降维然后与第二分支网络进行特征融合,特征融合后特征图再进入通道模块,最大池化层 Maxpool 以及平均池化层AvgPool 将特征图变成两个矩阵 C,1,1 的权重向量,两个拼接的权重向量经过 MLP 网络获取到通道的权重值,增加原特征图的特征通道数,通道数得到两个激活函数,将两个输出结果的每个元素相加,再由 Sigmoid 激活函数过滤掉冗余过多顶芽特征,按权重重要程度先进行筛选特征图,筛选出的特征图在再经过空间模块 Maxpool最大池化以及平均池化层 AvgPool,形成一个 1,H,W的权重向量,由于 CBAM 模块多数经过 11 卷积核、最大池化层以及平均池化层操作,能够

16、压缩特征通道维度,将复杂的模型特征通道数大大减少,达到增加注意力机制后,目标检测模型参数也减少的目的。特征图输入Input feature最大池化Maxpool平均池化AvgpoolMLP 模块MLP module通道特征Channal attentiona.通道模块a.Channel module平均池化层Avgpool layer卷积层Conv layer空间注意力机制Spatial attention最大池化层Maxpool layer特征图Characteristic mapb.空间模块b.Spatial module特征图输入Input feature重新定义特征图Input fea

17、ture通道模块Channalmodule空间模块Space module卷积Conv卷积Conv归一化BNBottneckc.CPP-CBAM 模块c.CPP-CBAM module图 3注意力机制图Fig.3Attentionmechanismfigure2.3分类 Focal Loss 损失函数机械打顶作业过程中由于棉田环境复杂,棉花顶芽被叶片严重遮挡,给机器对顶芽识别带来困难,为了使预测框回归到真实框速度加快,因此考虑将 CIOU20损失函数替换为 SIOU21损失函数。GIOU22、DIOU23、CIOU 损失函数只考虑了预测框与真实框的宽高比,并没有考虑到它们之间的方向,易退化成

18、IOU 损失函数,导致顶芽识别率精确度下降,式(1)SIOU 损失函数引入了真实框与预测框之间的向量角,其包含式(2)角度损失函数式、式(3)距离损失函数式、式(4)形状损失函数。Lloss=1IOU+2(1)=2(2)=t=x,y(1et)=2exey(3)=t=w,h(1ewt)(4)xy式中 为赋予时间的距离值,为真实框与预测框中心点和最小外接框宽比值的平方,为真实框与预测框中心点和最小外接框高比值的平方,式(3)为控制对形状损失的关注程度,t、w、h 代表真实框与预测框的宽与高,为预测框的宽与高,接近 4 才能避免过度关注形状损失函数。2.4系统平台与评价指标试验运行环境操作系统为Wi

19、ndows10(64位),内存为 16GB,显卡驱动RTX2060SUPRER,搭载 12thGenIntel(R)Core(TM)i5-9400F2.90GHz处理器,编程平台 Anaconda4.12.0,CUDA11.6,开发环境PyTorch,第16期彭炫等:改进 YOLOv5 识别复杂环境下棉花顶芽193编程使用 Python3.8,通过精确率(Precision,P),召回率(Recall,R)。P=TPTP+FP(5)R=TPTP+FN(6)TPFPFNTP+FPTP+FN式中表示正样本预测出来正确的框,表示负样本预测出正样本的框,表示从正样本预测出负样本的数量,表示正样本预测出

20、来正确的框加上负样本预测出正样本的框,也就是表示预测框的个数。表示正样本预测出来正确的框加上正样本预测出负样本的数量也就是标注框的个数。3结果与分析3.1内部参数对模型的影响为测试出 YOLOv5s 模型的最佳内部参数,即不同批量大小对 YOLOv5s 的影响,在训练时利用 github 官网提供的YOLOv5.pt 预训练权重,通过自制 YOLO 格式棉花顶芽数据集,模型设置图像大小为 640640 分辨率,训练轮次设置为 150,以及初始学习率为 0.01,采用Adam 优化器,分别设置不同批量大小分别为 10、12、15、17、20、25 进行训练,试验结果如表 1 所示。通过数据对比可

21、以看出,在相同迭代周期内,批量 Batchsize 设置为 20 时效果最好,即使平均准确率 mAP 达到了 90.3%,图片测试验证效果可看出,未改进的目标检测模型仍有提升空间。表1内部参数对模型的影响Table1Effectofbatchsizeonmodel批量大小Batchsize平均准确率MeanaverageprecisionmAP%精确率PrecisionP/%召回率RcallR/%置信度Confidence/%1087.392.196.086.01288.293.296.084.01588.593.596.084.01789.194.296.082.02090.395.295.

22、086.02589.194.296.085.03.2不同注意力机制对模型的影响为测试不同注意力机制对模型的影响,分别将不同注意力机制加入到 YOLOV5s 目标检测模型第 13 层,将 C3 模块更换为 SE、BotNet24、CotNet25、C2f、CCA、CCP-CBAM6 种注意力机制模块,YOLOv5-CPP 与其他 5 种模型对比结果如表 2 所示,YOLOv5-CPP 检测平均准确率 mAP 上升 2.5、1.6、1.7、0.8、1.4 个百分点,而YOLOv5-SE、YOLOv5-BotNet、YOLOv5-CotNet、YOLOv5-CCA这 4 种模型检测单株顶芽的平均精度

23、值分别降低了 1.1、0.1、0.3、0.4 个百分点,说明在棉花顶芽数据集上 SE、BotNet、CotNet、CCA注意力机制抑制了棉花顶芽的通道特征,造成总体识别顶芽精度下降,相反 YOLOv5-CPP 精度上升比例最大,进一步说明了 CPP-CBAM 自注意力机制经过空间模块与通道模块,对重要特征进行数值编码,强化了各特征之间的关系,降低了对全局注意力计算的结果,更加注重顶芽特征,因此CPP-CBAM 注意力机制在 3 种样本上效果均有所改善,尤其是对遮挡顶芽这种数量多的样本改善效果更加明显,因此得出 CPP-CBAM 注意力机制既能够解决在复杂情况下对小目标在复杂环境下的特征提取任务

24、。表2各个注意力机制模型对比Table2Comparisonofattentionmechanismmodels注意力机制AttentionmechanismmAP%P/%R/%检测速度Detectionspeed/(帧s1)平均精度AverageaccuracyAP/%单株顶芽Singleplantbud多株顶芽Multipleplantbud遮挡顶芽ShelterplantbudYOLOv5-SE90.394.3 96.050.094.096.280.8YOLOv5-BotNet 91.291.8 96.041.095.098.180.7YOLOv5-CotNet 91.192.6 96.

25、047.094.897.880.8YOLOv5-C2f92.092.2 96.050.095.397.583.2YOLOv5-CCA91.492.0 95.047.094.797.183.2YOLOv5-CPP92.892.2 96.043.095.198.485.13.3注意力机制不同位置加入模型对比分析为测试 CPP-CBAM 注意力机制对模型的影响,本试验通过将注意力机制 CPP-CBAM 插入到不同网络层中,测试出模型的检测速度与平均准确率,试验效果见表 3,第 13 层分别加入 CPP-CBAM 注意力机制之后,较比插入到 1、3、5、9、20 层平均准确率 mAP 明显有所提升,因

26、为随着网络加深,第 13 层 C3 模块对特征图处理效果较比 CPP-CBAM 注意力机制特征提取能力较弱,浅层小目标信息较为丰富,C3 模型尚且能够对小目标信息特征进行提取,但是随着网络加深小目标信息丢失,C3 模块逐渐对小目标的特征提取效果不理想,因此可以推出第13 层插入 CPP-CBAM 注意力机制效果最佳。表3不同层加入注意力机制对模型的影响Table3Theeffectofdifferentlayersaddingattentionmechanismsonthemodel特征提取层位置PositioninbackbonemAP%P/%R%检测速度Detectionspeed/(帧s

27、1)AP/%单株顶芽Singleplantbud多株顶芽Multipleplantbud遮挡顶芽ShelterplantbudLayer=190.895.8 94.94393.295.280.2Layer=390.695.2 95.14395.197.180.6Layer=591.296.3 95.64394.797.780.7Layer=990.495.3 94.14394.497.382.0Layer=1390.195.2 94.14395.197.182.9Layer=2091.295.1 94.74395.497.283.03.4与其他模型对比分析与其他模型对比结果见表 4 所示,表4

28、各个检测模型对比Table4Comparisonofeachlossfunction模型Model模型参数量Modelparameterquantity/MBmPA%P/%R/%检测时间Detectiontime/s检测速度Detectionspeed/(帧s1)YOLOv361.089.594.7 96.00.0424.0YOLOv5s7.2090.895.8 96.00.0337.0YOLOv6s37.890.495.1 96.00.0335.0FastR-CNN30.090.795.5 96.00.0233.0YOLOV5-CPP3.7092.892.2 96.00.0136.0为验证

29、YOLOv5-CPP 模型在棉花顶芽数据集上检测效果,本文分将 YOLOv326、YOLOv5s、YOLOv627、Fast-RCNN 这 4 种网络模型在棉花顶芽数据集上进行训194农业工程学报(http:/www.tcsae.org)2023年练,在相同迭代次数内,YOLOv3、YOLOv5s、YOLOv6、Fast-RCNN 这 4 种网络模型对数据集进行提取特征的效果并不理想,进一步说明网络模型中模型对顶芽部分特征提取不到位,导致检测精度不高。将 CPP-CBAM 注意力机制加入到 YOLOv5s 模型中,并改进边界框回归损失函数,对比 4 种网络模型在棉花顶芽的训练情况,得出改进 Y

30、OLOv5s 的 mAP 值比 YOLOv3、YOLOv5s、YOLOv6s、Faster-RCNN-tiny 模型分别高出 3.3、2、2.4、2.1 个百分点,同时模型参数量分别减少 57.3、3.5、34.1、26.3MB,但检测速度并未达到实时检测棉花顶芽的帧率。3.5Jetson nano 部署试验分析为测试 YOLOv5-CPP 模型移植到试验样机实时检测顶芽的效果,将 YOLOv5-CPP 与 YOLOv5s、YOLOv5-CotNet、YOLOv5-BotNet3 种模型进行对比分析,4 种模型检测棉田同一区域被遮挡顶芽,如图 4 所示。通过测试顶芽图可以发现,YOLOv5s、

31、YOLOv5-BotNet、YOLOv5-CotNet 模型识别遮挡的顶芽分别漏检顶芽个数为 5、5、2,同时 YOLOv5-BotNet错检 1 个顶芽,YOLOv5-CPP 检测模型(图 4d)较比YOLOv5-CotNet检测模型(图 4c)检测遮挡的顶芽,平均准确度 mAP分别提升 15、29 个百分点,YOLOv5-CPP 模型鲁棒性进一步加强,模型识别准确度大幅度提升,同时在TensorRT 加速情况下检测速度达到了 52 帧/s,满足实时检测的效果,在遮挡情况下的顶芽基础上识别率、模型的鲁棒性进一步提升,验证了对遮挡情况的下顶芽有提升的效果。a.YOLOv5sb.YOLOv5-B

32、otNetc.YOLOv5-CotNetd.YOLOv5-CPP图 4不同试验模型对比图Fig.4Comparisonofdifferenttestmodels4结论本文在复杂环境识别遮挡下的棉花顶芽,建立不同不同光照和不同天气条件下的棉花顶芽样本,通过增加小目标检测层提高浅层与深层的特征融合,提升检测精度通过增加小目标检测层,并且添加注意力机制,同时改进 FocssLoss 损失函数,提升棉花顶芽样本识别率,并通过棉花打顶平台验证不同检测模型对棉花顶芽识别,得到以下几个结论:1)通过在模型特征提取层增加小目标检测层以及YOLOv5-CPP 并 与YOLOv5-SE、YOLOv5-BotNet

33、、YOLOv5-CotNet、YOLOv5-C2f、YOLOv5-CCA5 种模型进行对比,平均准确度 mAP 分别提高了 2.5、1.6、1.7、0.8、1.4 个百分点,尤其在识别被遮挡顶芽平均精度 AP分别提高了 4.3、4.4、4.3、1.9、1.9 个百分点,充分验证在模型特征提取层增加CPP-CBAM 注意力机制能够完成在复杂情况下的顶芽精确识别。2)本文通过对 YOLOv5 模型改进,YOLOv5-CPP 不均衡各类样本检测精度 mAP 达到了 92.8%,比 YOLOv5s模型提高了 2 个百分点,与 YOLOv3、YOLOv6、FastR-CNN 相比,mAP 分别提高了 3

34、.3、2.4、2.1 个百分点,分析得出 YOLOv5-CPP 对复杂情况下样本检测优势明显。YOLOv5-CPP 模型在复杂背景下识别精度、鲁棒性大幅度提升,模型的检测速度虽然降低,但 YOLOv5-CPP 模型通过TensorRT 加速后经过实地验证后可以满足棉花打顶实时识别检测要求,而且对于棉花打顶机而言,在保证识别准确率的前提下,提升速度指标,是保障机械作业效率的前提,为模型在棉花打顶机械上的迁移部署提供技术支持。参考文献熊伟,秋黎凤,白雪.棉花发展和纺纱进步的回顾与展望J.纺织器材,2023,50(1):9-14.XIONGWei,QIULifeng,BAIXue.Reviewand

35、prospectofcottondevelopmentandspinningprogressJ.TextileEquipment,2023,50(1):9-14.(inChinesewithEnglishabstract)1侯慧杰.新疆棉花生育期气象灾害对棉花生长的影响及应对措施研究J.农业灾害研究,2023,13(1):22-24.HOU Huijie.Effects of meteorological disasters on cottongrowth in Xinjiang and countermeasuresJ.AgriculturalDisaster Research,2019,1

36、3(1):22-24.(in Chinese withEnglishabstract)2徐爱武,梁燕,尚斌.我国棉花专业仓储的现状问题及对策J.中国棉花加工,2022(6):14-16.3马乾.“十四五”期间新疆棉花公证检验事业与棉花产业的发展趋势探讨J.中国棉花加工,2022(6):30-314陈常兵.我国内地棉区棉花生产现状与发展对策J.中国农技推广,2022,38(10):10-13.5GIRSHICKR.Fast r-cnnC/Proceedings of the IEEEInternationalConferenceonComputerVision.Santiago,2015:144

37、0-14486REDMONJ,DIVVALAS,GIRSHICKR,Youonlylookonce:Unified,real-time object detectionC/IEEE Conference onComputer Vision and Pattern Recognition.Las Vegas,NV,7第16期彭炫等:改进 YOLOv5 识别复杂环境下棉花顶芽195USA,2016:779-788.RedmonJ,FarhadiA.YOLOv3:AnincrementalimprovementEB/OL.(2018-04-08)2022-11-19https:/arxiv.org/

38、abs/1804.02767.8WANGC,BOCHKOVSKIYA,LIAOHYM.Faster-RCNN:Trainablebag-of-freebiessetsnewstate-of-the-art for real-timeobject dete-ctorsEB/OL.(2022-07-06)2022-11-19https:/arxiv.org/abs/2207.02696.9KOIRALAA,WALSHKB,WANGZ,etal.Deeplearningformango(Mangifera indica)paniclestageclassificationJ.Agronomy,202

39、0,10(1):143.10刘海涛,韩鑫,兰玉彬,等.基于 YOLOv4 网络的棉花顶芽精准识别方法J.中国农业科技导报,2022,24(8):99-108.LIU Haitao,Han Xin,LAN Yubin,et al.Precisionidentification of cotton terminal bud based on YOLOv4networkJ.JournalofAgriculturalScienceandTechnologyofChina,2022,24(8):99-108.(inChinesewithEnglishabstract)11JIA W,TIAN Y,LUO

40、 R.Detection and segmentation ofoverlappedfruitsbasedonoptimizedmaskR-CNNapplicationin apple harvesting robotJ.Computers and Electronics inAgriculture,2020,172:105380.12张振国,吕全贵,任杰宇,等.旋转剪切式红花花丝采摘机械关键部件的设计J.中国农机化学报,2019,40(7):1-6.ZHANGZhenguo,LQuangui,RENJieyu.Designofcriticalcompinents for safflower

41、harvesting machinery by rotaryshearJ.JournalofChineseAgriculturalMachanization,2019,40(7):1-6.(inChinesewithEnglishabstract)13朱旭,马淏,姬江涛,等.基于FasterR-CNN的蓝莓冠层果实检测识别分析J.南方农业学报,2020,51(6):1493-1501.ZHUXu,MAHao,JIJiangtao,etal.DetectingandidentifyingblueberrycanopyfruitsbasedonFasterR-CNNJ.JournalofSouth

42、ern Agriculture,2020,51(6):1493-1501.(in ChinesewithEnglishabstract)14李天华,孙萌,丁小明,等.基于YOLOv4+HSV的成熟期番茄识别方法J.农业工程学报,2021,37(21):183-190.LI Tianhua,SUN Meng,DING Xiaoming,et al.TomatorecognitionmethodattheripeningstagebasedonYOLOv4and HSVJ.Transactions of the Chinese Society ofAgriculturalEngineering(T

43、ransactionsoftheCSAE),2021,37(21):183-190.15杨坚,钱振,张燕军,等.采用改进 YOLOv4-tiny的复杂环境下番茄实时识别J.农业工程学报,2022,38(9):215-221.YANG Jian,QIAN Zhen,ZHANG Yanjun,et al.Real-timerecognition of tomatoes in complex environments based onimproved YOLOv4-tinyJ.Transactions of the ChineseSocietyofAgriculturalEngineering(Tr

44、ansactionsoftheCSAE),162022,38(9):215-221.(inChinesewithEnglishabstract)CHENC,LUJ,ZHOUM,A.YOLOv3-basedcomputervisionsystemforidentificationofteabudsandthepickingpointJ.ComputersandElectronicsinAgriculture,2022,198:107116.17薛月菊,黄宁,涂淑琴,等.未成熟芒果的改进 YOLOv2识别方法J.农业工程学报,2018,34(7):173-179.XUE Yueju,HUANG N

45、ing,TU Shuqin,et al.ImprovedYOLOv2 identification method of immature MangoJ.TransactionsoftheChineseSocietyofAgriculturalEngineering,(TransactionsoftheCSAE)2018,34(7):173-179.(inChinesewithEnglishabstract)18樊湘鹏,许燕,周建平,等.基于迁移学习和改进 CNN 的葡萄叶部病害检测系统J.农业工程学报,2021,37(6):151-159.FANXiangpeng,XUYan,ZHOUJian

46、ping,etal.Grapeleafdisease detection system based on transfer learning andimproved CNNJ.Transactions of the Chinese Society ofAgricultural Engineering,(Transactions of the CSAE)2021,37(6):151-159.(inChinesewithEnglishabstract)19ZHENG Z H,WANG P,LIU W,et al.Distance-IoUloss:Fasterandbetterlearningfor

47、boundingboxregressionC/Proceedings of the AAAI Conference onArtificialIntelligence,NewYork,USA,2020:12993-13000.20GEVORGYAN Z.SIoU loss:More powerful learningforboundingboxregressionC/ComputerVisionandPatternRecognition.NewOrleans,2022:1-1221HAMID R,NATHAN T,JUN Y,et al.Generalizedintersection over

48、union:A metric and a loss for boundingboxregressionC/ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.LongBeach,2019:658-666.22ZHENG Z,WANG P,LIU W,et al.DistanceIoU loss:FasterandbetterlearningforboundingboxregressionC/Proceedings of the AAAI Conference onArtificialIntelligence.P

49、aloAlto,2020:1-7.23SrinivasA,LinTianY,ParmarN,BottlenecktransformersforvisualrecognitionC/ProceedingsoftheIEEE/CVFConference on Computer Vision and Pattern Recognition.Nashville,TN,USA.2021:16519-16529.24LIY,YAOT,PANY,etal.ContextualtransformernetworksforvisualrecognitionC/ProceedingsoftheIEEEConfer

50、enceon Computer Vision and Pattern Recognition.New Orleans,IEEE,2022:1489-1500.25RedmonJ,FarhadiA.YOLOv3:AnincrementalimprovementEB/OL.(2018-04-08)2020-07-07.https:arxiv.org/abs/1804.02767.26LIChuyi,LILulu,JIANGHongliang,etal.YOLOv6:asingle-stageobjectdetectionframeworkforindustrialapplicationsEB/OL

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服