收藏 分销(赏)

采用改进的YOLOv5s检测花椒簇.pdf

上传人:自信****多点 文档编号:861598 上传时间:2024-04-01 格式:PDF 页数:8 大小:2.50MB
下载 相关 举报
采用改进的YOLOv5s检测花椒簇.pdf_第1页
第1页 / 共8页
采用改进的YOLOv5s检测花椒簇.pdf_第2页
第2页 / 共8页
采用改进的YOLOv5s检测花椒簇.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、采用改进的 YOLOv5s 检测花椒簇徐杨1,2,熊举举1,李论1,彭佑菊1,何佳佳1(1.贵州大学大数据与信息工程学院,贵阳550025;2.贵阳铝镁设计研究院有限公司,贵阳550025)摘要:为实现花椒簇的快速准确检测,该研究提出了一种基于改进 YOLOv5s 的花椒簇检测模型。首先,使用MBConv(MobileNetV3blockconvolution,MBConv)模块和基于 ReLU 的轻量级自注意力机制优化了 EfficientViT 网络,用其代替 YOLOv5s 的主干,减少模型的参数量、增强模型对重要特征的表达能力。其次,在模型的训练过程中采用了OTA(optimaltra

2、nsportassignment)标签分配策略,优化训练中的标签分配结果。最后,使用 WIoU 损失函数对原损失函数 CIoU 进行替换,提高锚框的质量。试验结果表明,改进 YOLOv5s 模型的平均准确度均值(meanaverageprecision,mAP)为 97.3%、参数量为 5.9M、检测速度为 131.6 帧/s。相较于 YOLOv5s 模型,mAP 提升 1.9 个百分点、参数量降低 15.7%、检测速度提高 14.5%。结果表明,该研究提出的改进 YOLOv5s 模型准确度高、参数量低、检测速度快,可实现对花椒簇的有效检测。关键词:图像处理;深度学习;目标检测;YOLOv5;

3、自注意力机制;花椒簇doi:10.11975/j.issn.1002-6819.202306119中图分类号:S573.9;TP391.41文献标志码:A文章编号:1002-6819(2023)-16-0283-08徐杨,熊举举,李论,等.采用改进的 YOLOv5s 检测花椒簇J.农业工程学报,2023,39(16):283-290.doi:10.11975/j.issn.1002-6819.202306119http:/www.tcsae.orgXUYang,XIONGJuju,LILun,etal.DetectingpepperclusterusingimprovedYOLOv5sJ.Tr

4、ansactionsoftheChineseSocietyofAgriculturalEngineering(TransactionsoftheCSAE),2023,39(16):283-290.(inChinesewithEnglishabstract)doi:10.11975/j.issn.1002-6819.202306119http:/www.tcsae.org0引言随着农业领域的快速发展与人工智能技术的广泛应用,农业生产逐渐朝着智能化、高效化的方向发展。作为中国常见的农作物之一,花椒被广泛种植和消费。然而,传统的花椒采摘主要依赖人工劳动。由于花椒枝干上遍布尖刺且枝叶杂乱,采摘的难度较

5、大。因此,开发自动化采摘技术1-2对花椒产业的发展至关重要。目标检测算法是实现自动化采摘技术的关键3。传统的目标检测算法通常需要先对花椒图像进行分割,去除背景信息,再提取尺度不变特征转换4(scale-invariantfeaturetransformer,SIFT)或方向梯度直方图5(histogramodorientedgradient,HOG)等纹理特质,然后进行目标定位和识别。万芳新等6利用红色和绿色的图像差异进行分割,使用优化腐蚀滤除噪点和隔离带法去除非目标花椒果实,实现对花椒的定位。齐锐丽等7利用 HSV(hue,saturation,value)模型对花椒图像进行处理,然后使用

6、Otsu 算法进行阈值分割,以达到对花椒目标的辨识。上述传统的机器学习算法需要手工提取特征,难以获得较好的检测结果。基于深度学习的目标检测算法通过大规模的训练和端到端的学习取得了显著进展,能够有效应对农业工程中复杂的场景、光照变化、遮挡等挑战。它们能够适应不同尺寸、不同类别、不同比例和不同的形状目标,具有鲁棒性强、自适应性好、准确率高的优势。在农业自动化领域得到了广泛的应用,如猕猴桃花朵检测8,茶叶杂质检测9、套袋柑橘检测10等。常用的目标检测算法分为两类,第一类是基于候选区域的目标检测算法。主要有 R-CNN11、FastR-CNN12、FasterR-CNN13、SPPNet14等。另一类

7、是基于回归的目标检测算法,代表性的算法有 YOLO15-18系列和 SSD19系列等。YOLO 系列算法具有高准确率和高检测速度的优点,被广泛应用在农作物的果实检测中。赵德安等20通过 YOLOv3 卷积神经网络遍历整个图像回归目标的类别和位置,在效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。杨坚等21改进 YOLOv4,通过添加小目标检测头有效解决遮挡和小番茄识别准确率低的问题。目前国内外对农作物果实的目标检测研究较为成熟,但是以花椒簇为对象的目标检测研究较少。李光明等22使用 ShuffleNet 作为主干,轻量化 YOLOv5 模型实现了对花椒簇的检测。杨前等23提出多任务上下文增

8、强的花椒检测模型,向 YOLOv4 目标检测网络中加入枝干分割模块,形成检测-分割多任务网络准确检测近景花椒。本研究提出一种基于 YOLOv5s 的花椒簇检测模型,通过改进 YOLOv5s 的主干网络、使用 OTA(optimaltransportassignment)优化模型训练过程中的标签分配策略、使用 WIoU 作为边界框损失函数实现对花椒测的快速检测。1材料与方法1.1数据集本文以成熟的花椒簇为研究对象,部分图像采集于收稿日期:2023-06-19修订日期:2023-08-12基金项目:贵州省科技计划项目(黔科合支撑 2021 一般 176)作者简介:徐杨,博士,副教授。主要研究方向为

9、数据采集、机器学习等。Email:第39卷第16期农 业 工 程 学 报 Vol.39No.162023年8月TransactionsoftheChineseSocietyofAgriculturalEngineeringAug.2023283贵州省黔西南布依族苗族自治州晴隆县玄德花椒产业发展有限公司花椒种植基地,其经度、纬度及海拔分别是26.148、105.942和 1007m。于 2022 年 6 月 3 日,采用手机摄像头进行拍摄,拍摄照片分辨率为 24001344 像素,经过筛选得到 400 张图像。为了增强数据的多样性,从中国植物图像库获取了 148 张花椒图像作为补充,以提供更多样

10、化的花椒簇样本,覆盖更广泛的特征和变化。对收集到的 548 张图像,使用 LabelImg 工具对目标以最小外接矩形框进行标注。为了增加数据的多样性及鲁棒性,对这些图像进行数据增强处理,针对每张图像及其标注框,采用随机旋转和亮度调整的方式进行数据扩充。具体来说,将图像在15到 15之间随机旋转、并对图像及标注框进行随机亮度调整,调整范围为25%到 25%。通过这种方式,为每张图像生成两张新的图像,最终得到共计 1644 张图像的数据集。将数据集按照7:2:1 的比例随机划分训练集、验证集以及测试集。数据集部分图像如图 1 所示。1.2改进 YOLOv5s 模型的搭建YOLOv5s 主要由骨干网

11、络(BackBone)、颈部网络(Neck)和头部预测网络(Head)组成。YOLOv5s 的主干网络 CSPDarkNet53 通过深层的卷积神经网络进行图像提取,卷积神经网络可以高效的提取图像特征,但是感受野较小,难以捕获较远距离的语义信息。此外,卷积神经网络通过在图像的不同位置应用相同的卷积核进行权值共享,难以准确识别具有不同尺度或上下文信息的目标。自注意力机制对图像的全局依赖关系进行建模,不进行权值共享,更适应不同尺度、形状和上下文信息的目标,可以提供更精准的定位和目标区分能力。改进 YOLOv5s 的结构如图 2 所示,主要改进如下。首先,结合卷积神经网络与自注意力机制的优势,利用轻

12、量级的卷积神经网络模块 MBConv24和基于 ReLU 的自注意力机制25改进 EfficientViT 网络26。用其作为改进 YOLOv5s 的主干网络,减少模型参数量的同时增强模型的感受野以及多尺度学习能力。其次,在训练过程中使用了 OTA27标签分配策略,利用全局信息寻找最优的样本匹配结果,提高标签分配的质量。最后,用WIoU 损失函数28对原损失函数 CIoU 进行替换,通过将高质量锚框的竞争能力降低,同时减少低质量锚框所产生的有害梯度,来优化边界框定位能力。d.图片2d.Picture 2e.图片2向左旋转、亮度增加、标注框亮度随机调整。e.Picture 2 is rotate

13、d to theleft,the brightness isincreased,and the brightnessof the labelled box israndomly adjusted.f.图片2向左旋转、亮度降低、标注框亮度随机调整。f.Picture 2 is rotated tothe left,the brightness isreduced,and the brightnessof the labelled box israndomly adjusted.a.图片1a.Picture 1c.图片1向右旋转、亮度降低、标注框亮度降低c.Picture 1 is rotated

14、 to theright,the brightness isreduced,and the labelledbox is reduced inbrightnessb.图片1向左旋转、亮度增加、标注框亮度增加b.Picture 1 is rotated to theleft,the brightness isincreased,and the labelledbox is increased inbrightness图 1数据集部分图像示例Fig.1ExampleofsomeimagesfromthedatasetConv2dBatchNormLeakyReLUConv=BootleNeck1C

15、onvConv=BootleNeck2ConvConv=CSP2_xConvConvConcatConvBootleNeck2CSP1_xConvConvConcatConvBootleNeck1ConvConcatConvMaxPool2dMaxPool2dMaxPool2dSPPF快速池化金字塔模块InputConvSPPFUpSampleConcatConvConvCSP2_3UpSampleConcatCSP2_3ConcatCSP2_3ConvConcatCSP2_3Conv2dConv2dConv2d颈部网络头部预测网络p180802564040512202010248080256

16、4040512202010246406403MBConvEfficientVitmoduleMBConvEfficientVitmoduleMBConvMBConvConvDSConv骨干网络x个x个注:Conv 为卷积操作,BatchNorm 为归一化操作,LeakyReLU 为线性激活函数,UpSample 为上采样,MaxPool2d 为最大池化操作,Concat 为拼接操作。Note:Convisaconvolutionoperation,BatchNormisanormalizationoperation,LeakyReLUisalinearactivationfunction,Up

17、Sampleisanupsamplingoperation,MaxPool2disamaximumpoolingoperation,andConcatisasplicingoperation.图 2改进 YOLOv5s 网络整体架构Fig.2ImprovedYOLOv5snetworkarchitecture284农业工程学报(http:/www.tcsae.org)2023年1.2.1EfficientViT 网络本 文 使 用 改 进的 EfficientViT 网 络 作 为 改 进YOLOv5s 模型的主干,该网络使用一系列轻量化的卷积操作和轻量级自注意力机制提取图像特征。Effici

18、entViT网络架构如图 3 所示。输入维度为 6406403 的三通道RGB 图像,通过 InputItem 模块后,特征图依次通过Stage1、Stage2、Stage3、Stage4 进 行 处 理,最 终 将Stage4 的输出输入到 SPPF(fastspatialpyramidpooling)模 块 中。在 特 征 提 取 的 过 程 中,使 用 MBConv(MobileNetV3blockconvolution,MBConv)模块来提取图像的特征。在 Stage3 和 Stage4 的 MBConv 之后,添加 LightweightViT 模块,以进一步的增强重要特征的表达能

19、力。MBConv 模块的结构如图 4 所示。首先,通过一个轻量级的 11 卷积操作,降低输入特征图的通道数。然后采用深度可分离卷积 DWConv(depthwiseconvolution,DWConv)对输入进行处理。经过 DWConv 之后,将其输 出 通过 SENet29(squeeze-and-excitation networks,SENet)进行处理。接下来,通过一个 11 卷积操作将通道数恢复到与输入特征图相同的数量。最后,将经过DWConv 和 SENet 处理的特征图与输入特征图在相同维度的数值进行相加,避免梯度消失的问题。6406403ConvDSConvMBConvEffi

20、cientVitmoduleMBConvEfficientVitmoduleMBConvMBConvInput item32032064Stage1160160128Stage28080256Stage34040512Stage420201 024SPPF20201 02480802564040512EfficientViT图 3EfficientViT 网络整体架构Fig.3EfficientViTnetworkarchitectureConvSEConvAvgPoolingFCFCSEDWConvMBConv注:AvgPooling 为平均池化操作,FC 为全连接层。Note:AvgPoo

21、lingisanaveragepoolingoperation,andFCisafullconnectionlayer.图 4MBConv 模块Fig.4MBConvmodule其中,DWConv 分为深度卷积和逐点卷积。深度卷积将通道间的卷积分解为独立的卷积操作,在每个通道上进行独立的卷积。逐点卷积使用 11 的卷积核对深度卷积的输出进行卷积操作,相当于对特征图的通道维度进行线性组合。两者相结合,使得网络在保持高效性的同时,能够更好地提取和表示特征。F RHWCSE 模块通过一个全局平均池化将特征图降维,然后通过两个全连接层生成每个通道的注意力权重,最后这些权重与输入特征相乘,得到新的特征图

22、。SE 模块的输入是之前模块得到的特征图,输出为F=FSigmoid(W2(ReLU(W1Pool(F)(1)式中 表示基于元素的乘法,两个全连接层的激活函数分别是 ReLU 函数和 Sigmoid 函数。SE 模块的输出保留了输入特征图每个通道的重要信息,通过对每个通道的自适应调整,以突出关键特征,能够提高网络的表达能力和特征选择能力。LightweightViT 模块如图 5 所示。该模块由一个轻量级多尺度注意力 LightweightMSA(lightweightmulti-scaleattention)模块和一个 MBConv 模块组成。x RNfLightweightMSA 模块使用

23、 55 和 33 的深度可分离卷积DSConv(depthwiseseparableconvolution,DSConv)将附近的 Q、K、V 聚合起来。再通过轻量级的自注意力处理,增强了模块的多尺度学习能力。假设输入是,自注意力可以表示为第16期徐杨等:采用改进的 YOLOv5s 检测花椒簇285Oi=Nj=1Sim(Qi,Kj)Nj=1Sim(Qi,Kj)Vj(2)Q=xWQK=xWKV=xWVQiKjVjWQ、Wk、WV RfdOiOSim(,)式中,是矩阵 Q 的第i 行,、分别是矩阵 K、V 的第 j 列。而是可学习的线性映射矩阵。是输出矩阵的第 i 行。是相似性函数。Sim(,)S

24、im(Q,K)=ReLU(Q)ReLU(K)T本文使用基于 ReLU 的全局注意力,相似性函数可 表 示 为。则式(2)可改写为Oi=Nj=1ReLU(Qi)ReLU(Kj)TNj=1ReLU(Qi)ReLU(Kj)TVj=ReLU(Qi)(Nj=1ReLU(Kj)TVj)ReLU(Qi)(Nj=1ReLU(Kj)T)(3)LinearReLUglobalattentionReLUglobalattentionReLUglobalattentionValueQueryConcatLinear5533KeyMBConvLightWeightMSALightweightViTmoduleLight

25、Weight MSADWConv 11 Conv注:Linear 为线性变换操作,ReLUglobalattention 为基于 ReLU 的全局自注意力。Note:Linearisalineartransformationoperation,andReLUglobalattentionisglobalself-attentionbasedonReLU.图 5LightweightViT 模块Fig.5LightweightViTmoduleNj=1ReLU(Kj)TVj RddNj=1ReLU(Kj)TRd1O(N)O(N)只需要计算和一次,之后在每次需要使用的时候查询即可,只需要的计算成本

26、以及的内存。与 Softmax 函数相比,ReLU 函数的计算更快,在硬件设备上计算效率更高。1.2.2标签分配策略目标检测网络通过预测一组预先定义的特征点或锚框(YOLOv5s 中使用锚框)的分类标签和回归偏移量完成密集的预测任务。为了训练检测器,需要为每个锚框定义分类标签和回归目标,这被称为标签分配。在YOLOv5 中,采用了基于形状匹配的标签分配策略,该策略通过计算真实标注目标和每个锚框的宽高比来确定正样本。=i,j|i=1,2,.m,j=1,2,.nOTA 标签分配策略从全局的角度进行标签分配。将其视为一个优化运输(optimaltransport,OT)问题。其目标是寻找一个运输计划

27、,使得所有供应商的货品都能够以最小的运输成本提供给需求者,可表示为minmi=1nj=1cijij.s.t.mi=1ij=dj,nj=1ij=sj,mi=1si=nj=1dj,ij0,i=1,2,.m,j=1,2,.n.(4)式中 m 为供应商数量、n 为需求者数量、s 为供应向量、d 为需求向量。对于目标检测任务,假设输入图像中存在 m 个真实标注目标和 n 个锚框(anchor)。把每一个真实标注目标视为持有 k 个单位正标签的供应商,而每一gtiajcfgij Rmn个锚框则是单位标签的需求者。将单位正标签从运输到一个锚框的成本可以表示为分类损失和回归损失的加权和cfgij=Lcls(P

28、clsj(),Gclsi)+Lreg(Pboxj(),Gboxi)(5)PclsjPboxjajGclsiGboxiLclsLreg式中 表示模型的参数,和表示预测的分类分数和锚的边界框,和表示的是真实标签的类别和边界框,和表示分类损失和回归损失函数,是平衡系数。mnkajcbg R1n除了正样本之外,大量的锚框被当作负样本。假设这些负样本锚框的由输入图像的背景提供。因此将背景提供的负样本数设置为。从背景到一个锚框运输一个单位的负标签的成本定义为cbgj=Lcls(Pclsj(),)(6)式中 表示背景分类。供应向量 si可表示为s=k,im,nmk,i=m+1(7)c R(m+1)ns Rm

29、+1d Rn R(m+1)n所 以,完 整 的 损 失 矩 阵,供 应 向 量,需求向量,最优运输计划可以通过现成的 Sinkhorn-Knopp30迭代法解决这个 OT 问题得到,将每个锚框分配给向其运输最多标签的真实标注目标来解码相应的分配方案。1.2.3WIoU 损失函数LWIoUv1边界框定位损失直接决定了模型的目标定位能力。WIoU 使用了动态非聚焦机制,该机制使用离群度作为衡量锚框质量的指标,并提供了梯度增益分配策略。损失函数可表示为286农业工程学报(http:/www.tcsae.org)2023年LWIoUv1=RWIoULIoURWIoU=exp(xxgt)2+(yygt)

30、2W2g+H2g)LIoU=1IoU(8)WgHgxyxgtygtRWIoU 1,e)LIoULIoU(0,1)RWIoU式中、是目标边界框与锚框的交集的宽和高,、表示锚框中心点坐标,、表示目标边界框中心点坐标、IoU(intersectionoverunion)表示预测框与真实标注框的重叠面积与其并集面积的比值。会放大质量普通的锚框的、会减少高质量锚框的。=LIoULIoU 0,+)LIoUm=1tn0.05将离群度定义为,表示动量为的滑动平均值,n 表示训练总批次数,t 表示模型精度的提升速度在第 t 个训练周期减慢。离群度越小意味着锚框的质量越高,为其分配一个小的梯度增益,使得边界框回归

31、聚焦到普通质量的锚框上。对离群度较大的锚框也分配小的梯度增益,避免低质量锚框产生的有害梯度。因此,本文所使用的 WIoU 损失函数表示为LWIoU=rLWIoUv1,r=(9)=r=1LIoULWIoU式中当时,使。由于是动态的,使得能够实时的做出梯度分配策略。1.3试验环境与评价指标1.3.1试验环境=2=2.2本文方法基于 python3.8 和 pytorch1.12.1 框架实现。输入图像大小为 6406403 的 RGB 图像,在单张高性能 NVIDIAGeForceGTX3090 显卡上训练。采用 SGD优化器进行优化,模型的训练周期(Epoch)为 300、批量大小(Batchs

32、ize)为 16、初始学习率为 0.01,使用余弦退火函数动态降低学习率、权重衰减为 0.0005。WIoU 损失函数中设置,对动量 m 设置n=300,t=25。1.3.2评价指标本 文 采 取 平 均 精 确 度 均值 mAP(mean averageprecision)、参 数 量(params)以 及 每 秒 帧 率 FPS(framespersecond)作为评价指标来评估模型的整体性能。AP=w10P(R)dPmAP 由准确率(precision)和召回率(recall)计算得到。首先利用准确率何召回率绘制 PR 曲线并求其积分可以得到每个种类的平均精度 AP(averagepre

33、cision),即,再对所有类别的 AP 求取平均值便可得到 mAP。P、R 的具体计算可见参考文献31。2结果与分析2.1消融试验为了评估和验证提出的改进 YOLOv5s 模型中不同组件和算法对检测模型的影响。以 YOLOv5s 模型为基础,在试验中逐步移除或添加不同的组件,并通过不同的组件组合进行 7 组试验,以验证各个组件的有效性。试验结果如表 1 所示。表1消融试验结果Table1Resultofablationexperiment编号Number方法Method平均精度均值MeanaverageprecisionmAP/%参数量Parameter/M浮点运算量Floatingpoin

34、tofoperationsFLOPs/G帧速FramespersecondFPS/(帧s1)0YOLOv5s95.47.015.9114.91YOLOv5s+WIoU96.17.015.9114.92YOLOv5s+EfficientViT96.35.710.4135.13YOLOv5s+OTA96.27.217.0112.44YOLOv5s+EfficientViT+OTA96.95.911.4131.65YOLOv5s+EfficientViT+WIoU96.75.710.4133.36YOLOv5s+OTA+WIoU96.37.217.1112.47YOLOv5s+EfficientVi

35、T+OTA+WIoU97.35.911.4131.6从表 1 可以看出 7 组试验对改进 YOLOv5s 模型中不同组件或算法对花椒簇目标检测性能的影响。在第 1组试验中,将 YOLOv5s 模型的边界框损失函数替换为WIoU 损失函数,模型的 mAP 从 95.4%上升到 96.1%。第2 组试验将 YOLOv5s 的主干网络替换为 EfficientViT 网络,模型的 mAP 提升至 96.3%,同时模型的参数量从7.0M 减少到 5.7M、浮点运算数从 15.9G 减少到 10.4G,使用 EfficientViT 作为主干在减少参数量的同时增强了多尺度学习能力和对重要特征的表达能力。

36、在第 3 组试验中,在 YOLOv5s 的基础上使用 OTA 标签分配策略,模型的 mAP 提升 0.8 个百分点,参数量增加了 0.2M,浮点运算数 FLOPs 增加了 1.1G。OTA 标签分配策略略微增加模型的复杂度以和计算量,但提升了模型的精度。在接下来的第 4、5、6 组试验中,将这些组件两两组合,添加到了 YOLOv5s 的网络上,都使得模型的 mAP 得到不同程度的提升。最后,将 YOLOv5s 的主干网络替换为EfficientViT 网络,并在训练中采用了 OTA 分配策略,将CIoU 损失函数更改为 WIoU 损失函数,构成本文提出的改进 YOLOv5s。在数据集上,改进

37、YOLOv5s 模型的mAP 为 97.3%。此外,为了验证不同边界框损失函数的效果,在YOLOv5s 的基础上进行试验。将其边界框损失函数替换为目前常见的 DIoU32、GIoU33、SIoU34、EIoU35及WIoU 损失函数,试验结果如表 2 所示。表2YOLOv5s 与改进 YOLOv5s 使用不同损失函数的 mAPTable2mAPforYOLOv5sandimprovedYOLOv5susingdifferentlossfunctions%模型ModelCIoUDIoUGIoUSIoUEIoUWIoUYOLOv5s95.495.295.995.795.396.1改进 YOLOv5

38、sImprovedYOLOv5s96.596.397.196.896.497.3由表 2 可知,YOLOv5s 使用 CIoU、DIoU、GIoU、SIoU、EIoU、WIoU 作为损失函数时 mAP 分别为 95.4%、95.2%、95.9%、95.7%、95.3%、96.1%。改进 YOLOv5s在使用 DIoU 损失函数时 mAP 最低,为 96.3%,使用WIoU 损失函数时获得最高的 mAP 为 97.3%。两个模型均在使用 WIoU 作为边界框损失函数时 mAP 最高,充分第16期徐杨等:采用改进的 YOLOv5s 检测花椒簇287证明了 WIoU 的有效性。2.2不同目标检测模型

39、的性能对比为了验证本文方法的有效性,将常见的目标检测模型 EfficientDe36、SSD、RetineNet37、YOLOX38,ShuffleNet_YOLOv5s22进行对比试验。试验结果如表 3所示。表3不同模型结果对比Table3Comparisonofresultsfromdifferentmodels模型Models参数量Parameters/MmAP/%FPS/(帧s1)EfficientDet-D16.689.350.0SSD51226.380.459.2RetineNet-R5033.888.737.3YOLOXs9.095.8102.1YOLOv5s7.095.4114

40、.9ShuffleNet_YOLOv5s1.0192.690.9本文Thisstudy5.997.3131.6由表 3 数据可知,改进 YOLOv5s 模型的 mAP 为97.3%,比 YOLOv5s 模型的 mAP(95.4%)高出 1.9 个百分点。同时,改进 YOLOv5s 模型的参数量为 5.9M,比YOLOv5s 模型的参数量(7.0M)减少了 15.7%。改进YOLOv5s 模型的 FPS 为 131.6,比 YOLOv5s 模型的 FPS(114.9)提高了 14.5 个%。与其他单阶段目标检测网络相比,改进的 YOLOv5s 模型的 mAP分别比 EffcientDet-D1、

41、SSD512、RetineNet-R50和 YOLOXs高8、16.9、8.6 和 1.5 个百分点,在参数量、检测速度上也都表现出一定的优势,更适合花椒簇检测。YOLOv5s 与改进 YOLOv5s 的花椒簇识别效果对比如图 6 所示。图片1Picture 1图片2Picture 2图片3Picture 3图片4Picture 4a.人工标注a.Manual annotationb.YOLOv5sc.改进YOLOv5sc.Improved YOLOv5s注:图片 1 为单花椒簇目标图像、图片 2 为密集多目标花椒簇图像、图 3、图 4 为分散多目标花椒簇图像。Note:Picture1isa

42、singlepepperclustertargetimage,picture2isadensemulti-targetpepperclusterimage,andpicture3andpicture4aredispersedmulti-targetpepperclusterimages.图 6YOLOv5s 模型与改进 YOLOv5s 模型的识别结果对比Fig.6ComparisonofdetectionresultsofYOLOv5smodelandimprovedYOLOv5smodel图片 1、图片 2 中花椒果实排列紧凑,YOLOv5s 与改进 YOLOv5s 均成功标注了图像中所有的

43、花椒簇,不存在漏检的情况,但是可以看出改进 YOLOv5s 模型的预测框分值更大,与真实框的重叠度更高。图片 3、图片 4 花椒果实分布相对稀疏,且图片 4 存在位于图像边缘的小目标花椒簇。YOLOv5s 模型未能检测到部分真实目标,存在漏检;而改进 YOLOv5s 模型检测出了所有目标。3结论为 了 实 现 花 椒 簇 的 快 速 准 确 检 测,本 文 基 于YOLOv5s 模型提出花椒簇检测模型。改进 YOLOv5s 使用改进的 EfficientViT 作为主干网络,降低了模型的参数量并增强多尺度学习能力、在训练中使用了 OTA 标签分配策略、用 WIoU 损失函数替换原先的 CIoU

44、 损失函数。在自制数据集上验证了改进 YOLOv5s 模型的检测效果。与 YOLOv5s 模型相比,改进 YOLOv5s 模型对花椒簇的平均精度均值提升了 1.9 个百分点、模型的参数量减少了 15.7%、每秒帧率提高了 14.5%。得到了速度以及精度的双重提升。本文将改进 YOLOv5s 与其他常见目标检测模型进行对比,试验结果表明改进 YOLOv5s 在检测精度、检测速度、模型参数量上均优于其他对比模型,对花椒簇具有较好的检测结果。本文提出的改进 YOLOv5s 模型能实现对花椒簇的快速准确检测,后续将继续优化网络结构记忆训练策略,进一步提高对花椒簇的检测效果。参考文献陈青,殷程凯,郭自良

45、,等.苹果采摘机器人关键技术研究现状与发展趋势J.农业工程学报,2023,38(4):1-15.CHENQing,YINChengkai,GUOZiliang,etal.Currentstatusand future development of the key technologies for applepicking robotsJ.Transactions of the Chinese Society ofAgricultural Engineering(Transactions of the CSAE),2023,38(4):1-15.(inChinesewithEnglishabst

46、ract)1王丹丹,宋怀波,何东健.苹果采摘机器人视觉系统研究进展J.农业工程学报,2017,33(10):59-69.WANG Dandan,SONG Huaibo,HE Dongjian.Researchadvance on vision system of apple picking robotJ.TransactionsoftheChineseSocietyofAgriculturalEngineering(TransactionsoftheCSAE),2017,33(10):59-69.(inChinesewithEnglishabstract)2阮承治,赵德安,陈旭,等.双指型农业

47、机器人抓取球形果蔬的控制器设计J.中国农机化学报,2019,40(11):169-175.RUANChengzhi,ZHAODean,CHENXu,etal.Controllerdesignforrealizingdouble-fingeragriculturalrobottograspspherical fruits and vegetablesJ.Journal of ChineseAgriculturalMechanical,2019,40(11):169-175.3LOWEDG.Distinctiveimagefeaturesfromscale-invariantkeypointsJ.

48、InternationalJournalofComputerVision,2004,60:91-110.4DALALN,TRIGGSB.Histogramsoforientedgradientsfor5288农业工程学报(http:/www.tcsae.org)2023年humandetectionC/2005IEEEComputerSocietyConferenceoncOmputerVisionandPatternRecognition(CVPR05).IEEE,2005,1:886-893.万芳新,白明昌,贺志洋,等.自然场景下花椒果实的识别J.中国农机化学报,2016,37(10):1

49、15-119.WAN Fangxin,BAI Mingchang,HE Zhiyang,et al.IdentificationofChinesepricklyashunderthenaturalscenesJ.JournalofChineseAgriculturalMechanical,2016,37(10):115-119.6齐锐丽,陈曼龙,杨宗浩,等.基于 HSV 模型与改进的OTSU 算法花椒图像分割J.中国农机化学报,2019,40(11):155-160.QI Ruili,CHEN Manlong,YANG Zonghao,et al.Imagesegmentation of Si

50、chuan pepper based on HSV model andimprovedOTSUalgorithmJ.JournalofChineseAgriculturalMechanical,2019,40(11):155-160.7龚惟新,杨珍,李凯,等.基于改进 YOLOv5s 的自然环境下猕猴桃花朵检测方法J.农业工程学报,2023,39(6):177-185.GONG Weixin,YANG Zhen,LI Kai,et al.Detecting kiwiflowersinnaturalenvironmentsusinganimprovedYOLOv5sJ.Transactions

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服