收藏 分销(赏)

一种改进YOLOv5s的多尺度目标检测算法_茆震.pdf

上传人:自信****多点 文档编号:468401 上传时间:2023-10-12 格式:PDF 页数:8 大小:2.98MB
下载 相关 举报
一种改进YOLOv5s的多尺度目标检测算法_茆震.pdf_第1页
第1页 / 共8页
一种改进YOLOv5s的多尺度目标检测算法_茆震.pdf_第2页
第2页 / 共8页
一种改进YOLOv5s的多尺度目标检测算法_茆震.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 36 卷 第 2 期2023 年 2 月传 感 技 术 学 报CHINESE JOUNAL OF SENSOS AND ACTUATOSVol.36No.2Feb 2023项目来源:天津市科技支撑重点项目(18YFZCGX00360)收稿日期:20220308修改日期:20220420An Improved Multi-Scale Object Detection Algorithm for YOLOv5s*MAO Zhen1,EN Yumeng1,CHEN Xiaoyan1*,EN Keying1,ZHAO Yuwei2(1School of Electronic Information

2、 and Automation,Tianjin University of Science and Technology,Tianjin 300222,China;2 Shenzhen Softsz Corp,Ltd,Shenzhen Guangdong 518131,China)Abstract:Aiming to improve the detection accuracy of multi-scale targets,a novel multi-scale target detection algorithm based onYOLOv5s is proposed Fusing the

3、CBAM module between the backbone network of YOLOv5s and the Neck network,the ability of ex-tracting vital feature information for different scale targets is enhanced virtually Meanwhile,a new multi-scale target detection structureis added at the head of the model to detect targets at different scale

4、s correctly During training,a CIoU loss function is used to improvethe convergence ability of the model and achieve high-precision target positioning,replacing the loss function of GIoU adopted inYOLOv5s The data set contains more than 40 thousand images from the actual scenes The test results show

5、that the average detectionaccuracy of three different scales targets,ie,pedestrian,vehicles and faces,is 921%,which is 34%higher than the original YOLOv5salgorithm The convergence of model training performs better In dense targets scenes,the performance of small-scale target detection ismore promine

6、ntKey words:deep learning;YOLOv5s;multi-scale object detection;CBAM attention mechanism;CIoU Loss functionEEACC:6135Edoi:103969/jissn10041699202302014一种改进 YOLOv5s 的多尺度目标检测算法*茆震1,任玉蒙1,陈晓艳1*,任克营1,赵昱炜2(1天津科技大学电子信息与自动化学院,天津 300222;2深圳市安软科技股份有限公司,广东 深圳 518131)摘要:针对多尺度目标检测准确率偏低的问题,提出了一种基于 YOLOv5s 改进的多尺度目标

7、检测算法。在 YOLOv5s 主干网络与 Neck 网络之间融合 CBAM 模块,增强模型对多尺度目标重要特征信息的提取能力;同时,在模型的 Head 部分增加多尺度目标检测结构,提高不同尺度目标检测精度;训练时采用 CIoU 替代 GIoU 损失函数,以提高模型收敛能力,实现高精度目标定位。数据集来源于实际场景中采集并增强的 4 万余张图像。实验结果表明,改进后的模型对行人、车辆和人脸的多尺度目标检测平均精度达 921%,相比未改进 YOLOv5s 算法提升了 34%。模型的收敛性好,对密集场景的目标,小尺度目标检测准确度更加突出。关键词:深度学习;YOLOv5s;多尺度目标检测;CBAM

8、注意力机制;CIoU 损失函数中图分类号:TP3914文献标识码:A文章编号:10041699(2023)02026708目标检测是计算机视觉中最基本的任务之一,是实现诸如人脸识别12,视频分割等更复杂任务的基础。随着计算机网络的高速发展以及人工智能技术的突破,深度学习技术突飞猛进3,促进了目标检测技术的发展。目前,深度学习算法主要分为一阶段(one-stage)检测算法和二阶段(two-stage)检测算法。典型一阶段检测算法主要有:SSD4、etina-Net5、YOLO67 系列等,这类算法可以经过单次检测就能得到目标的类别概率和坐标信息,检测效率高8。典型二阶段检测算法有:-CNN9、

9、Faster-CNN10、Fast-CNN11 等,这类算法会先产生一系列候选区域,然后在候选区域中进行分类和定位,检测准确率高,但耗时较长。尽管基于深度学习的目标检测算法取得了巨大的突破,对于大中目标检测取得了良好的检测效果,但小目标检测精度却有待提高。在目标检测公共数据集 MS COCO12 上,小目标的检测精度通常只有大目标的一半13。因此,针对实际复杂场景中,各类检测目标分布密度高,尺度跨度大,尤其针对小目标,分辨率低,特征信息丢失严重等问题,如何实现多尺度目标的高精度检测成为了研究重点。在 YOLO 系列算法中,YOLOv5 算法对于中小传感技术学报chinatransducerss

10、eueducn第 36 卷目标的检测效果优异,灵活性强,其中 YOLOv5s 的网络深度最浅,特征图宽度最小且检测速度最快。目前,使用 YOLOv5 模型进行深度学习领域的目标检测已经成为了研究的热门方向。邓天民等14 提出了基于 YOLOv5s 交通信号灯识别方法的研究,精简了主干网络的卷积层数量,使用新 CSP 残差结构来提取特征信息,但是其去除了大目标的检测尺度,仅保留了中小目标的检测尺度,在实际场景检测中会造成大、中目标的漏检。赵睿等15 提出了基于YOLOv5s 的安全帽检测算法,采用 DenseBlock 模块来替换 Focus 结构,增加 SENet 模块与检测尺度,提升了对小目

11、标的检测精度,但是数据集目标单一且尺寸变化小。王莉等16 提出基于 YOLOv5s 网络的垃圾分类和检测,自制垃圾分类的数据集,使用YOLOv5s 提取不同垃圾的特征,实现垃圾的分类检测,但是模型的检测速度为 667 FPS,需要进一步提升。张丽莹等17 提出基于 YOLOv3 的多尺度目标检测算法,改进了特征提取网络,增加了检测尺度,以提升检测精度,但是相比 YOLOv5s,其模型体积大,不利于在嵌入式设备中部署。总结上述方法,目前针对复杂场景的不同尺度目标,模型的鲁棒性和检测精度仍有待进一步提升,模型体积需要适于工程应用,能够部署于嵌入式设备中。为了实现复杂场景中不同尺度目标的高精度检测,

12、本文提出了一种改进的 YOLOv5s 多尺度目标检测算法。在原 YOLOv5s 模型的骨干网络中引入CBAM 混合注意力模块来增强特征信息的提取能力。在模型的 Head 部分增加一个尺度的检测层,将底层特征与深层次特征进行融合以提升对不同尺度目标的检测能力。改进损失函数为 CIoU Loss 以提高模型的稳定性,实现高精度的定位。改进后,模型的对复杂场景下各尺度目标的检测精度得到提升,模型的体积为 1507 MB,可以满足实际的工程应用。1YOLOv5s 模型概述YOLOv5s 模型由 Input、Backbone、Neck 网络、Head 四个部分组成。其中,Backbone 采用 Focu

13、s 结构、CSP(Cross Stage Partial)结构和 SPP18(SpatialPyramid Pooling)结构。Focus 结构可在保留模型特征信息的同时减少计算量。YOLOv5s 中设计了两种CSP 结 构,即 CSP1 _X 和 CSP2 _ X,分 别 应 用 于Backbone 和 Neck 部分,可以从输入图像中提取丰富的信息特征。Neck 网络是由 CSP2_X 结构、FPN+PAN1920 结构组成,FPN 是自顶向下地通过上采样操作,将高层的特征信息和低层特征进行融合,计算出预测的特征图,PAN 则是自下而上地将低层的定位特征通过下采样方式传递,以增强位置信息

14、,FPN+PAN 结构是两个组合的特征金字塔结构,可以提高网络对不同尺寸目标的检测能力。输出层共有三个不同尺度的检测层对图像特征进行预测,生成预测框并预测类别。模型的网络结构如图 1 所示。图 1YOLOv5s 模型结构862第 2 期茆震,任玉蒙等:一种改进 YOLOv5s 的多尺度目标检测算法2YOLOv5s 改进针对目前 YOLOv5s 对多尺度目标检测效果不好,对小目标检测存在漏检,定位精度低的问题,本文对模型作出以下改进以提升多尺度目标检测的效果。在 Backbone 主干网络中添加 CBAM 注意力机制,以提升特征提取的能力。在原有的网络结构上增加新的小目标检测层,可以提升对小目标

15、检测的能力。使用最新的 CIoU 损失函数替代原YOLOv5s 使用的 GIoU 损失函数,模型的收敛性更好,预测框更加的符合真实框,以提高定位精度。21引入 CBAM 注意力机制注意力机制是嵌入在模型网络中的一种特殊结构,能够关注目标的重要信息,抑制不重要特征以达到提升检测精度的目的。CBAM21 是一种用于前馈卷积神经网络的简单而有效的轻量级的卷积注意力模块,可以无缝地集成到任何 CNN 架构中,几乎对算力没有影响,能够实现端到端的训练。该模块包含了通道注意力模块和空间注意力模块两个子模块,其网络结构如图 2 所示。图 2CBAM 结构图通道注意力模块如图 3 所示,输入的特征图经过最大池

16、化与全局池化后送入 MLP 层,在 MLP 层中特征会进行加权求和操作,经过 Sigmoid 激活操作后,生成通道注意力加权系数。将加权系数与输入特征图做乘积运算,生成空间注意力模块的输入特征图,通道注意力模块计算公式为:图 3通道注意力模块图 4空间注意力模块MC(F)=MLP AvgPool(F)+MLP MaxPool(F)=W1 W0(FCavg)+W1 W0(FCmax)(1)空间注意力模块如图 4 所示,将通道注意力模块输出的特征图 F作为输入,首先进行最大池化与平均池化的操作,将其结果进行融合处理后进行卷积操作,可以得到一维的特征图,然后经过 Sigmoid激活函数生成空间特征图

17、,将加权系数 MS与空间注意力模块的输入特征相乘便得到了最终的输出特征图 F。空间注意力模块计算公式为:MS(F)=(f77 AvgPool(F),MaxPool(F)=f77(FSavg;FSmax)(2)模型引进 CBAM 的过程可以综合概括为:当给定一个输入特征图 F 时,特征图首先会与 CBAM 中通道注意力网络相乘得到一个新的特征图 F,该过程如式(3)所示,将得到的特征图 F输入空间注意力网络与原输入特征图相乘得到最终的输出特征图F,如式(4)所示:F=MC(F)F(3)F=MS(F)F(4)为了提升原始网络的特征提取能力,提高特征提取精度,由于 YOLOv5s 网络对于特征提取最

18、强部分在 Backbone 网 络,经 过 实 验 分 析,在 原 始YOLOv5s 模型的 Backbone 与 Neck 网络之间添加CBAM 模块,特征提取效果最好。融合部分网络结构如图 5 所示。将经过卷积层的特征图输入 CBAM模块,经过 CAM 和 SAM 之后,会对输入的特征图进行特征调整,突出特征图中的重要特征,最后将经过两个通道的输出与初始输入 CBAM 的特征图进行融合,就可以得到新的特征图。CBAM 模块会对目标的特征进行重新标定,从而使得改进的网络检测精度得到提升。图 5融合 CBAM 模块22增加多尺度目标检测层YOLOv5s 的原始模型只有三个检测层,当输入图像大小

19、为 416416,网络输出大小为 1313、2626、5252 尺度的特征图进行预测。由于本文的检测对象为行人、车辆以及人脸,数据集中人员车辆密集,人脸检测尺寸很小。为了使网络获取更多小目标的特征信息,提高模型小目标检测能力,本文在原网络中增加了一个 104104 的新检测层。增加检测尺度能够使各特征层提取特定尺度对象的特征信962传感技术学报chinatransducersseueducn第 36 卷息,根据不同尺度分配不同锚框,可以增强模型对小目标的识别能力。改进后的网络结构如图 6 所示,图中虚线框部分为新增的目标检测层。输入图像大小为 416416,经过 Focus 模块切片和多次卷积

20、处理后,经过 32 倍、16 倍和 8 倍下采样得到 1313、2626 和 5252 的特征图,在 Neck 网络的第 19 层处增加上采样层,经过第三个上采样层处理得到的特征图大小为 104104,将获得的特征图与主干网络第 2 层的特征图融合,生成 104104 尺度的检测层。只经过浅层网络处理的原始图像,包含了更多的小目标位置信息,而经过深层网络,特征图会包含更多小目标的特征信息,融合后的检测结构具有更高效的小目标检测效果。图 6改进的多尺度检测结构23引入 CIoU 损失函数损失函数可以衡量网络输出期望预测结果和真实结果偏离程度,YOLOv5s 的边界框损失使用 GIoULoss 函

21、数,该损失函数具有非负性、尺度不变性等特点,同时增加了相交尺度的衡量方式,有效地解决了边界框与预测框不重合的问题。损失函数 GIoULoss 的计算为式(5)和式(6):GIoU=IoU|C(AB)|C|(5)LGIoU=1GIoU(6)式(5)中 IoU 为预测框与真实框的交并比,A、B为任意的两个锚框,C 为包裹 2 个锚框的最小方框,C(AB)的面积为 C 的面积减去 AB 的面积。相比 IoU,即使两个矩形框不重合时,也可以计算GIoU,但是当预测框和真实框属于包含关系时,GIoU 会退化成 IoU,此时 GIoU Loss 会为 0,无法区分其相对位置关系。由于 GIoU 仍然严重依

22、赖 IoU,因此在两个垂直方向,误差很大,基本很难收敛,所以本文在保持网络检测性能不下降的前提下,使用CIoU22 来代替 GIoU 进行锚框的回归,实现真实框和预测框无重合时的梯度回传,提高模型收敛能力。同时,使用 CIoU 能够降低模型的训练难度,可以提高对于小目标检测的准确率。CIoU 示意图如图 7所示,计算公式为式(7):图 7CIoU 示意图LCIoU=1IoU+2(b,bgt)c2+av(7)式中:b 和 bgt分别表示预测框和真实框的中点,表示两个中心点之间的欧氏距离,c 表示包裹预测框和真实框的最小方框的对角线距离,a 为权重系数,v 为度量长宽比相似性的参数,计算公式为式(

23、8)和式(9):a=v1IoU+v(8)v=42arctanwgthgtarctanwh()2(9)式中:w,h 为预测框的宽和高,wgt,hgt为真实框的宽和高。CIoU 考虑了预测框与真实框的重叠面积、中心点距离、长宽比,能够直接最小化两个目标框的距离,当真实框与预测框不重合时,可以为预测框提供移动的方向,使预测框的效果更稳定。3实验与分析31数据集介绍本文的实验数据由深圳市安软科技有限公司提供,数据集共计 42 530 张图片,其中选取 39 048 张图片作为训练集,3 982 张图片作验证集,500 张图片作测试集。数据集中包含了各种实际应用场景:居民小区,公路,公园,学校等,同时也

24、考虑了复杂环境场景:白天,黑夜,雾天,雨天等。本文的检测任务为在实际应用场景中检测不同尺度的目标:行人,车辆,人脸。行人、车辆、人脸目标尺寸跨度大,其中人脸,遮挡的行人和车辆,目标面积相对整张图像所占面积小于01 倍,符合 Chen 提出的相对尺度的定义23。32Mosaic 数据增强本实验采用的数据集目标密集拥挤,中小目标072第 2 期茆震,任玉蒙等:一种改进 YOLOv5s 的多尺度目标检测算法数量多,检测难度大,容易出现漏检与误检。Mosaic增强可以减少模型对于检测目标原始位置的依赖,增强模型的泛化能力,在一定程度上可以增强图像的信息,能够缓解训练集元素少的问题,GPU 消耗少,使得

25、小 batch size 也能够训练模型。Mosaic 数据增强基本原理就是在训练集中随机选择若干个(一般是 4 个)图像,利用随机缩放、随机裁减、随机排布的方式,将它们变成一张新的图片。使用 Mosaic可以丰富图像数据集的背景,在处理多个小目标时,这种方法会导致检测目标更小,显著提升小目标检测的能力。33实验环境训练环境采用的是 Ubuntu 1804 操作系统,CPU 为 Intel Xeon E5-2360,显卡为两块 NVIDIAGE-FOCE GTX 1080Ti 11 GB,开发语言为 Python,Pytorch 框架。测试实验环境采用 Windows10 操作系统,CPU 为

26、 i5-9400F 29GHz,显卡为 NVIDIAGEFOCE GTX 1660 6 GB。34评估指标目标检测模型的分类和定位能力是其最主要的性能体现。在实际应用中,评估目标检测模型的性能时,一般结合平均精确度均值 mAP 和 FPS。本文采用精确率 P(Precision),召回率(ecall),AP(Average Precision),mAP(mean Average Precision)来评价模型对小目标检测的性能。具体公式如下。P=TPTP+FP100%(10)=TPTP+FN100%(11)AP=10P(r)dr(12)mAP=ki=1APik(13)式(10)中 TP 表示正

27、样本被预测为正样本的个数,FP 表示正负样本被预测为正样本的数,式(11)中 FN 表示负样本被预测为负样本的个数,式(12)中 AP 表示以 ecall 值作为 X 轴,Precision 值作为 Y轴所做的 P(r)曲线下覆盖的面积,衡量的是某个类别的识别准确率,mAP 表示各类别 AP 的平均值,衡量的是在所有类别上的平均好坏程度。FPS 表示每秒处理的帧数,用来衡量模型的检测速度。35模型收敛性分析本文对 4 种模型使用相同数量的 Epoch 值进行训练,迭代次数均为 100 次。模型训练过程中的边界框损失 box loss、分类损失 class loss 的实验图像如图 8 所示。横

28、坐标为 Epoch 值,纵坐标为 loss 值,loss 值越小,模型的预测目标越接近于真实目标。从图中曲线变化情况可见,随着训练迭代次数的增加,4 个模型的 2 种损失曲线均趋向平缓,最终基本达到稳定值,可以看出,改进模型 YOLOv5s-DC 在整个训练过程中 loss 值下降速率更快,说明模型的收敛性最好,同时 loss 值也最低,表明模型预测目标更符合真实目标,模型整体性能更优。图 8模型 Loss 曲线36实验结果分析361注意力机制融合实验对比在注意力机制融合实验中,为了验证引入CBAM 注意力机制对模型性能的影响,在模型的Backbone 与 Neck 网络间添加了 CBAM 模

29、块,同时为了分析不同注意力机制的对于模型性能的影响,选取了 SENet 注意力机制进行了对比实验。SENet对卷积后得到的特征图进行处理,学习特征图中的权重信息,增强网络对特征的选择和提取能力,减弱不重要的特征,输出特征表达更好的特征图。实验结果如表 1 所示。表 1注意力机制融合实验注意力机制ecallmAP 05/%无786862SENet802871CBAM818887172传感技术学报chinatransducersseueducn第 36 卷从结果可以看出,融合注意力机制后,模型的检测准确率相比原版的模型有了提升,但是融合 SENet注意力模块的模型,ecall 值和 mAP 值都低

30、于融合CBAM 注意力机制,因为 SENet 只是采用了 maxpool,而 CBAM 则是将 maxpool 与 avgpool 进行融合,这样会使得模型提取的深层特征更加丰富,对于不同尺寸的目标检测,漏检率更低,识别准确率更高。362消融实验对比为了分析不同模块对模型检测精度的影响,在原模型的网络结构上依次替换损失函数为 CIoU Loss、融合 CBAM 模块以及增加多尺度目标检测层,设计了消融试验,训练过程中配置相同,输入网络的图像大小为416416,对不同改进方式的模型进行训练,消融实验结果如表2 所示。其中“”表示在模型训练时使用了改进方式,“”表示未使用该改进方式。根据表中实验结

31、果可以看出,采用 CIoU Loss 后模型的召回率以及检测精度都得到了提升,说明模型漏检率降低,模型的检测精度有所提升,但是检测速率有所下降,说明 CIoU损失函数会增加网络的计算量,从而降低了检测速率。在此基础上,在网络中融合 CBAM 模块,可以看出模型的召回率增幅很大,是几种改进策略中的峰值,融合CBAM 模块后,可以有效提升网络对于目标的特征提取能力,对不同尺寸的目标都能够有效检测,有效降低了漏检率,同时 mAP 值也提升了 13%,检测精度有了一定的提升,但增加了模型推理的复杂度导致了模型的检测速度有所下降;当在网络中增加一个检测尺度后,模型的召回率相较融合 CBAM 模块的网络下

32、降明显,但是模型的检测精度有小幅的增长,模型的 FPS 值基本与融合 CBAM 模块持平;最后对模型同时使用三种改进策略的训练,模型的召回率及 mAP 值都表现优异,但此时模型的计算量增加,模型的检测速率有一定的下降,此时模型的检测精度达到最高,在需要高精度检测任务时,该模型具备很好的优势。363不同类别检测效果分析为了验证模型的不同改进方式对各类别目标检测精度及检测速率的影响,对不同类别目标检测精度和检测速率进行实验测试。实验结果如表 3 所示。模型 mAP 曲线如图 9 所示。表 2消融实验结果对比序号CBAM增加检测层CIoU LOSSecallmAP 05/%FPS/(frame/s)

33、17838623562818887344392490022348439132215895921205表 3不同类别检测结果模型各类别 AP/%pedestrianvehiclefacemAP 05/%FPS/(frame/s)YOLOv5s873940849887344YOLOv5s-C886946867900223YOLOv5s-D899961869913221YOLOv5s-DC909963889921205图 9模型 mAP 曲线表 3 中的实验结果为多次实验的平均值,为了比较不同改进策略对各类别的影响,实验采用了相同的损失函数 CIoU 后进行对比试验。YOLOv5sC 是模型的 主

34、干 网 络 中 融 合 了 CBAM 注 意 力 机 制,YOLOv5s-D 是仅在网络中添加了检测层,YOLOv5s-DC 表示在网络中添加CBAM 注意力机制和添加检测层。根据表中结果可知,YOLOv5s-C 的平均检测精度均值(mAP)为 900%,融合 CBAM 注意力机制后各类别的 Precision、ecall、mAP 值均有了一定的提高,从三种目标的检测精度的提升幅度来看,行人和车辆的检测精度提升了 13%和 06%,人脸的检测精度提升18%,人脸目标精度提升幅度最大,可见添加 CBAM后对于中小尺度目标的检测,确实会有很好地改善。272第 2 期茆震,任玉蒙等:一种改进 YOL

35、Ov5s 的多尺度目标检测算法添加检测层后,mAP 值由 887%提升至 913%,同时各类别检测精度提升幅度接近,均提升了 2%左右。从 YOLOv5s-DC 实验结果来看,对比不同改进策略,其平均精度提升最高,模型对各类别检测效果最好,尤其是人脸检测精度提升最明显,达 4%,原模型大小为 1407 MB,融入 CBAM 注意力机制和检测层后,模型大小为 1507 MB,模型参数量略增,所以导致 FPS指标有所下降。从图 9 可知,4 种模型检测精度都快速提升,在训练批次达到 20 eopch 后,提升幅度趋于平缓,YOLOv5s-DC 模型在相同训练批次时始终处于领先状态,检测效果优异。3

36、7检测结果可视化图 10 为部分检测结果的可视化,图 10(a)为YOLOv5s 的检测图,图 10(b)为本文改进 YOLOv5s-DC 的检测图。对比 YOLOv5s 网络结构改进前后检测,在图 10(a)左侧区域,当行人密集重叠时,原始YOLOv5s 检测时出现了漏检的现象,有多张人脸目标没有检测到,对比图 10(b)左侧区域,可以看出,改进后的模型 YOLOv5s-DC 对漏检的人脸目标有了很大的提升,仅在标记框区域,多检测出 4 张人脸。同时综合来看,改进后的模型检测框精度更高,对于每个目标的分类置信度值也更高,模型的特征提取能力更强,验证了改进模型对密集小目标的检测效果较原始模型得

37、到了有效的改善,模型的泛化能力也更好。图 10YOLOv5s 与 YOLOv5s-DC 检测结果对比4结语本文提出了一种改进的 YOLOv5s 多尺度目标检测算法,在原始 YOLOv5s 骨干网络中融合了混合注意力机制 CBAM,扩展了网络的宽度,能够提取到更多的特征信息,提升了对小目标的检测能力;添加了一个尺度更小的检测层,对于复杂场景下的不同跨度目标都可以高精度地检测;改进损失函数,将 CIoU 损失作为 Bounding Box 的回归损失,模型的定位精度更高。实验结果表明,改进的模型在复杂场景下对小目标的检测效果更好,模型泛化能力更强,相比原始YOLOv5s 网络,检测平均精度提升了

38、34%,能够更精准地检测不同尺度的目标。在后续的研究中,在保证检测精度的同时,控制模型体积,提升目标的检测速度,并将模型部署于嵌入式设备中,在实际的复杂场景下完成高精度的多尺度目标检测。参考文献:1 Zhao Z Q,Zheng P,Xu S T,et al Object Detection withDeep Learning:A eviewJ IEEE Transactions onNeural Networks and Learning Systems,2019,30(11):32123232 2 Kim D J,Lee S H,Sohn M K Face ecognition via L

39、ocalDirectional PatternJ International Journal of Security Its Applications,2013,7(2):191200 3 许德刚,王露,李凡 深度学习的典型目标检测算法研究综述 J 计算机工程与应用,2021,57(8):1025 4 Liu W,Anguelov D,Erhan D,et al SSD:Single ShotMultibox DetectorC/14th European Conference onComputer Vision,Amsterdam,The Netherlands,Springer,2016:

40、2137 5 Lin T Y,Goyal P,Girshick,et al Focal Loss for DenseObject Detection J IEEE Transactions on Pattern Anal-ysis Machine Intelligence,2020,42(2):318327 6 edmon J,Divvala S,Girshick,et al You Only LookOnce:Unified,eal-Time Object DetectionC/2016IEEE Conference on Computer Vision and Pattern ecog-n

41、ition,Lag Vegas,NV,USA,IEEE,2016:779788 7 edmon J,Farhadi A YOLO9000:Better,faster,stronger C/2017 IEEE Conference on Computer Vision andPattern ecognition,Honolulu,HI,USA,IEEE,2017:65176525 8 杨高坤 单阶段法目标检测技术研究 J 电子世界,2021(3):7778,81 9 Girshick,Donahue J,Darrell T,et al ich Feature Hi-erarchies for A

42、ccurate Object Detection and Semantic Seg-mentationC/2014 IEEE Conference on ComputerVision and Pattern ecognition,Columbus,OH,USA,IEEE,2014:580587 10 en S,He K,Girshick,et al Faster-CNN:Towards372传感技术学报chinatransducersseueducn第 36 卷eal-TimeObjectDetectionwithegionProposalNetworksJ IEEE Transactions

43、 on Pattern Analysis Machine Intelligence,2017,39(6):11371149 11 Girshick Fast-CNNC/2015 IEEE InternationalConference on Computer Vision,Santiago,Chile,IEEE,2015:14401448 12 Lin T Y,Maire M,Belongie S,et al Microsoft COCO:Common Objects in Context C/13th European Confer-ence on Computer Vision,Zuric

44、h,Switzerland,2014:740755 13 梁鸿,王庆玮,张千,等 小目标检测技术研究综述 J 计算机工程与应用,2021,57(1):1728 14 邓天民,谭思奇,蒲龙忠 基于改进 YOLOv5s 的交通信号灯识别方法 J 计算机工程,2022,48(9):5562 15 赵睿,刘辉,刘沛霖等 基于改进 YOLOv5s 的安全帽检测算法EB/OL 2021 11 23 2023 03 26 https:/doiorg/1013700/jbh1001596520210595 16 王莉,何牧天,徐硕,等 基于 YOLOv5s 网络的垃圾分类和检测 J 包装工程,2021,42(

45、8):5056 17 张丽莹,庞春江,王新颖,等 基于改进 YOLOv3 的多尺度目标检测算法J 计算机应用,2022,42(8):24232431 18 高明华,杨璨 基于改进卷积神经网络的交通目标检测方法 J 吉林大学学报,2022,52(6):13531361 19 Liu S,Qi L,Qin H F,et al Path Aggregation Network forInstance Segmentation C/2018 IEEE/CVF IEEE Con-ference on Computer Vision and Pattern ecognition,SaltLake City

46、,UT,USA,IEEE,2018:87598768 20 Lin T Y,Dollar P,Girshick,et al Feature Pyramid Net-works for Object DetectionC/2017 IEEE Conferenceon Computer Vision and Pattern ecognition,Honolulu,HI,USA,IEEE,2017:936944 21 Woo S H,Park J C,Lee J Y,et al Cbam:ConvolutionBlock Attention ModuleC/15th European Confere

47、nceon Computer Vision,Munich,Germany,IEEE,2018:319 22 ezatofighi H,Tsoi N,Gwak J Y,et al Generalized Inter-section Over Union:A Metric and a Loss for Bounding Boxegression C/2019IEEE/CVFConferenceonComputer Vision and Pattern ecognition,Long Beach,CA,USA,IEEE,2019:658666 23 高新波,莫梦竟成,汪海涛,等 小目标检测研究进展 J 数据采集与处理,2021,36(3):391417茆震(1997),男,天津科技大学硕士研究生,研究方向为深度学习与目标检测,1037331281 qqcom;陈晓艳(1973),女,博士,教授,博士生导师,研究方向为模式识别与智能系统,cxywxr tusteducn。472

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 品牌综合 > 临存文档

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服