收藏 分销(赏)

改进YOLOv5s的摩托车头盔佩戴检测算法_张鑫.pdf

上传人:自信****多点 文档编号:283376 上传时间:2023-06-28 格式:PDF 页数:9 大小:1.70MB
下载 相关 举报
改进YOLOv5s的摩托车头盔佩戴检测算法_张鑫.pdf_第1页
第1页 / 共9页
改进YOLOv5s的摩托车头盔佩戴检测算法_张鑫.pdf_第2页
第2页 / 共9页
改进YOLOv5s的摩托车头盔佩戴检测算法_张鑫.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第36卷第3期2023年6月Vol.36 No.3Jun.2023四川轻化工大学学报(自然科学版)Journal of Sichuan University of Science&Engineering(Natural Science Edition)改进YOLOv5s的摩托车头盔佩戴检测算法张鑫1,2,周顺勇1,2(1.四川轻化工大学自动化与信息工程学院,四川宜宾644000;2.人工智能四川省重点实验室,四川宜宾644000)摘要:针对摩托车头盔佩戴检测准确率低和检测速率慢的问题,提出一种基于YOLOv5s的改进摩托车头盔检测算法。首先,在YOLOv5s的多尺度特征检测中增加浅层检测尺度和

2、4倍上采样特征融合结构,以提升检测准确率。其次,引入卷积注意力模块(Convolutional BlockAttention Module,CBAM),以提升对聚集目标的关注,有效解决因遮挡、重叠导致的漏检和误检问题。最后,使用MobilenetV3的Block结构替换主干网络及颈部中的瓶颈结构,实现了降低网络参数量的目的。实验结果表明,相较于YOLOv5s算法,改进算法的mAP提高了2.91%,检测速率达到了36 frame/s,在保证较高检测速率的同时检测精度更高,具有一定的应用价值。关键词:头盔检测;YOLOv5s模型;CBAM注意力机制;MobilenetV3网络中图分类号:TP391

3、文献标志码:A引言2018年世界卫生组织发布的全球道路安全报告中1,摩托车交通事故导致的死亡人数占道路交通事故总死亡人数的28%。特别是在东南亚、西太平洋区域,道路交通工具以摩托车为主,摩托车交通事故死亡人数分别占总交通事故死亡人数的43%和 36%。而头部受伤是导致死亡的最主要因素,如果规范佩戴摩托车头盔,死亡风险可降低42%,头部受伤风险可降低69%,从而降低摩托车事故的死亡人数。目前,对摩托车骑手是否佩戴头盔的检查仍以交警现场检查为主。随着计算机视觉技术的快速进步,智能设备在目标检测中的使用越来越普遍,深度学习是目前的主流的方法之一。基于深度学习的目标检测算法分为二阶段算法 和 一 阶

4、段 算 法 两 类。二 阶 段 算 法 有 FastR-CNN2、Faster R-CNN3、Mask R-CNN4等,虽然这类算法精度高,但是检测速度慢,不能满足实时检测的需求。一阶段算法包括 YOLO 系列算法5-7、SSD8、FCOS9等,兼备高精度和小参数量模型等特点。Wu等10使用混合描述符提取图像特征,并使用支持向量机(SVM)分类器将图像分为头盔和非头盔。Silva等11应用了背景减法技术来识别移动车辆和主成分分析。Shine12将背景减法与序列最小优化(Sequential Minimal Optimization,SMO)分类器用于检测视频中的摩托车。收稿日期:2022-03

5、-27基金项目:四川省科技厅项目(2020YFG0178);四川省科技厅省院校合作项目(2020YFSY0027)通信作者:周顺勇(1975-),男,副教授,硕士,研究方向为图像处理,(E-mail)文章编号:20967543(2023)03005009DOI:10.11863/j.suse.2023.03.07第36卷第3期张 鑫,等:改进YOLOv5s的摩托车头盔佩戴检测算法以上传统算法都是多级操作,难以达到实时性,而且当两个人同时乘坐一辆摩托车时,很难通过分类判断是否佩戴头盔。Espinosa-oviedo等13基于区域的深度学习模型,提出了使用YOLOv3算法检测摩托车手是否佩戴头盔,

6、但是车身被其他物体遮挡时无法有效检测到目标。而后Barbosa等14使用改进YOLOv3算法来检测摩托车头盔佩戴情况,但是当摩托车上两个人高度遮挡时,分类算法效果不理想。Nagoriya15提出实时头盔检测系统模型用于监测摩托车骑乘人员是否佩戴头盔,但是,当摩托车骑乘人员所处环境拥挤时,会出现相互遮挡的情况,这就会导致漏检,使得检测效果不理想。郭师虹等16、蒋润熙等17、刘琛等18提出的算法分别对YOLOv4、YOLOv5、SSD算法进行了轻量化改进,都具有较好的安全头盔检测效果。在检测摩托车骑手佩戴头盔时,由于需要融入对摩托车的检测,比单纯对施工人员做头盔检测的难度更高,另外摩托车处于行驶中

7、,使得定位更加的困难,而人的头部容易出现遮挡甚至覆盖情况,同时车身也会发生重叠或者遮挡,这都极大增加了检测的难度。基于此,本文对YOLOv5s网络的多尺度窗口进行改进,新增浅层检测尺度,使用四倍上采样组合两倍上采样的特征融合结构,提高了网络的检测精度;引入轻量化模型来降低卷积核数量,从而提升检 测 速 率;引 入 卷 积 注 意 力 模 块(ConvolutionalBlock Attention Module,CBAM)注意力机制,增强对遮挡、重叠目标的检测效果,以实现降低漏检和误检的目的,满足检测速度快和精度高的需求。1传统YOLOv5网络YOLOv5是一种经典的单阶段目标检测算法,它将检

8、测问题化为回归问题,不提取Rol,直接通过回归的方法生成每个类别的边框坐标和对应的概率。在 YOLOv5 中 使 用 了 depth_multiple 和width_multiple来调整网络的深度和宽度,因此可以得到 4 个模型版本,分别是 YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。其中 YOLOv5s是模型参数最少、检测速度最快的简易版本。YOLOv5s将模型分成3个部分:主干特征网络、颈部结构、头部预测,如图1所示。FOCUSCBSCSP1_XCBSCSP1_XCBSCSP1_XCBSSPPCSP2_XCBSUPSAMPLECONCATCSP2_XCBSUPSAMP

9、LECONCATCSP2_XCBSCONCATCSP2_XCBSCONCATCSP2_XCONVHEADCONVHEADCONVHEAD64064033203201216016012880802564040512202010248080256404051220201024主干特征网络颈部结构头部预测图1YOLOv5网络结构图512023年6月四川轻化工大学学报(自然科学版)主干特征网络用于提取图像特征:首先,FOCUS将原特征图每隔一个像素取一个值,类似邻近值采样,从而得到4张特征图,把W、H的信息就集中到了通道空间,减少计算量来加速模型。在主干特征网络的最后一层用了空间金字塔池化(Spati

10、al Pyramid Pooling,SPP)来扩大感受野。根据YOLOv4 中 CSPnet 的基本理论,设计了 CSP1_X 和CSP2_X,前者用于主干特征网络中,后者用于颈部结 构 中。在 颈 部 中 采 用 特 征 金 字 塔(FeaturePyramid Network,FPN)加 路 径 聚 合 网 络(PathAggregation Network,PAN)的结构,FPN结构可以从上往下传达语义信息,然后PAN从下往上传达准确的定位信息,它们一起构成特征金字塔,融合不同特征层之间的特征信息。头部预测部分与YOLOv4一致,只有3个特征预测输出,预测信息包括边框信息、类别和概率。

11、2改进的YOLOv5网络2.1多尺度特征的改进YOLOv5s对常规数据集有很好的检测效果,但这些待检测目标通常较大,而摩托车头盔的检测属于小目标,在提取图像的信息特征时,经过多次卷积激活运算后,会影响小目标的语义信息,导致检测精度降低。为了解决这个问题,在颈部结构中增加一个尺度窗口,添加高层特征层来改进YOLOv5的多尺度检测19。在保证输入大小为640 640的前提下,增加浅层特征大小为160 160的检测层,将原本三尺度特征改进为四尺度,极大增强了对小目标的检测能力。另外,为了最大程度实现不同特征层之间的特征融合,进一步减少多次卷积特征信息的损失,新增四倍上采样特征融合结构,提高对头盔的检

12、测精度。2.2CBAM注意力机制在检测摩托车头盔佩戴时,由于车身间的遮挡和车上人物重叠导致误检和漏检,降低了检测精度。为解决这些问题,特引入CBAM20,该模块包括通道注意力模块(CAM)和空间注意力模块(SAM)两个独立的部分,优化了网络的特征提取能力,有效地提高了检测的精度。给定一个输入特征图为F RCHW,依次计算出一维特征图Mc RC11和二维特征图Ms R1HW,计算过程如式(1)(2)所示:F=Mc(F)F(1)F=Ms(F)F(2)其中,表示对应元素相乘,F为通道特征的输出,F为空间特征的输出。将二者通过多层感知机(MLP)和隐藏层组成共享网络,得到通道注意力特征图Mc(F)RC

13、11,其计算过程如式(3)所示:Mc(F)=(MLP(AvgPool(F)+)MLP(MaxPool(F)=(W1(W0(Fcavg)+)W1(W0(Fcmax)(3)其中,表示激活函数sigmoid,AvgPool(F)表示平均池化,MaxPool(F)表示最大值池化,MLP表示多层感知机的运算,W0 RC/rC和W1 RCC/r是MLP的两次权值。Fcavg和Fcmax分别表示平均池化特征和最大池化特征。为计算空间注意力特征,首先沿通道轴计算平均池化和最大池化,将特征图压缩到一层,生成两个二维的特征:Fsavg R1HW和Fsmax R1HW,表示将C维通道压缩后得到一维通道,该通道具有平

14、均池化和 最 大 池 化。卷 积 后 得 注 意 力 特 征 图Ms(F)R1HW,其计算过程如式(4)所示:Ms()F=()f77()AvgPool()F;MaxPool()F=(f77(Fsavg;Fsmax)(4)其中,表示激活函数,f77表示卷积核大小为7 7的标准化卷积。CBAM注意力模块可以增强特征图中的重要通道和空间特征,有效提高对目标检测的定位精度,52第36卷第3期张 鑫,等:改进YOLOv5s的摩托车头盔佩戴检测算法增强对目标聚集的关注,解决由遮挡重叠而引起的误检、漏检问题。所以在改进YOLOv5s中的颈部结构中,每一次瓶颈结构后面都添加了CBAM注意力模块,另外在最后的四

15、尺度预测层输出之前,也融入了CBAM注意力模块,其结构如图2所示。输出特征通道注意力模块空间注意力模块输入特征图2CBAM注意力机制模块2.3MobilenetV3轻量化模块MobilenetV3 网络21不但融合了 MobilenetV122的深度可分离卷积、MobilenetV223的具有线性瓶颈的逆残差结构与 MnasNet24的轻量级注意力模型,它还融入了SE-net25神经网络,即引入一种非线性swish函数,其计算如式(5)所示:swish x=x (x)(5)其中,swish x表示非线性激活函数,x表示输入特征,(x)表示sigmoid激活函数。虽然这种非线性计算提高了检测精度

16、,但是在移动设备上计算sigmoid成本太高,故采用一种新的激活函数hswish x来代替原来的swish x函数,这能极大提升检测速度,尤其是在深层网络中较为明显。其计算过程如式(6)所示:hswish x=x Relu6(x+3)6(6)其中Relu(x)表示Relu激活函数。YOLOv5s主干特征网络卷积运算很多,为了极大地降低计算开销且保持较好精度,将MobilenetV3网络的 Block 结构替换为 YOLOv5s 主干的瓶颈结构,将CSP1_X中的残差卷积网络改为参数量更少的Block结构来完成特征提取。另外,在颈部中也采用该Block结构替换CSP2_X中的残差卷积,使模型体积

17、降低。MobilenetV3网络的Block结构如图3所示。图3MobilenetV3的Block结构为了提高YOLOv5s模型的检测精度,本文采用了一系列改进措施,如图4所示。首先,为了避免多次卷积后丢失较小目标区域信息,增加了一个浅层来改进多尺度检测,将原来的三尺度特征扩展为四尺度特征(图4(a))。针对输入尺寸为640 640 3的图片,采用了FOCUS模块(图4(b))对其进行切片,将宽、高都裁剪为原来的一半且通道数扩张为四倍,得到320 320 12的特征图。接着,通过卷积操作将其转换为尺寸为160 160 128的特征图。在主干特征网络中,将MobilenetV3的Block结构替

18、换残差结构CSP1_X,以此得到模块的CV(图4(c)),该模块从上至下依次输出另外4个特征图,尺寸大小 分 别 为160 160 128、80 80 256、40 40 512和20 20 1024。为了更好地利用低层和高层的信息,并减少由于多次卷积造成的信息丢失,在原本两倍上采样的基础上新增四倍上采样,并在特征金字塔中实现不同层之间的特征融合。通过在 CV的输出末端前引入 CBAM 模块,得到了CVB模块(图4(d)),从而减少了目标聚集问题,有效提高了遮挡和重叠目标检测中的目标定位精度。主干特征网络中中卷积层CBS和池化层SPP模块结构如图4(e)和图4(f)所示,在颈部结构的输出后以及

19、头部预测末端输出前嵌入CBAM结构,增强了各个尺度的特征信息提取,最终输出4个尺度的特征图,改进后的YOLOv5s模型如图4(a)所示。532023年6月四川轻化工大学学报(自然科学版)(a)改进的YOLOv5结构(b)FOCUS模块结构(c)CV模块结构(d)CVB模块结构(e)CBS模块结构(f)SPP模块结构图4改进YOLOv5s网络整体模型3实验结果与分析3.1实验环境本 实 验 采 用 AMD Ryzen 5800H with RadeonGraphics 处 理 器,内 存 为16 G,显 卡 为 NVIDIAGeNvidia GeForce RTX 3060 Laptop GPU

20、,其显示内存大小为6 G。程序编译采用Python语言和Pytorch深度学习框架,并使用GPU加速软件CUDA11.1和CUDNN8.1.1。实验参数设置见表1。在该实验中,采用的数据增强方法有旋转、缩放、平移以及Mosaic数据增强,它可以改善图像的对比度、噪声抑制、色彩增强等,此外还使用了自适应锚框计算方法K-means聚类,对先验框进行聚类分析,得到最优的初始锚框大小。表1实验参数设置参数名称Learning rateTrain epochBatch sizeMomentumWeight decayConfidenceNms threshold值0.01200160.920.050.5

21、0.354第36卷第3期张 鑫,等:改进YOLOv5s的摩托车头盔佩戴检测算法3.2数据集本实验数据集来自3个部分,分别为Kaggle26、ImageNet大型数据集的子集和网络图像,将其组合后进行自定义标注,标注后得数据集包括2200张具有良好场景光照且分辨率较高的图像,1100张场景光照较暗的图像以及500张未佩戴安全头盔的摩托车驾驶场景。图像数据标注使用的是 Labelimg 软件,通过对数据集标注了两个类别,分别为佩戴安全头盔(helmet_man)与未佩戴安全头盔(no_helmet_man),并生成包含物体坐标和类别信息的标注文件,文件格式为 XML,后经 YOLOv5转换至 tx

22、t文件即Yolo格式,以供训练使用。此外,为了反映实际的检测场景,将训练集、验证集和测试集的比例设定为8 1 1,数据集的详细划分情况见表2。表2数据集数据类型训练集验证集测试集全部数据集数量304038038038003.3训练与分析为了定量评估模型的检测效果,使用准确率(Precision)、召回率(Recall)、平均精度(AP)、F1、mAP以及FPS来衡量算法的性能。F1=2 Precision RecallPrecision+Recall(7)Recall=TPTP+FN(8)mAP=i=1nAPin(9)Precision=TPTP+FP(10)其中,TP表示判断为正样本实际为正

23、样本的目标,FP表示判断为正样本实际为负样本的目标,FN表示判断为负样本实际为正样本的目标,AP表示Precision-Recall曲线包围的面积。为验证不同算法的有效性和性能,对改进YOLOv5s算法与YOLOv3、YOLOv4、YOLOv4-Tiny、SSD、Autoassign、DeformableDETR、YOLOv5s、YOLOv5m、YOLOv5l 进行对比分析。首先,YOLOv5s模型以及改进YOLOv5s模型的边界框损失函数值随训练轮次曲线变化如图 5所示。其次,验证了各种算法的检测性能对比,其数据对比见表3。最后,为了更直观地观察改进前、后模型的效果,对测试集的部分图像进行可

24、视化分析,其检测效果如图6所示。图5改进前、后边界框损失值随迭代次数变化曲线对比表3各种算法检测性能对比模型YOLOv5sYOLOv5mYOLOv5lYOLOv3YOLOv4YOLOv4-TinySSDAutoassignDeformable DETR改进YOLOv5s模型大小/MB14.4841.9291.65236.32244.2922.85102.17277.0641.6423.26Precision/%86.6287.0988.9084.2290.6683.5782.1389.2588.6590.76Recall/%88.5389.9292.8285.3693.2582.2281.26

25、92.0791.2293.58F10.880.890.910.850.910.830.810.900.900.92mAP/%92.8394.3595.4890.1795.3888.0686.7993.7492.1295.74FPS/(frame/s)38271819203114172236552023年6月四川轻化工大学学报(自然科学版)(a)待检测图片(b)YOLOv5s检测效果(c)改进YOLOv5s检测效果图6检测效果对比图通过对图5边界框损失值曲线对比分析,可以直观地看出,改进后的YOLOv5s算法收敛速度相比YOLOv5s算法更快,在40轮后就逐渐趋于稳定。另外改进算法的损失值也更小

26、,稳定后的损失值由1.1降到了0.7左右,体现更优的算法性能。通过表3可知,改进YOLOv5s模型的F1值达到了0.92,mAP达到了 95.74%,在原算法上提升了 2.91%。根据图 6的检测可视化效果对比,可以看出改进YOLOv5s模型能够正确地检测出遮挡和重叠的目标。在检测速 度 方 面,改 进 算 法 比 YOLOv4-Tiny 提 升 了5 frame/s,检测速度达到了36 frame/s,在嵌入式设备Jetson nano b01 中通过 TensorRT 加速后 FPS 能从3 frame/s提升到1315 frame/s,能够满足实际场景的实时检测需求。3.4消融实验为了更

27、加直观而严谨地评估各个改进点对YOLOv5s模型的增益效果,对3种改进及其组合改进的模型编号:改进a表示采用多尺度窗口,改进b表示嵌入CBAM注意力机制,改进c表示用轻量化模型MobilenetV3替换主干特征网络。在同一环境下,按照相同的数据集的分配比例和参数进行消融实验,实验结果见表4。表4消融实验对比模型ABCDEFGHabcmAP/%94.6693.5792.9495.6394.3793.2692.8395.74FPS/(frame/s)3436393335363836注:“”表示使用此种改进;“”表示未使用此种改进由表4可知,YOLOv5s模型经a、b、c 3种改进后在检测性能方面均

28、有小幅度提升,综合所有模型进行对比分析,检测精度和速度均衡效果最佳的是H模型,其mAP最优,且检测速度达到了36 frame/s,较原模型G有较大提升,具有一定的泛化性。4结束语本文提出了一种改进 YOLOv5s的摩托车头盔佩戴检测算法,实现了对车身遮挡、骑乘人员重叠56第36卷第3期张 鑫,等:改进YOLOv5s的摩托车头盔佩戴检测算法情况下的头盔检测精度的提升。实验结果表明,在各种算法的检测性能对比中,改进算法的检测精度有较大提升,并且能够很好地满足实时性要求,可以植入到计算能力和内存有限的嵌入式设备和移动设备中,具有很好的实用性和应用前景。参考文献:1 WHO.Global status

29、 report on road safety 2018R.World Health Organization,2018.2 DING X,LI Q,CHENGY,et al.Local keypoint-based faster R-CNNJ.Applied Intelligence,2020,50(10):3007-3022.3 CHEN Y H,WANG H R,LI W,et al.Scale-aware domain adaptive faster R-CNNJ.International Journal of Computer Vision,2021,129(7):2223-2243

30、.4 TIAN Y,YANG G,WANG Z,et al.Instance segmentation of apple flowers using the improved mask R-CNN modelJ.Biosystems Engineering,2020,193:264-278.5 HAN X,CHANG J,WANG K.Real-time object detection based on YOLO-v2 for tiny vehicle objectJ.Procedia Computer Science,2021,183:61-72.6 ZHAO LQ,LI SY.Objec

31、t detection algorithm based on improvedYOLOv3J.Electronics,2020,9(3):537.7YU J M,ZHANG W.Face mask wearing detection algorithm based on improvedYOLO-v4J.Sensors,2021,21(9):3263.8 CAO J,SONG C,SONG S,et al.Front vehicle detection algorithm for smart car based on improved SSD modelJ.Sensors,2020,20(16

32、):4646.9 TAN Y D,YU D,HU Y.An application of an improved FCOS algorithm in detection and recognition of industrial instrumentsJ.ProcediaComputer Science,2021,183:237-244.10 WU H,ZHAO J.An intelligent vision-based approach for helmet identification for work safetyJ.Computers in Industry,2018,100:267-

33、277.11 SILVA R R,AIRES K R T,VERAS R de M S.Detection of helmets on motorcyclistsJ.Multimedia Tools and Applications,2018,77(5):5659-5683.12 SHINE L,JIJI C V.Automated detection of helmet on motorcyclists from traffic surveillance videos:a comparative analysis using hand-craftedfeatures and CNNJ.Mul

34、timedia Tools andApplications,2020,79(19):14179-14199.13 ESPINOSA-OVIEDO J E,VELASTN SA,BRANCH-BEDOYAJW.EspiNet V2:a region based deep learning model for detecting motorcyclesin urban scenariosJ.Dyna,2019,86(211):317-326.14 BARBOSA R C,AYUB M S,ROSA R L,et al.Lightweight PVIDNet:a priority vehicles

35、detection network model based on deep learningfor intelligent traffic lightsJ.Sensors,2020,20(21):6218.15 NAGORIYA H.Live helmet detection system for detecting bikers without helmetJ.International Journal of Knowledge Based ComputerSystem,2019,7(2):14-17.16 郭师虹,井锦瑞,张潇丹,等.基于改进的YOLOv4安全帽佩戴检测研究J.中国安全生产

36、科学技术,2021,17(12):135-141.17 蒋润熙,阿里甫 库尔班,耿丽婷.面向轻量化网络的安全帽检测算法J.计算机工程与应用,2021,57(20):263-270.18 刘琛,王江涛,王明阳.引入视觉机制的SSD网络在摩托车头盔佩戴检测中的应用J.电子测量与仪器学报,2021,35(3):144-151.19 周薇娜,孙丽华,徐志京.复杂环境下多尺度行人实时检测方法J.电子与信息学报,2021,43(7):2063-2070.20 FU H X,SONG G Q,WANGYC.ImprovedYOLOv4 marine target detection combined wit

37、h CBAMJ.Symmetry,2021,13(4):623.21ABD E M,DAHOUA,ALSALEH NA,et al.Boosting COVID-19 image classification using MobileNetV3 and aquila optimizer algorithmJ.Entropy,2021,23(11):1383.22 PATELS.Diabetic retinopathy detection and classification using pre-trained convolutional neural networksJ.Internation

38、al Journal on Emerging572023年6月四川轻化工大学学报(自然科学版)Technologies,2020,11(3):1082-1087.23 LIU J,WANG X.Early recognition of tomato gray leaf spot disease based on MobileNetv2-YOLOv3 modelJ.Plant Methods,2020,16(1):1-16.24 TAN M,CHEN B,PANG R,et al.Mnasnet:platform-aware neural architecture search for mobi

39、leC/Proceedings of the IEEE/CVF Conferenceon Computer Vision and Pattern Recognition,LosAngeles,USA,June 15-20,2019:2820-2828.25 HU J,SHEN L,SUN G.Squeeze-and-excitation networksC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Salt Lake,USA,June 18-21,2018:7132-7141.26

40、 BOJER C,MELDGAARD J.Kaggle forecasting competitions:an overlooked learning opportunityJ.International Journal of Forecasting,2021,37(2):587-603.引用格式:中文:张鑫,周顺勇.改进YOLOv5s的摩托车头盔佩戴检测算法J.四川轻化工大学学报(自然科学版),2023,36(3):50-58.英文:ZHANG X,ZHOU S Y.Improved motorcycle helmet wearing detection algorithm of YOLOv

41、5sJ.Journal of Sichuan University ofScience&Engineering(Natural Science Edition),2023,36(3):50-58.Improved Motorcycle Helmet Wearing Detection Algorithm of YOLOv5sZHANG Xin1,2,ZHOU Shunyong1,2(1.School of Automation and Information Engineering,Sichuan University of Science&Engineering,Yibin644000,Ch

42、ina;2.Artificial Intelligence Key Laboratory of Sichuan Province,Yibin 644000,China)Abstract:Aiming at the low accuracy and slow detection rate of motorcycle helmet wearing detection,animproved motorcycle helmet detection algorithm based on YOLOv5s has been proposed.Firstly,a shallowdetection scale

43、and a 4-fold upsampling feature fusion structure are added in the multi-scale feature detection ofYOLOv5s,to improve the detection accuracy.Secondly,the Convolutional Block Attention Module(CBAM)isintroduced to improve the focus on the aggregation target,which effectively solves the problem of misse

44、ddetection and false detection caused by occlusion and overlap.Finally,the block structure of MobilenetV3 is usedto replace the bottleneck structure in the backbone network and neck,achieving the purpose of reducing theamount of network parameters.The experimental results show that,compared with the

45、 YOLOv5s algorithm,themAPof the improved algorithm is increased by 2.91%,and the detection rate reaches 36 frame/s.The detectionaccuracy is higher with ensuring a higher detection rate,which exhibits certain application value.Key words:helmet detection;YOLOv5s model;CBAM attention mechanism;MobilenetV3 network58

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服