收藏 分销(赏)

改进YOLOX的安全帽佩戴检测算法研究.pdf

上传人:自信****多点 文档编号:569188 上传时间:2023-12-28 格式:PDF 页数:9 大小:8.48MB
下载 相关 举报
改进YOLOX的安全帽佩戴检测算法研究.pdf_第1页
第1页 / 共9页
改进YOLOX的安全帽佩戴检测算法研究.pdf_第2页
第2页 / 共9页
改进YOLOX的安全帽佩戴检测算法研究.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第23卷第7期黑龙 江 工业学院学报(综合 版)Vol.23No.72023年7月JOURNALOFHEILONGJIANGUNIVERSITYOFTECHNOlGY(COMPREHENSIVEEDITION)Jul.2023文章编号:2096-3874(2023)07-66-09改进YOLOX的安全帽佩戴检测算法研究史润发1,潘伟1,朱熔1,高庆2,胡国华1(1.合肥学院先进制造工程学院,安徽合肥23俑01;2.合肥移瑞通信技术有限公司,安徽 合肥2313)摘要:针对现有安全帽佩戴检测算法计算量大、网络参数多、密集目标检测效果差,不利于部署嵌入式设备等问题,提出一种轻量级YOLOX改进算法,

2、在Neck部分使用改进版的BiFPN结构代替原先的加强特征提取结构,通过对比实验在检测头之前加入ECA注意力机制,检测头中采用计算边界框回归损失更为全面的CloU损失函数。实验结果表明,改进后的YOLOX模型mAP提升了。.91%,其中未佩戴安全帽工人的AP提升了1.88%,检测速率提升了3.78帧每秒,模型大小减少了22.11%。关键词:深度学习;安全帽佩戴;YOLOX网络;BiFPN结构;注意力机制中图分类号:TP391文献标识码:A在施工作业中佩戴安全帽能够很好的承受和分散物体撞击,起到保护作用。由于工人不安全行为的跟随现象较为严重1,安全事故难以避免。为了满足实际需求,国内外学者研究机

3、器视觉技术来辅助人员进行管理。传统的机器视觉方法是采用人工进行特征提取,但是由于施工现场环境复杂,传统方法检测慢、识别率不高,从而难以胜任艰巨的检测任务。近年来随着神经网络的快速发展,深度学习逐渐走人应用领域。针对目标检测任务,深度学习模型可以分为一阶段算法和二阶段算法。其中,一阶段算法包括SSD2、YOLO3等系列,二阶段算法中较典型的如FasterR-CNN4。相比较下,一阶段算法的检测速度更快,更适应于实际应用场合。由于SSD算法层数较浅,特征提取不够深入,因此本文选用YOLO系列进行研究。秦子豪等5在Tiny-YOLOd的基础上使用深层可分离卷积替代网络主干相关部分以减少参数量。杨永波

4、等6使用MobileNetv3结构替换YOLOv5的主干网络,并用知识蒸馆的方式进一步提升准确率。王建波等7加入融入空间信息的MSCA模块加强了网络特征提取能力。通过上述方法,检测速率得到提高,具备较高的检测实时性,但在精度上不能很好的平衡,并且由于是在主干网络进行改进,不能使用已有的大规模训练权重,导致了网络收敛时间长。本文基于YOLOX网络结构改进,采用BiFPN结构减少模型大小、提升检测速率,使用衡量更为全面的CloU损失函数,并在检测头前加入ECA注意力机制提升检测精准率,同时保留了主干网络结构,便于模型的迁移学习。1YOLOX算法YOLOX是旷世公司提出的新型目标检测算法,在目标检测

5、方面相较以往YOLO系列有更强的优势8-100YOLOX由三个组件构成:主干特征提取网络(Backbone)、加强特征提取网络(Neck)和检测头(Head)0Backbone采用CSPDarknet结构,其继承了YOLOv5的Focus结构,使用性能优于ReLU的SiLU激活函数,并加入了YOLOv4的SPP(Spatial Pyramid Pooling)11结构。Neck使用FPN12+PAN结构,在融合深层特征和浅层细节的基础上输出三个特征图。Head取消了多锚框确定物体位置和类别,将分类和回归任务分开,使用作者简介:史润发,在读硕士,合肥学院先进制造工程学院。研究方向:深度学习、目标

6、检测。通讯作者:胡国华,博士,教授,合肥学院先进制造工程学院。研究方向:元线通信技术、智能信息处理及深度学习。基金项目:2022年度高等学校省级质量工程项目基于新工科与工程教育认证背景下通信工程专业工程能力培养模式改革与创新(项目编号:No.2022sx128)。66第7期改进YOLOX的安全帽佩戴检测算法研究2023年(5)i的.Resize(p:lll)+.p:npiM=Coml9-,SI(6)飞)8+)9+8I破旧与ip;rep盹tedblocksL自 曲目-曲目._-幽幽-i属单tIII(I)吨P3P3Psp:d=CSP(p:d)(3)i3P;+4Resi叫P)p;时=Convlw3-

7、,3Tw4-n,.,4JI(4)飞3+4+8I乓时=Conv(5pf+6p:+7Resize(p;1ll)飞s+6+7+8I图2BiFPN由于YOLOX网络在Neck部分只有三个输入,因此本文首先将BiFPN调整为P3、P4、PS三个输入,之后采取卷积方式调整输入通道数,以便进行后续的快速归一化融合。然后在每个节点输出时加入深度可分离卷积,并于中间层加入残差模块,从而进一步提升模型的性能。最后再次调整通道数作为预测端的输入。改进后的结构命名为BiFPN-S,如图3所示。图3BiFPN-5P3=(80,80,128)、P4=(40,4,256)、Ps=(20,20,512)是主干网络的三个输出,

8、经过卷积处理得到可=(80,80,256)、可=(40,40,256)、pn=(20,20,256),再乘以训练得到的权重向进行特征融合,节点输出如式(2)-式(6)所示。p.d=I p:n+2.Resize(pn)A件(2)WI+)2+8P4P7图1FPN+PAN本文采用BiFPN13结构替代原来的加强特征提取网络,BiFPN是由谷歌团队提出的一种加强双向特征金字塔网络,具有较好的性能特点。首先,BiFPN使用快速归一化融合,快速归一化融合相比Sofl恤阻效率提升了30%,如式(1)所示。=叉一生一In(1)+Lm式(1)中,I和O分别代表输入和输出特征,权重三0,由激活函数ReLU来保证。

9、学习率8=0.0001保证数值稳定。其次,BiFPN取消了只有一个输入的节点(如图1所示P3和P7右侧第一个节点),这些节点提供的特征信息贡献较少,因此取消部分节点以简化网络结构。之后加入跳跃连接,使得同层之间少量增加计算量并融合更多特征。最后,此双向结构封装为一个特征网络模块,重复多次连接,达到更好层次的特征融合。BiFPN结构如图2所示。PSP6分支解桶的方式分别在模块CIs、Reg、Obj计算目标的类别概率、位置和置信度。此外,YOLOX还采用了Mosaic和Mixup两种数据增强策略。Mosaic会将4张图片拼接在一起,Mixup则是随机混合两张不同的图片。由于YOLOX系列中YOLO

10、X-S的参数量和权重较小且具有代表性,适合部署在移动设备,因此选择在其基础上进行改进研究。2改进方法2.1Neck结构改进在YOLOX模型中,采用了特征金字塔结构和路径聚合网络PAN来加强对于Neck部分的特征提取,该方法通过自顶向下的方式传递语义特征,同时从底部向上传递位置特征,在不同主干层进行不同检测层的特征聚合,以实现更好的特征提取结果。FPN+PAN结构如图1所示。P367第7期黑龙江工业学院学报(综合版)2023年式(2)-式(6)中,Conv表示经过卷积操作,Resize表示采样(Upsample/Downsample),CSP表示残差模块,z为训练得到的权重,8=0.0001保证

11、数值稳定,可是中间层特征,pf是由经过残差模块后得到的节点,pf、P;因、P;时是经过BiFPN-S结构后的输出。2.2添加注意力机制注意力机制本质在于对不同语义信息进行加权,通过计算出不同特征的重要性,对重要任务倾向更多关注,从而抑制背景信息。ECA14是一种超轻量级注意力模块,只涉及个位数的参数,对于部署移动设备有较强的优势。ECA是基于SE15的改进版,考虑到SE用全连接层捕获非线性跨通道交互作用较为低效,ECA采取了无降维的局部跨通道策略,只考虑每个通道与其卷积核k近邻之间的交互作用,通过所有通道共享倾斜参数将参数量由k*C降低为k,权重z如式(7)所示。i-(LdY;),Y;码(7)

12、式(7)中,代表sigmoid函数,是倾斜参数,y是输入特征,d表示y 的k个相邻通道的集合。另外在ECA中卷积核k的大小由通道数C决定,在给定通道数C的情况下,自适应k的大小如式(8)所示。k=(C)=Mi+主|lodd式(8)中,取值为2,b取值为1,Ilodd表示取值最近的奇数。当通道数越大,核k的取值越大。ECA模块如图4所示。(8)图4ECA输入特征首先进行全局平均池化(GlobalAv-erage Pooling,GAP),得到未降维的所有特征。然后经过大小为k的快速一维卷积捕获非线性跨通道交互,k由上述公式(8)得到。之后加入激活函数sigmoid,获得通道权重。最后再和输入相乘

13、构造残差网络提升模型整体性能得到输出。经过实验,最终选择在检测头之前加入ECA注意力模块。2.3损失函数改进YOLOX-S中在CIs和Obj部分的损失函数都使用交叉d脑损失(BCE一Loss),由于其有较好的效果故本文仍使用BCE_Loss,YOLOX-S在Reg部分使用LossloU叫,本文则采用LossCloU1飞相比较IoU和GloU,CloU关注目标框的重叠面积、中心点距离和长宽比多项尺度,衡量边界框损失更加全面,拥有很好的收敛速度和稳定性。LossCloU的计算式如式(9)-式(12)所示。p2(b,bgt)Lossc/oU=1-IOU+巳立斗二-.!.-+v(9)C68。,H,W,

14、C)B-Bn-UAA-AAUO,1(10)U(1-IoU)+v4,wgtW2v=一-Iarctan-=-arctan丁一lTT2飞hen!、,/唱-A唱-A,.、(12)式(9)-式(12)中,A为预测框,B为真实框,AnB代表预测框和真实框相交的面积,AUB代表预测框和真实框的并集面积,IoU即A与B的交并比。预测|框的中11点由b表示,真实框的中心点由bg,表示。p2(b,bg,)计算出真实框与预测框中心点之间的欧式距离。C代表两框之间外接矩形的对角线距离。是平衡系数,v计算出预测框和真实框长宽比的相似性,v中J和hg,代表真实框的宽高比,和h代表预测框的宽高比。2.4改进后的YOLOX-

15、S模型通过以上方法改进,改进YOLOX-S的最终结构如图5所示。改进YOLOX-S模型结构的工作原理如下。第7期改进YOLOX的安全帽佩戴检测算法研究2023年MosaicWindows10CosineAnnealingIntel(R)Core(TM)i5-12490FNVIDIA RTX 308012GTensorFlow2.9.1Python3.850epochs150epochsSGD数据集是来自现场施工现场拍摄和网页抓取,筛选出不符合要求的图片,共保留5棚张图片用于实验。使用Labeli部工具对数据集进行标记,分为佩戴安全帽的工人(hat)和不佩戴安全帽 的工人(person)。将数据

16、集按照8:1:1划分为三个部分,最终得到训练集图片4削张,验证集图片5张,测试集图片5张。实验环境的配置如表1所示。表1实验环境配置参数环境配置操作系统CPUGPU内存算法平台编程语言冻结训练解冻训练优化器数据增强学习率3.2评价指标本实验中,选用的评价指标为平均精准率(AP),平均精准率均值(mAP)和检测速率(凹的。其中AP是通过计算精准率(Precision)和召回率(Recall)得到的,mAP则是不同目标AP的均值,FPS为每秒检测的帧数。相关指标计算如式(13)69图5改进YOLOX-S模型结构第一步,图像输入到Backbone,并经过如下算法流程:(1)图像经过Focus结构进行

17、切片操作,再通过堆叠(Concat)得到通道数为12的下采样特征图;(2)经过由卷积Conv2D+BN层+激活函数SiLU构成的CBS结构提取特征并调整大小和通道数;(3)经过残差结构CSP进一步加深网络层次提高特征提取能力,并通过SPP结构的最大池化作用提升网络的感受野。第二步,Backbone得到三个输出到达改进后的Neck部分,经过如下算法流程:(1)从Backbone得到的特征图进行卷积调整,并将深层特征经过上采样与浅层特征进行加权融合,使语义丰富的深层信息与浅层细节结合;(2)中间层的特征信息通过残差结构提高特征提取深度,有效避免梯度消失;(3)通过深度可分离卷积提取融合后的信息,并

18、经过下采样不断加强特征提取构建完成整个BiFPN-S结构。第三步,得到的三个输出经过注意力机制ECA到达检测头,经过如下算法流程:(1)在ECA中计算特征信息的权重从而提高对重点任务的关注度;(2)检测头中边界框采用CloU损失计算预测框与真实框的偏差,得到结果再和分类损失、置信度损失进行结合作为Loss总损失;(3)整个网络根据损失度反向传播计算调整权值。3实验结果与分析3.1数据集和实验环境第7期黑龙江工业学院学报(综合版)2023年中被错误预测为负的数量。公式(15)中的p是Precision,r是Recall,AP是P-R曲线以Precision和Recall为坐标轴围成的面积。N代表

19、类别种类数量,n则代表不同的类别。3.3消融实验通过消融实验验证各个模块的改进效果,以YOLOX-S为基础模型,逐渐增加模块测试模型性能。消融实验结果如表2所示。对比YOLOX-S,在采用CloD损失后mAP提升了0.33%,FPS减少了0.2f/s。(13)(16)(15)(14)-式(16)所示。Precision=-.IfreCISIOn=TP+FPRmll=FEAP=牛轩护(轩r吵训)dmA 川P=专孟AP贝州削(归n叫)式(13)-式(16)中,TP(真正例)表示正样本中被正确预测的数量,FP(假正例)表示负样本中被错误预测为正的数量。FN(假反例)表示正样本表2消融实验Method

20、shatAP/%personAP/%mAP/%F自I(fls)WeiglhtMBYOLOX-S94.7089.0991.9070.3434.78YOLOX-S+CloD95.0489.4292.2370.1434.78YOLOX-S+BiFPN-S+CloD94.5490.1892.3674.0127.07YOLOX-S+BiFPN-S+ECA(Pos 1)+CloD94.7490.6692.7073.9227.09YOLOX-S+BiFPN-S+ECA(Pos 2)+CloD93.9391.4792.7074.1927.09YOLOX-S+BiFPN-S+ECA(Pos 3)+CloD94.

21、6490.9792.8174.1227.09ECAconnectstheta让oftheBIFPN-SECAis巳mbeddedinsidetheBiFPN-SBiFPN-Stail图7添加位置2BiFPN-Shead飞IECA Group图8添加位置3可以看出ECA注意力机制有很好的性能效果,在几乎不增加模型大小的同时,添加在位置1、2、3处均明显提升了mAP,可以看到位置2和位置3的添加效果更加优异,因此对位置2和位置3进J:liFPN-S图6添加位置1ECAconnectstheheadoftheBIFPN-S其中检测工人佩戴安全帽(hat)和未佩戴安全帽(person)的平均精准率均有

22、所提升,综合来看选取CloD作为损失函数是较为合理的。Neck部分使用BiFPN-S作为加强特征提取结构后,模型大小较YOLOX-S减少22.17%,更加方便移动端部署,对于基础模型和采用CloD后的模型,FPS分别增加了3.67f1s和3.87f/s,mAP分别提升了。.46%、0.13%,其中对于未佩戴安全帽(person)工人的检测效果更好,AP分别提升了1.09%、0.76%,可以看出本文设计的BiFPN-S结构在完成了轻量化任务的同时保证了mAP。对于ECA注意力的添加位置,选取了BiFPN-S头部(位置1)、BiFPN-S内部(位置2)、BiFPN-S尾部(位置3)进行对比,如图6

23、-图8所示。70第7期改进YOLOX的安全帽佩戴检测算法研究2023年mRecall代表hat和person召回率的均值。从表中可以看出二阶段法FasterR-CNN和一阶段法YOLOv3、YOLOv4的mAP都达到了85%以上,但模型较大,检测速率较慢,不适合部署在移动设备上。Efficientnet-YOLOv3和Mobilenet-YOLOv4模型都在100MB以下,也有较好的精准率,但召回率(recall)不够理想,不能很好地检测出所有的目标。YOLOv5s模型轻便,有优异的检测速率,FP5更是达到了80.941s,mAP也达到了90.97%,适合移动端部署。YOLOX-5虽然在检测速

24、率上不如YOLOv5s,但也有较高的数值以满足实际需求,且在召回率上强于YOLOv5s达到89.08%,能够更大程度地检测出工人佩戴安全帽的情况。本文的改进YOLOX-5的模型大小仅有27.09MB,在所有模型中最轻便,且mAPmPremRecall均优于其他算法,FP5仅 次于YOLOv5s和Mobilenet-YOLOv4,高达74.121s并强于YOLOX-5,整体来看具有较高的实用价值。ter R-CNN、YOLOv3、YOLOv4、Efficientnet-YOLOv3、Mobilenet-YOLOv4、YOLOv5s和YOLOX-5。其中Fa配rR-CNN是二阶段算法,YOLOv3

25、、YOLOv4、Efficientnet-YOLOv3、Mobilenet-YOLOv4、YOLOv5s是基于锚框的一阶段算法,YOLOX-5是无锚框的检测算法。结果如表3所示,其中mPre代表hat和person精准率的均值,表3对比实验结果一步分析比较。添加位置2后检测速率相较位置3差别不大,但mAP比添加位置3少了0.11%,且添加位置2对于hat的检测效果比基础模型YOLOX-5减少了0.77%。而添加位置3在保证了hat检测效果(仅和基础模型相差0.06%)的同时,对于person的检测效果提升优异,较YOLOX-5+BiFPN-5+CloD模型和基础模型分别提升了。.79%和1.8

26、8%,因此本文将ECA注意力机制添加至位置3作为最终的改进模型。3.4对比实验为进一步衡量本文算法的性能,选取了目标检测领域主流模型进行对比。对比的模型有Fas-MethodsmAP/%mPre/%mRecal%FPS/(fls)Weight/MBFasterR-CNN85.3584.4985.5216.33109YOLOv388.3989.0482.1456.79235YOLOv487.4188.6179.9140.9245Efficientnet-YOLOv387.3689.7278.3149.9160.62Mobilenet-YOLOv481.0889.8365.8180.3447.62

27、YOLOv5s90.9791.1486.9180.9427.32YOLOX-S91.9090.8389.0870.3434.78改进YOLOX-S92.8191.6889.1574.1227.09选择性能最好的YOLOXv5s、YOLOX-5和改进的YOLOX-5来比较它们的PR曲线,如图9所示。佩戴安全帽工人的AP指标中,YOLOX的PrecIslon轴和Recall轴包围的 区域最大,即AP值最高。改进型YOLOX的AP值略低,YOLOXv5s的性能最差。在不戴头盔工人的AP指数中,改进YOLOX的PR曲线面积比YOLOXv5s和YOLOX-S高出近两个百分点。为进一步达到对比改进效果的目

28、的,选取多张工地现场图像进行比较。图10(a)、图1O(川、图10(c)、图10(d)中分别表示输 入图像、YOLOXv5s检测效果图、YOLOX-5检测效果图和改进YOLOX-5检测效果图。一、二两组图中工人全部佩戴安全帽,第一组图为无遮挡情况,第二组图为有遮挡情况,YOLOXv5s、YOLOX-5和改进YOLOX-5均正确检测出所有目标,三者表现优异。第三组图为复杂环境,YOLOXv5s和YOLOX-5检测出了3个目标,漏检2位未佩戴安全帽的工人,改进YOLOX-5检测出了4个目标,漏检1位未佩戴安全帽的工人。第四组图为人员密集环境,YOLOXv5s检测出了4位佩戴安全帽的712023年黑

29、龙江工业学院学报(综合版)第7期帽的人员和12位未佩戴安全帽的人员。以上对比可以看出改进YOLOX-5在减少模型大小、提升检测速率的同时拥有更好的检测性能。人员和9位未佩戴安全帽的人员,YOLOX-5检测出了4位佩戴安全帽的人员和11位未佩戴安全帽的人员,改进YOLOX-5检测出了4位佩戴安全。$1U百豆豆d五百to民巳callclass:94.64%二hatAP1.0口0.820680.4如叫0.0.21.0口。82060.4如叫0.0.2O.吨。class:92.50%二hatAPLOt口0.81;:;击。.61804iL呵!乱。21O.Q-.c-c-斗千0.00.20.40.60.8卜。

30、Recallclass:90.97%=person AP1.01口。.81,.O.6iE041已叫t0.2,0.20.40.6豆豆1.0Recall口0.8g()6.,8O4l-;0.0.2class:89.45%=personAP1.0飞q0.8g060.4l-;0.0.20.1.00.2(c)改进YOLOX(b)YOLOX-S图9AVl0.80.40.6Recall(a)YOLOXv5sPR曲线72(d)改进YOLOX-5(b)YOLOXv5s(c)YOLOX-5图10检测效果对比(a)输入图像第7期改进YOLOX的安全帽佩戴检测算法研究2023年结语为了更好的保障施工人员安全、满足实际部

31、署的需求,本文在YOLOX-5的基础上进行了改进。Neck部分采用BiFPN-5代替了原先的加强特征提取结构,提升了检测性能。经过对比实验在BiFPN-5尾部加入了ECA注意力机制,提升了识别准确率。检测头中的边界框损失函数则采用了衡量更为全面的CloD。实验结果表明,本文的算法具有较好的实用价值,能够检测出更多工人安全帽的佩戴情况,在平衡精度的同时提升了检测速率、减小了模型大小。后续将考虑进一步提升准确率,并研究实际部署到移动端。参考文献1J边星,晋良海,陈雁高,等.施工作业人员佩戴安全帽行为意向研究JJ.中国安全科学学报,2016,26(11):43-48.2JLiu W,Anguelov

32、D,ErhanD,et al.Ssd:SingleshotmultiboxdetectorEB/OLJ.(2022-08-20)2023-03-21J.https:llwww.zha吨!open-ace附_resourcesthesis/Ol00063485842.html.3JREDMONJ,DIVVALAS,GIRSHICKR,etal.Youonly100休kon阳c优e:川unified,real-time0伪咐b问Je创创ctdetectionCJII扩/Proceedin吨1咯吕sof由eIEEEConferenceonComputerVisionandPat-ternRec0伊伊

33、it由Ion叽n,2,2却016:7协7万9-7硝88.4JRenShaoqi吨,HeKaiming,GirshickRo盹etal.Fas-terR-CNN:TowardsReal-TimeObjectDetectionwi由RegionProposalNetworksJJ.IEEEtransactionsonpatternanalysisandmachineintelligence,2017,39(6):1137-1149.5J秦子豪,雷鸣,宋文广,等.基于轻量化深度学习模型的安全帽检测方法JJ.科学技术与工程,2022,22(14):5659-5665.6J杨永波,李栋.改进YOLOv5

34、的轻量级安全帽佩戴检测算法JJ.计算机工程与应用,2022,58(09):201-2的.7J王建波,式友新.改进YOLOv4-ti町的安全帽佩戴检测算法JJ.计算机工程与应用,2023,59(04):183-190.8JZhe吨Z,HuY,QiaoY,etal.Real-TimeDetectionofWinterJujubesBasedonImprovedYOLOX-NanoNet-workJJ.RemoteSensing,2022,14(19):4833.9J吴方园,李燕,梅旋,等.基于改进的YOLOv3火灾检测算法研究JJ.黑龙江工业学院学报(综合版),2023,23(01):63-70.

35、lOJ李刚,韩超.结合FPN的改进YOLOv3车辆实时检测算法JJ.黑龙江工业学院学报(综合版),2但0,20(03):1侃-112.l1JHeK,Zh吨X,RenS,etal.Spatialp严amidpooli吨indeepconvolutionalnetworksforvisualrecognitionJJ.IEEEtransactionsonpatternanalysisandmachineintelligence,2015,37(9):1904-1916.12JLinTY,DollrrP,GirshickR,etal.Featurepyramidnetworksforobjectde

36、tection CJIIProceedingsof theIEEEconferenceoncomputervisionandpatternrecognition,2017:2117-2125.13JTanM,PangR,LeQV.Efficientdet:ScalableandefficientobjectdetectionCJIIPr,侃侃dingsof由eIEEE!CVFconferenceoncomputervisionandpatternrecognition,2020:10781-10790.14JWangQ,WuB,ZhuP,et al.ECA-Net:Efficientchann

37、elattentionfordeepnvolutionalneuralnetworksCJIIProceedingsoftheIEEE!CVFconferenceoncomputervisionandpatternrecognition,2020:11534-11542.15JHuJ,ShenL,SunG.Squeeze-and-excitationnet-worksCJIIProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition,2018:7132-7141.16JYuJ,JiangY,W吨Z,etal.Uni由o

38、x:AnadvancedobjectdetectionnetworkCJIIPr,侃侃:dingsof由e24thACMinternationalconferenceonMultimedia,2016:516-520.17JZh吨Z,W吨P,Liu W,et al.Distance-IoUloss:Fasterandbetterlearningforboundingbox呻创slO叫CJIIProceedingsoftheAAAIconferenceonartificialintelligence,2020d2993-130-73第7期黑龙江工业学院学报(综合版)ResearchonDetec

39、tionAlgorithmofSafetyHelmetWearingBasedonImprovedYOLOX2023年ShiRunfa1,PanWei1,ZhuRong1,GaoQing2,HuGuohua1(1.School of Advanced Manufacturing Engineering,Hefei University,Hefei,Anhui 230601,China;2.Hefei Yirui Communication Technology Co.,L时,Hefei,Anhui 230013,China)Abstract:A lightweight improved YOL

40、OX algorithm is proposed to address issues such as high computationcost,numerous network parameters,poor dense object detection effect,and unsuitability for deploying embeddeddevices in existing safety helmet wearing detection algorithms.Specifically,an improved version of BiFPN struc-ture is used i

41、n the Neck part instead of the original enhanced feature extraction structure.Additionally,ECA at-tention mechanism is added before detecting the head through comparative experiments.Lastly,a more compre-hensive CloU loss function is used to calculate the boundary box regression loss in the detectio

42、n head.Experi-mental results show that the improved YOLOX model has increasedmAP by0.91%,wi也theAP of workerswithout safety helmets increasing by 1.88%.The detection rate has also increased by 3.78 framespersecond,and model size has decreased by 22.11%.Keywords:deep learning;safety helmet wearing;YOLOX;BiFPN;attention mechanismClass No.TP39174DocumentMarkA(责任编辑:宋春莲)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服