收藏 分销(赏)

针对CenterNet缺点的安全帽检测算法改进.pdf

上传人:自信****多点 文档编号:608149 上传时间:2024-01-12 格式:PDF 页数:9 大小:1.81MB
下载 相关 举报
针对CenterNet缺点的安全帽检测算法改进.pdf_第1页
第1页 / 共9页
针对CenterNet缺点的安全帽检测算法改进.pdf_第2页
第2页 / 共9页
针对CenterNet缺点的安全帽检测算法改进.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 50 卷 第 8 期2 0 2 3 年 8 月Vol.50,No.8Aug.2 0 2 3湖 南 大 学 学 报(自 然 科 学 版)Journal of Hunan University(Natural Sciences)针对CenterNet缺点的安全帽检测算法改进王海瑞,赵江河,吴蕾,谢思远(昆明理工大学 信息工程与自动化学院,云南 昆明 650504)摘 要:为解决安全帽数据集上识别率较低的问题,本文提出了一种基于改进CenterNet网络结构的检测方法.针对CenterNet多分类时热度图预测结果较差的问题,本文尝试在损失函数上进行改进,提出了Focal-Mse-One损失以及F

2、ocal-Mse-Guss损失,并且对这两个损失函数以及原始的Focal损失函数进行对比;针对CenterNet对推理过程中特征图复用性不高的问题提出了ASFF和DASFF结构并进行比较.实验结果表明,在GeForce GTX 1050显卡上推理速度可以达到20.78帧.在安全帽数据集上IOU为0.5时mAP值可达81.43%,相较于原始CenterNet提升了3.63%.文中提出的改进方法可以在没有明显增加推理时间的前提下明显提高安全帽的检测精度.关键词:安全帽检测;Focal-Mse-One loss;Focal-Mse-Guss loss;特征融合;目标检测中图分类号:TP391.4 文

3、献标志码:A Improvement of Helmet Detection Algorithm Aming at CenterNet ShortcomingsWANG Hairui,ZHAO Jianghe,WU Lei,XIE Siyuan(Faculty of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650504,China)Abstract:To solve the problem of low recognition rates on hel

4、met dataset,this paper proposes a detection method based on an improved CenterNet network structure.To tackle the problem of poor prediction results in the multi-class classification of CenterNet,this paper attempts to improve the loss function.Therefore,Focal-Mse-One loss and Focal-Mse-Guss loss ar

5、e proposed and compared with the original Focal loss;Aiming at the problem of low reusability of feature map in the reasoning process of CenterNet,ASFF and DASFF structures are proposed and compared.The experimental results show that the reasoning speed can reach 20.78 frames on GeForce GTX 1050 gra

6、phics card.When the IOU is 0.5,the mAP can reach 81.43%on the helmet dataset,which is 3.63%higher than the original CenterNet s mAP.The improved method proposed in this paper can significantly improve the detec tion accuracy of safety helmet without a significant increase in reasoning time.Key words

7、:helmet detection;Focal-Mse-One loss;Focal-Mse-Guss loss;feature fusion;object detection 收稿日期:2022-09-06基金项目:国家自然科学基金资助项目(61863016),National Natural Science Foundation of China(61863016)作者简介:王海瑞(1969),男,山西晋中人,昆明理工大学教授,博士,硕士生导师 通信联系人,E-mail:文章编号:1674-2974(2023)08-0125-09DOI:10.16339/ki.hdxbzkb.202327

8、7湖南大学学报(自然科学版)2023 年在安全生产中,是否佩戴安全帽事关生产能否安全进行.在工业3.0智能化时代,安全帽的佩戴检测成为施工场所智能化监控的一大重要挑战.在实际应用中,由于光照条件、遮挡物、目标数量多而尺寸小以及背景杂乱等,安全帽的识别检测准确率并不高.为提高检测的准确率,国内外研究者进行了多方面的研究和改进.传统的安全帽检测采用的是Haar特征以及线条纹理等浅层特征.赵震1通过训练Haar特征来进行人体安全帽的检测.刘晓慧等2采用肤色检测确定人脸以上的区域并将获得的Hu矩作为特征向量进行二分类从而判断是否佩戴安全帽.对于使用深度学习的安全帽检测的研究改进,大多数研究者都是使用基

9、于锚框的YOLO、SSD或者Faster-RCNN 等进行改进.改进的方向主要集中于融合环境特征3、增加特征图保留信息4、修改主干网络5、单尺度修改为多尺度检测6、引入 Transformer注意力模块7、特征图融合8-9、采用多元数据集10、修改损失函数11-12、多路径聚合13、分区灰度投影14、提升细粒度特征利用率15以及使用轻量化模块16等等.以上都是针对基于锚框的深度学习框架进行的改进,要想在这些框架上有较好的检测效果,就必须使用 k-means等算法在特定数据集上对锚框的尺寸进行聚类.然而一旦被检测物体的长宽比发生显著变化,基于锚框的网络结构的效果就会变差.因此目前研究基于无锚框的

10、目标检测网络框架成了研究者的主流,CenterNet就是其中之一.主要有对主干网络进行改进来解决梯度消失的问题17、增大感受野获取更多信息18、使用金字塔结构进行特征复用19以及使用嵌入式向量来提取更深层次的特征20.此外还有使用特征融合21以及联合注意力22来提升 CenterNet的推理准确性.综上,无论是对基于锚框的 YOLO系列还是对基于无锚框的CenterNet系列,大致的研究内容都是基于多尺寸特征图、注意力机制以及定位的损失函数展开的,很少有研究对类别推理损失函数以及特征图的复用进行优化.因此本文尝试对CenterNet的类别推理以及特征图的复用进行优化.1 改进CenterNet

11、的安全帽检测方法CenterNet是一种无锚边框的一阶段的目标检测网络结构,它主要是通过热度图确定该点所表示的类别,并且通过该点以及在该点回归的偏移位置和长宽来确定目标的位置和大小.相较于大多数一阶段的目标检测网络结构来说,它的准确性较高而且速度相对较快.但是 CenterNet有两个缺点:类别推理的热度图拟合性较差;特征图没有复用.1.1 类别预测损失函数CenterNet的类别推理是由热度图中每个点值的大小判断的.推理得到的热度图每一个点值都介于0到 1 之间.类别推理的过程是通过筛选 128128C(其中C表示最后一维的大小,同时C也是类别的个数)的最后一个维度最大值来得到 128128

12、1的特征图.最后再按照得到的特征图的值的大小进行有效的筛选,来确定目标的类别以及中心点.其类别推理过程如图1所示.CenterNet热度图的损失使用的是针对高斯热度图的Focal loss,它在大量负样本干扰的情况下也可以有效进行学习,其损失函数如式(1)所示:Lfocal=-1Nxyc (1-Yxyc)ln(Yxyc),if Yxyc=1(1-Yxyc)(Yxyc)ln(1-Yxyc),otherwise(1)式中:N=WHC表示的是点的个数;W、H和C分别代表特征图的长、宽和维度,维度即类别数C;Yxyc表示在坐标(x,y,c)处是否存在类别为C的目标;Yxyc表示在坐标(x,y,c)的预

13、测值;、分别取2、2.但是当目标较小时,其计算出的高斯图波峰的点值偏小,仅有0.7左右,与target产生的峰值为1的高斯图相比相差较远.如图2所示为某一张图predict和target的热度图(俯视图)点值对比.图2中target的波峰值为1.0,predict的为0.733.由图 2 可知,对于原始的 CenterNet,使用 Focal loss训练后的推导结果的热度图的值并没有趋近于图1 类别推理过程Fig.1 Category reasoning process126第 8 期王海瑞等:针对CenterNet缺点的安全帽检测算法改进target的值.Mse损失函数是通过降低相同位置的

14、像素值的方差来进行优化的.因此本文尝试使用predict和target对应的每个点的均方误差(Mse)来优化Focal loss,在原始Focal loss的基础上增加每个像素点的均方误差优化.在增加均方误差之后可以更好地拟合target和predict中的高斯热度图.1.1.1 Mse损失函数Mse 损失函数采用的是 predict 和 target 每个点之间的均方误差进行的热度图的反向梯度优化,如式(2)所示:LMse=1Nxyc(Yxyc-Yxyc)2(2)式中:Yxyc表示在坐标(x,y,c)处的标注值;Yxyc表示在坐标(x,y,c)的预测值.公式(2)计算的是target和pre

15、dict的热度图中所有点的均方误差值.1.1.2 Focal-Mse-One损失函数由图1可知,虽然使用Focal loss可以有效地让模型学习到target的高斯热图的形状和大小,但是波峰以及坡面的值却和target的值有所偏差.偏差的结果(高斯图侧切面)如图3所示.为了能减少这两者的偏差,让predict曲面和target曲面更好地拟合,本文设计出Focal-Mse-One损失函数,它是在Focal loss的基础上添加了高斯图波峰(仅添加高斯图的最高点)的均方误差,使得其在优化过程中可以更好地推导出波峰的值,进而提升置信度,从而解决目标预测结果不好的问题.Focal-Mse-One损失函

16、数如式(3)所示:LFocal-Mse-One=Lfocal+LMse-One(3)其中LMse-One如式(4)所示:LMse-One=1Mxyc(Yxyc-Yxyc)2,0,other if Yxyc=1(4)式 中:M 表 示 热 度 图 中 所 有Yxyc=1的 个 数;Yxyc 0,1.1.1.3 Focal-Mse-Guss损失函数为了减少target和predict的偏差,让predict曲面和 target 曲面更好地拟合,本文设计出 Focal-Mse-Guss损失函数.它是在Focal loss的基础上添加了高斯图波峰以及坡面的均方误差,使得其在优化过程中可以更好地推导出波

17、峰以及坡面的值.应用坡面的均方误差可以变相增加样本的个数(主要是参与Mse 损失函数的像素点的数量,相较于 Focal-loss-One增加了坡面的均方误差),从而可以更好地提升预测类别的置信度.Focal-Mse-Guss 损失函数如式(5)所示:LFocal-Mse-Guss=LFocal+LMse-Guss(5)其中LMse-Guss如式(6)所示.LMse-Guss=1Mxyc(Yxyc-Yxyc)20,other ,if Yxyc 0 (6)式 中:M 表 示 高 斯 图 中 所 有Yxyc 0的 个 数;Yxyc 0,1.相较于Focal-Mse-one损失函数,其增加了训练时样本

18、的数量(主要是参与Mse损失函数的像素点的数量,前者是高斯图中所有大于0的点参与到反向梯度优化中,后者仅仅是高斯图中的最高点参与到反向梯度优化中).1.2 特征融合正如引言部分的分析,CenterNet对于特征图的复用并不高,因此本文尝试采用ASFF自适应模块对主干网络提取到的特征进行融合,形成ASFF结构.在此基础上,将解码阶段的三个大小的特征图也进行融合,形成DASFF结构.ASFF模块如图4所示.ASFF结构可以对解码阶段的三个尺寸的特征图进行自适应的融合,是对位置信息的自适应融合.(a)Target (b)Predict图2 Predict和target的热度图对比Fig.2 Comp

19、arison of heat map between predict and target图3 Predict和target的波峰的偏差Fig.3 Deviation of wave crest between predict and target127湖南大学学报(自然科学版)2023 年DASFF结构是对特征提取以及解码阶段的三个尺寸的特征图进行自适应融合后进行加权操作,是在ASFF结构基础上增加了语义信息的融合.本文中 ASFF模块首先通过 11的卷积分别对三个不同大小的特征图进行计算.然后将最小的特征图(3232C1)和次小的特征图(6464C2)分别上采样生成最大的特征图(12812

20、8C3).随后将这三个特征图进行11 的卷积计算最后得到128128C4大小的特征图,可以用式(7)表示:Ffinal=Fsmall+Fmedium+Flarge(7)式中:Ffinal表示最终的输出特征图;Fsmall表示最小的特征图;Fmedium表示中等的特征图;Flarge表示最大的特征图;、表示权重,即ASFF模块中的11卷积核,经过样本训练之后,、三个卷积核即可学习出三种尺寸的特征图的重要关系.1.2.1 特征融合ASFF结构当图像的信息经过下采样和上采样之后,虽然有丰富的语义信息,但是图像输入前所包含的大量位置信息丢失.因此本文尝试在提取特征图的主干网络部分对三个大小的特征图(1

21、28128256、6464512、32321024)进行自适应特征融合ASFF,融合之后和解码阶段输出的特征图(12812864)进行操作,将下采样过程中产生的具有相对丰富的位置信息进行融合.特征融合ASFF结构如图5所示.1.2.2 特征融合DASFF结构针对 CenterNet 在上采样的过程中没有对采样前的特征图进行复用,因此设计出自适应ASFF模块2对上采样过程的三个大小的特征图(12812864、6464128、3232256)进行特征融合,融合之后的特征图与自适应ASFF模块1产生的特征图进行操作.模块1融合了位置信息,模块2融合了语义信息,使得最终预测的结果得到提升.其结构如图6

22、所示,是在ASFF结构的基础上增加了一个对语义信息的自适应融合模块.2 实 验2.1 数据集实验中使用的数据集是从网上收集的安全帽的数据集.它包括佩戴安全帽(hat)和没有佩戴安全帽(person)两个类别.共包含图片7 581张,其中图片中目标为“佩戴安全帽”的共有8 437个,图片中目标为“没有佩戴安全帽”的共106 757个.不同类别数量相差较大.数据集中训练集 6 140张图片,验证集 682张,测试集759张.安全帽数据集如图7所示.2.2 实验环境本实验采用Windows 10操作系统,使用PyTorch深度学习框架,使用Python 3.8作为代码解释器.实验环境配置如表1所示.

23、2.3 实验细节本实验所有网络模型都训练100次,并且前5次对主干网络进行冻结操作,不进行反向梯度训练;后95次则对网络的所有部分进行训练.详细的实验细图4 ASFF模块Fig.4 Block of ASFF图5 特征融合ASFF结构Fig.5 Feature fusion ASFF structure图6 特征融合DASFF结构Fig.6 Feature fusion DASFF structure128第 8 期王海瑞等:针对CenterNet缺点的安全帽检测算法改进节如表1所示.2.3.1 损失函数实验细节对网络类别预测的热度图部分进行损失函数的对比实验.首先分别使用Focal loss

24、、Mse loss、Focal-Mse-One loss以及Focal-Mse-Guss loss进行训练,然后比较通过4个损失函数训练后4个模型预测的热度图以及对比使用测试集数据计算的 4 个模型的MAE值.评判标准的MAE公式如式(8)所示.MAE=1Mi=1Mixyc|Yixyc-Yixyc0,other,if Yixyc 0(8)式中:M表示测试集中图片的个数;Yixyc表示第i张图片中热度图坐标为(x,y,c)的点.最后分别比较这4个模型的mAP值.2.3.2 特征融合实验细节特征融合是在选择最好的损失函数的基础上分别修改模型为 ASFF 结构以及 DASFF 结构.然后比较两个模型

25、的 mAP 值,最后判断两个模型哪个更准确.评价标准 mAP(mean Average Precision)表示各类AP的均值.AP表示的是P-R曲线、x轴和y轴所围成的近似面积.P-R曲线是由Precision和Recall组成的曲线.其中精度Precision的计算如式(9)所示,召回率Recall的计算如式(10)所示.Precision=TPTP+FP(9)Recall=TPTP+FN(10)式中:TP(True Positives)表示推导结果是正样本而且实际是正样本;FP(False Positives)表示推导结果为正样本但实际为负样本;FN(False Negative)表示推

26、导结果为负样本但实际为正样本.正样本表示计算的类型为该类且计算的边框与真实框的交并比大于某个阈值,AP0.5时,该阈值为0.5.2.4 实验结果与分析2.4.1 损失函数实验结果与分析在损失函数的实验中,修改的只是模型的类别预测部分,因此仅对比分类损失.图8和图9分别为修改后4个模型的100轮损失对比以及最后5次的损失对比.图7 安全帽数据集Fig.7 Helmet dataset表1 实验环境及配置Tab.1 Experimental environment and configuration实验环境操作系统CPUGPU内存硬盘代码解释器代码编写工具深度学习框架显卡驱动学习率图像输入大小训练

27、轮数batch_size优化函数实验配置Windows 10,64位AMD Ryzen 5 4600 HNVIDIA GeForce GTX 105016G,DDR4SAMSUNG,512G,SSDPython 3.8PyCharm 2020.2PyTorch 1.8.0CUDA 11.1.10.0001512 5121003Adam图8 100轮4个模型的分类损失Fig.8 Classification loss of four models in 100 epochs129湖南大学学报(自然科学版)2023 年随机一张图四个模型和target的高斯热度图比较如图10所示.其中(a)是图片的

28、原图.(b)是由图片生成的target.由于是两个类别,因此在(b)(f)所表示的高斯热图中仅展示佩戴安全帽的热图.(c)表示使用Focal loss优化后的模型预测;(d)表示使用Mse loss 优化后的模型预测;(e)表示使用 Focal-Mse-One loss 优化后的模型预测;(f)表示使用 Focal-Mse-Guss loss优化后的模型预测.从图 10 观察可知,经过 Focal-Mse-One 或者Focal-Mse-Guss优化后,其表示的高斯热图更明显,峰值更高.表2为四个模型在测试集上预测的高斯热图与 target的 MAE 值.MAE 的值越低,表示 target和

29、predict拟合的效果越好.接着对四个模型进行 mAP0.5的对比.对比结果如表3所示.由表3可知,使用Focal-Mse-Guss优化后,其精确率在四个模型中最高,并且mAP也是最高的.Mse因为有大量的负样本存在,导致其并不能学习到足够优秀的参数,因此 mAP仅有 16.98%.不论是使用 Focal-Mse-One loss 还是 Focal-Mse-Guss 优化,其 mAP 值都比原始的使用 Focal loss 优化的要高.由于Focal-Mse-Guss增加了样本的数量,因此其优化结果要好于Focal-Mse-One.2.4.2 特征融合实验结果与分析特征融合实验是基于Foca

30、l-Mse-Guss损失函数进行的.实验中首先加入特征融合ASFF模块1构建ASFF结构,然后在此基础上加入 ASFF模块 2构建 (a)原图 (b)(c)(d)(e)(f)图10 高斯热图的比较Fig.10 Comparison of Gauss heat maps图9 后5轮4个模型的分类损失Fig.9 Classification loss of four models in last 5 epochs表2 高斯热图的MAE值Tab.2 MAE value of Gaussian heat map损失函数Focal loss(org)Mse lossFocal-Mse-One lossF

31、ocal-Mse-Guss lossMAE29.635 329.119 025.876 225.681 1表3 四个模型的mAPTab.3 The mAP of four models%损失函数FocalMseFocal-Mse-OneFocal-Mse-GussHatAP0.582.484.7284.0683.20Recall64.7028.4371.5765.25Precision97.319.7496.4898.34PersonAP0.573.0829.2475.0077.13Recall30.729.1555.4240.13Precision96.3183.3391.3896.24mA

32、P77.7816.9879.6380.17130第 8 期王海瑞等:针对CenterNet缺点的安全帽检测算法改进DASFF结构.100轮和最后5轮的损失函数如图11和图12所示.特征融合消融实验的mAP值如表4所示.由表4可知,使用Focal-Mse-Guss优化后,mAP可以提升 2.39%.当引入 ASFF 模块 1 后,提升仅有0.13%,原因是虽然融合了下采样层的位置信息,但由于上采样层的语义信息没有融合,仅仅使用了最后一层上采样层的语义信息,因此提升不大.继续融合ASFF模块2之后,mAP提升了1.11%,因为模块2将上采样层产生的三个特征图的语义信息进行了融合从而导致结果有所提升

33、.2.4.3 结果与结果对比下面对目标检测的常见算法进行mAP(准确度)和FPS(时间)上的对比.图 13 展示了 CenterNet、CenterNet-Focal-Mse-Guss和DASFF-CenterNet-Focal-Mse-Guss的结果对比.由图 13可知,当改用了 Focal-Mse-Guss 损失函数后,其预测的类别置信度有所提升,但依旧有些目标无法检测到,如图 13(b)的右图最右边没有检测到.当改进为DASFF结构后,这些目标被检测到了,如图13(c)的右图最右边的目标被模型检测到.本文改进的算法与复现的Faster-RCNN23、YOLOv324、YOLOv5 lar

34、ge、RetinaNet25、RefineDet26、FAENet27、CornerNet28、RPDet29、YOLOv3+pixel feature statistics12、YOLOv4+CSP15、SSD+MobileNet16、CenterNet进行对比.除SSD+MobileNet外,所有的主干网络全部替换为 ResNet-50.在训练轮(a)CenterNet(b)CenterNet-Focal-Mes-Guss(c)DASFF-CenterNet-Focal-Mes-Guss图13 三种模型的结果对比Fig13 Comparison of the results of the

35、three models表4 特征融合消融实验Tab.4 Feature fusion ablation experiment序号1234Focal-Mse-GussASFF模块1ASFF模块2Hat AP0.5/%82.4883.2085.4385.12Person AP0.5/%73.0877.1375.1877.70mAP0.5/%77.7880.1780.3081.41图11 100轮4个模型的损失Fig.11 Loss of four models in 100 epochs图12 后5轮4个模型的损失Fig.12 Loss of four models in last 5 epoc

36、hs131湖南大学学报(自然科学版)2023 年数、批次、学习率等与改进的算法的训练参数保持一致的情况下,在安全帽数据集上进行训练并对比结果.对比的结果如表5所示.由于数据集中有大量的小目标数据,并且分布密集,因此mAP较低.由表 5 的数据可知,CenterNet、CenterNet-Mse、CenterNet-Focal-Mse-One、CenterNet-Focal-Mse-Guss四个模型的推理时间相同,FPS都是27.22帧每秒.说明修改损失函数并不会增加模型的推理时间,同时好的损失函数可以提高模型的准确性.3 结 论为提高安全帽佩戴检测的准确性,本文改进了CenterNet网络.针

37、对CenterNet多分类时热度图预测结果较差的问题,本文提出了 Focal-Mse-One 损失和Focal-Mse-Guss损失并进行对比;针对CenterNet对推理过程中特征图复用性不高的问题提出了ASFF和DASFF结构并进行比较.实验结果表明,最终修改的网络在GeForce GTX 1050显卡上推理速度可以达到20.78帧,mAP可达81.41%,相较于原始的CenterNet提升了3.63%.在安全帽的数据集上检测结果表明,修改后的CenterNet网络可以有效提升监测安全帽佩戴的准确性.参考文献1赵震基于OpenCV的人体安全帽检测的实现 J 电子测试,2017(14):24

38、-25ZHAO Z Implementation of human helmet detection based on OpenCV J Electronic Test,2017(14):24-25(in Chinese)2刘晓慧,叶西宁肤色检测和 Hu 矩在安全帽识别中的应用J 华东理工大学学报(自然科学版),2014,40(3):365-370LIU X H,YE X N Skin color detection and Hu moments in helmet recognition research J Journal of East China University of Scien

39、ce and Technology(Natural Science Edition),2014,40(3):365-370(in Chinese)3葛青青,张智杰,袁珑,等融合环境特征与改进YOLOv4的安全帽佩戴检测 J 中国图像图形学报,2021,26(12):2904-2917GE Q Q,ZHANG Z J,YUAN L,et al Safety helmet wearing detection method of fusing environmental features and improved YOLOv4J Journal of Image and Graphics,2021,

40、26(12):2904-2917(in Chinese)4金雨芳,吴祥,董辉,等基于改进YOLOv4的安全帽佩戴检测算法 J 计算机科学,2021,48(11):268-275JIN Y F,WU X,DONG H,et alImproved YOLOv4 algorithm for safety helmet wearing detection J Computer Science,2021,48(11):268-275(in Chinese)5赵红成,田秀霞,杨泽森,等YOLO-S:一种新型轻量的安全帽佩戴检测模型 J 华东师范大学学报(自然科学版),2021(5):134-145ZHAO

41、 H C,TIAN X X,YANG Z S,et al YOLO-S:a new lightweight helmet wearing detection modelJJournal of East China Normal University(Natural Science),2021(5):134-145(in Chinese)6吴冬梅,王慧,李佳基于改进Faster RCNN的安全帽检测及身份识别 J 信息技术与信息化,2020(1):17-20WU D M,WANG H,LI J Safety helmet detection and identification based on

42、 improved faster RCNNJ Information Technology and Informatization,2020(1):17-20(in Chinese)7张志远,罗铭毅,郭树欣,等基于改进YOLOv5的自然环境下樱 桃 果 实 识 别 方 法J 农 业 机 械 学 报,2022,53(S1):232-240ZHANG Z Y,LUO M Y,GUO S X,et alCherry fruit detection method in natural scene based on improved YOLOv5JTransactions of the Chinese

43、Society for Agricultural Machinery,2022,53(S1):232-240(in Chinese)8张岚,邢博闻,李彩,等采用改进SSD网络的海参目标检测算法 J 农业工程学报,2022,38(8):297-303ZHANG L,XING B W,LI C,et alAlgorithm for detecting sea cucumbers based on improved SSDJ Transactions of the Chinese Society of Agricultural Engineering,2022,38(8):297-303(in Ch

44、inese)9牛洪超,胡晓兵,罗耀俊基于M-YOLO的自动驾驶下目标识别算法 J 计算机工程与设计,2022,43(8):2213-2220表5 不同算法对比Tab.5 Comparison of different algorithms算法Faster-RCNNYOLOv3YOLOv5 largeFAENetRefineDetRetinaNetCornerNetRPDetYOLOv3+pixel feature statisticsYOLOv4+CSPSSD+MobileNetCenterNetCenterNet-MseCenterNet-Focal-Mse-OneCenterNet-Foc

45、al-Mse-GussASFF-CenterNet-Focal-Mse-GussDASFF-CenterNet-Focal-Mse-Guss参数量/MB108.21235.05192.2100.37122.54118.7163.24157.83244.7180.1512.46153.99153.99153.99153.99154.73155.64mAP0.5/%50.8470.0674.5172.1671.3272.577.2374.4778.6580.7574.2177.7816.9879.6380.1780.3081.41FPS/(帧 s-1)2.8015.8424.359.1110.23

46、11.5926.7623.4118.8418.4522.5327.2227.2227.2227.2223.4320.78132第 8 期王海瑞等:针对CenterNet缺点的安全帽检测算法改进NIU H C,HU X B,LUO Y J Target recognition algorithm in autonomous driving based on M-YOLO J Computer Engineering and Design,2022,43(8):2213-2220(in Chinese)10 梁勇,邱荣洲,李志鹏,等基于YOLOv5和多源数据集的水稻主要害虫识别方法 J 农业机械学

47、报,2022,53(7):250-258LIANG Y,QIU R Z,LI Z P,et alIdentification method of major rice pests based on YOLOv5 and multi-source datasetsJTransactions of the Chinese Society for Agricultural Machinery,2022,53(7):250-258(in Chinese)11 张宝星,莫一夫,潘岐深,等基于改进YOLO-ResNet混合神经网络的配网杆塔倾倒实时智能检测 J 南方电网技术,2022,16(8):133-

48、141ZHANG B X,MO Y F,PAN Q S,et al Instantaneous intelligence detection for the collapse of poles in distribution network based on improved YOLO-ResNet hybrid neural networkJ Southern Power System Technology,2022,16(8):133-141(in Chinese)12 HUANG L,FU Q B,HE M L,et alDetection algorithm of safety hel

49、met wearing based on deep learningJ Concurrency and Computation:Practice and Experience,2021,33(13):e6234.1-e6234.14.13 王文亮,李延祥,张一帆,等MPANet-YOLOv5:多路径聚合网络复杂海域目标检测 J 湖南大学学报(自然科学版),2022,49(10):69-76WANG W L,LI Y X,ZHANG Y F,et alMPANet-YOLOv5:multi-path aggregation network for complex sea object detec

50、tionJ Journal of Hunan University(Natural Sciences),2022,49(10):69-76(in Chinese)14 肖进胜,单姗姗,易本顺,等基于分区灰度投影稳像的运动目标检测算法 J 湖南大学学报(自然科学版),2013,40(6):96-102XIAO J S,SHAN S S,YI B S,et alMoving targets detection based on subzone gray projection video stabilization J Journal of Hunan University(Natural Scie

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服