收藏 分销(赏)

水下声呐图像轻量级目标检测模型_范新南.pdf

上传人:自信****多点 文档编号:460479 上传时间:2023-10-11 格式:PDF 页数:8 大小:3.20MB
下载 相关 举报
水下声呐图像轻量级目标检测模型_范新南.pdf_第1页
第1页 / 共8页
水下声呐图像轻量级目标检测模型_范新南.pdf_第2页
第2页 / 共8页
水下声呐图像轻量级目标检测模型_范新南.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、计算机与现代化JISUANJI YU XIANDAIHUA2023年第3期总第331期文章编号:1006-2475(2023)03-0016-07收稿日期:2022-03-30;修回日期:2022-04-26基金项目:中央高校基本科研业务费项目(B220202020,B220203032)作者简介:范新南(1965),男,江苏宜兴人,教授,博士生导师,博士,研究方向:信息获取与处理,机器视觉,E-mail:;通信作者:史朋飞(1985),男,山东青岛人,副教授,硕士生导师,博士,研究方向:水下探测与成像,信息获取与处理,多源信息融合理论,E-mail:。0引言目前水下AUV搭载声呐进行探测成为

2、水下目标检测的主流方式。声呐是声波探测海洋的主要设备,其在低能见度条件下仍然可以稳定运行,具有远距离、高效率探测的特点。随着水下无人探测技术的发展,基于水下声呐图像的目标检测技术成为研究的热点。然而由于海底环境复杂且噪声干扰严重,传统的方法如光流法1、帧差法2和背景建模法3-4等直接应用到声呐图像目标检测时效果不理想。水下声呐图像轻量级目标检测模型范新南,陈馨洋,史朋飞,孙奂儒,鹿亮,周仲凯(河海大学物联网工程学院,江苏 常州 213022)摘要:水下AUV搭载声呐进行探测成为水下目标检测的主流方式,水下环境的复杂及声呐成像方式导致声呐图像分辨率较低,使用形态学目标检测等传统方法时检测精度与实

3、时性不高,深度学习如YOLO等算法直接用于水下声呐图像目标检测时仍然面临样本少、模型参数多等挑战,为此,本文提出一种声呐图像水下目标轻量化检测模型。针对低分辨率声呐图像数据特点以及水下AUV自动检测对实时性的要求,以YOLOv4模型为主要框架,进行模型裁剪、替换优化特征融合模块、目标预测框K均值聚类以及改进损失函数等,将构建的检测模型应用于声呐目标检测。所构建的声呐图像水下目标检测轻量化模型的 mAP 相对于 SSD、YOLOv3、YOLOv3-DFPIN、YOLOv4-tiny 分别提高了 0.0659、0.0214、.0402 和0.1701。在mAP相较于YOLOv4、CenterNet

4、、EfficientdetD0分别低0.0186、0.0093、0.0074的情况下,FPS分别相对于YOLOv4提升一倍多、相对于EfficientdetD0提升近5倍、相对于CenterNet提升近一倍。同时,本文提出的模型兼具高精度和实时性的优点。实验结果表明,本文提出的特征提取网络能够减小网络参数冗余,提高模型效率和检测速度,结合自适应空间特征融合模块增强了不同尺度之间特征的相互融合和重用,提高了低分辨率声呐图像目标检测的精度。关键词:目标检测;水下声呐图像;深度学习;YOLOv4;Kmeans+中图分类号:TP391文献标志码:ADOI:10.3969/j.issn.1006-247

5、5.2023.03.004Lightweight Object Detection Model for Underwater Sonar ImagesFAN Xin-nan,CHEN Xin-yang,SHI Peng-fei,SUN Huan-ru,LU Liang,ZHOU Zhong-kai(College of Internet of Things Engineering,Hohai University,Changzhou 213022,China)Abstract:With the development of unmanned underwater detection techn

6、ology,AUV with sonar detection has become the mainmethod of underwater object detection.However,due to the complexity of the underwater environment and the limitation of thesonar imaging mode,the sonar image resolution is low.Therefore,the traditional morphology based on object detection methodhas t

7、he problems of low detection accuracy and poor real-time performance.When deep learning algorithms such as YOLO are directly applied to underwater sonar image target detection,they still face challenges such as few underwater samples and manymodel parameters.This paper proposes a lightweight object

8、detection model for sonar image datasets.In view of the characteristics of low-resolution sonar image data and the real-time requirements of underwater AUV automatic detection,the YOLOv4model is used as the main framework to carry out model tailoring,replace the optimized feature fusion module,targe

9、t predictionK-means clustering and improve the loss function,etc.,and the constructed detection model is applied to sonar target detection.According to the experimental data,the mAP of the proposed model in this paper is 0.0659,0.0214,0.0402 and 0.1701 higherthan that of SSD,YOLOv3,YOLOV3-DFPIN and

10、YOLOV4-tiny respectively,Under the conditioms of the mAPs are only0.0186 lower than that of YOLOv4,only 0.0093 lower than CenterNet,only 0.0074 lower than EfficientdetD0,however,FPS ismore than twice as high as YOLOv4 and CenterNet,more than fifth as high as EfficientdetD0.At the same time,the propo

11、sedmodel in this paper has the advantages of both high precision and real time.The experimental results show that the proposed feature extraction network can greatly reduce the redundancy of network parameters and improve the model efficiency and detectionspeed.Combined with the adaptive spatial fea

12、ture fusion module,the mutual fusion and reuse of features in different scales areenhanced,and the accuracy of low resolution sonar image target detection is improved.Key words:object detection;underwater sonar image;deep learning;YOLOv4;Kmeans+2023年第3期近些年,基于深度学习的目标检测算法越来越受到研究者的青睐。现有的检测算法主要分为一阶段(One

13、-stage)和二阶段(Two-stage)算法5-7。Two-stage算法有区域建议的过程,而one-stage直接从图片中生成位置和类别,提高了目标检测的效率,但同时也损失了一些精度8。而YOLO9-12系列算法就是One-stage算法中的代表。YOLO算法步骤简单,且能在准确率较高的情况下快速进行目标检测与识别,而Dewi等人8提出的YOLOv4,刷新了YOLO系列算法的精度和速度。YOLOv4算法在原有YOLO目标检测框架的基础上,改进了特征提取网络,并引入了近些年卷积神经网络领域中一些优秀的模型优化方法,从数据处理、模型训练、激活函数、损失函数、特征增强等各个方面都有着不同程度的

14、优化13-17,在很多应用场景中针对目标检测都得到了较好的效果。本文针对传统YOLOv4算法,结合低分辨率声呐图像数据特点以及水下AUV自动检测对实时性的要求,进行以下4点的改进:1)对YOLOv4模型进行模型裁剪,通过混合评价来裁剪掉整体性能较差和内部差异性不明显的滤波器通道,压缩冗余参数。2)替换且优化YOLOv4特征融合模块,将原始的ASFF模块从3个特征层的融合增加到4个特征层,降低模型裁剪后造成的精度损失。3)优化预测框聚类算法,使用Kmeans+聚类算法,并以交并比得分作为评估的标准来对声呐数据集进行聚类分析。4)改进损失函数,采用聚焦损失修正正负样本类别不平衡问题。1声呐图像水下

15、目标轻量化检测模型目前水下目标检测受制于水下传输带宽的影响,无法将获取的数据实时传送。现有的做法是在前端水下机器人的嵌入式平台完成实时的目标检测,受嵌入式算力的限制,自动检测模型的规模只能轻量化设计。而 YOLOv4自带的 anchor参数主要是针对ImageNet和COCO这种大型公开数据集聚类得到18-19。原始YOLOv4模型对于声呐数据集来说存在大量冗余参数,不利于检测速度的提高。另外声呐图像的低分辨率特点要求模型能尽可能地获取多尺度特征信息,用来提升模型精度。为此,本文作出以下改进:1)通过对原始模型进行通道级别的模型裁剪和压缩,提高模型效率,减小参数冗余度,同时利用混合统计值评价参

16、数来对原始模型的滤波器进行参数对比,将作用小的滤波通道进行裁剪,然后对裁剪后的模型进行微调,修复模型损失的精度。2)为了更加充分地利用声呐图像高层特征的语义信息和底层特征的位置信息,本文选择 Liang 等人20提出的自适应空间特征融合模块ASFF替换原有的PANet模块,并将原先的3个尺度预测扩展到4个尺度,获取更多尺度的特征信息,提升模型精度。3)本文对声呐图像数据集进行Kmeans+维度聚类7,确定合适的anchor大小和数量,提高预测精度。为了降低正负样本不平衡给模型训练带来的负面影响,本文将交叉熵损失函数替换为基于聚焦损失函数的联合损失函数。1.1模型裁剪由于YOLOv4的深层网络存

17、在明显的冗余参数,因此对其现有的网络进行模型压缩。现有的模型压缩方法主要包括知识蒸馏21-23、模型裁剪24-26、模型量化和矢量分解等方法27-29。其中模型裁剪具有简单高效、应用性好和压缩比大等特点,是目前应用比较广泛的模型压缩方法。模型裁剪中最重要的一步是决定需要裁剪的滤波器,因此需要选择一个可靠且高效的滤波器评价算法来衡量滤波器。实验表明,单一的统计特性参数无法很好地完成对滤波器重要性的衡量。因此本文提出基于均值-方差的混合统计特征的滤波器裁剪方法。如图1所示,在预训练模型的第i层卷积网络中,用 xiRhi wi ci表示特征图,hi、wi、ci分别表示该特征图的高、宽和具有的通道数。

18、此外用于生成该层特征图的一组滤波器尺度为kikici-1ci,其中kiki是滤波器大小,ci-1是上一层中特征图的通道数。所以对经过滤波器 Wi计算和经过批归一化(Batch Normalization,BN)层以及中间激活层激活后映射得到的特征图Xi进行评价。首先计算特征图中每个通道的均值和方差,根据这2个统计参数,提出混合评价参数s:s=-1+(1)其中,趋近 0,对于均值较小的特征层包含的信息量较少,很难在前向传递中发挥作用。而方差 反映的是特征层的离散程度。对于离散程度高,方差大的特征通道,滤波器更加敏感,更有利于特征流的传递。当某个通道的特征映射足够弱时,s中的第一项可以有效地选择出

19、弱通道,此时 起主导作用。而当逐渐增大,的作用将逐渐减弱,直到特征映射不能通过整体均值来判断时,的作用将会逐渐超越项成为主导项,起到决定性作用。因此,本文裁剪策略是通过混合评价来裁剪掉整体性能较差和内部差异性不明显的滤波器通道。对特征图Xi的每个通道计算评价参数,可以得到一个关于特征图 Xi的评价向量:Si=|si(1)si(2)si(ci)(2)为更全面地评价每个通道的统计特性,将含有m张图片的测试子集输入到预训练模型中对第i层的特征层进行混合参数计算,可以得到一个mci的张量Sli。之后将平均向量右乘张量Sli得到m个样本的混合参数评价均值mean(Si)。对mean(Si)进行排序,并根

20、据压缩率确定裁剪阈范新南,等:水下声呐图像轻量级目标检测模型17计算机与现代化2023年第3期值裁剪掉排序靠后的滤波器通道。其中:Sli=S1i,S2i,Smi=|si1(1)si2(1)sim(1)si1(2)si2(2)sim(2)si1(ci)si2(ci)sim(ci)(3)mean(Si)=Sli|1 m1 m1 m(4)裁剪时需保证YOLOv4网络残差块中的跳跃连接通道数前后一致,因此很难直接对每个残差块的最后一个卷积层进行修剪。由于大部分参数位于最后2层,修剪中间层是更好的选择。修剪策略如图2所示。在确定特定层裁剪策略后,考虑对整个网络进行修剪。其中一种方法是对整个深层网络一次性

21、裁剪,再进行迭代训练,这种方法重构速度快但对模型的精度造成不可修复的损失。图2CSPDarknet中残差块的修剪策略本文为平衡模型的重构速度和性能,结合CSPDarknet的特殊结构,在每修剪完一层后对模型进行一个全数据量的小Epoch训练,对模型进行微调。最后层修剪完成后,再对模型进行多个Epoch的全数据量训练。1.2多层自适应空间特征融合由于裁剪压缩了模型,损失了原有模型精度,因此可以通过改进特征融合模块来保持原有计算量并且提高性能。YOLOv4使用的PANet网络基于自下向上的二次融合。PANet证明了双向融合路径的有效性,但这种方法过于简单且计算量少。为此,本文选择 Liu 等人15

22、提出的自适应空间特征融合模块ASFF来替换PANet,通过自适应方法学习各特征层之间的融合。相比PANet其具有以下3个优点:1)结构简单且推理开销小,检测速度高;2)使用差分方法搜索最优融合;3)主干模型不可知,适用于特征金字塔结构的单点检测器。上述方法通过在每个尺度上自适应地聚集各个层次的特征来对不同尺度的特征进行增强,且融合后的输出可用YOLOv4的同一head进行目标检测。为更好地检测出声呐图像中的小目标,本文将原始的ASFF模块从3个特征层的融合增加到4个特征层,使模型能够从浅层特征映射的细粒度信息中获取更多的位置信息。1.3Kmeans+预测框聚类原始YOLOv4使用Kmeans聚

23、类算法对数据集进行聚类。Kmeans 使用欧氏距离函数来计算聚类损失,会导致较大的anchor比小anchor结果偏差大。因此,本文使用Kmeans+聚类算法,并以交并比(Intersection OverUnion,IOU)得分作为评估的标准来对声呐数据集进行聚类分析,距离公式和交并比定义为:d(box,centroid)=1-IoU(box,centroid)(5)IoU=SoverlapSunion(6)其中,box为样本标签的目标框,centroid为聚类中心。1.4损失函数优化在进行目标检测时,一张输入图像可以生成大量的预测框,但其中只有少部分是包含目标物体的,这使得正负样本类别不平

24、衡,从而达不到期望优化方向。为降低影响,本文将原模型的交叉熵损失函数替换为基于聚焦损失函数的联合损失函数。聚焦损失(Focal Loss)30在原始交叉熵损失的基础上修改得到,交叉熵公式为:图1模型滤波器裁剪.第i层输入第i层卷积核第i层特征第i+1层卷积核第i+1层特征*原始模型模型剪枝模型微调112561283312812811128256裁剪50%256-dMishMishMish1125612833128641112864256-dMishMishMish182023年第3期范新南,等:水下声呐图像轻量级目标检测模型CE(p,y)=|-log(p),y=1-log(1-p),其他(7)

25、其中,p为预测样本属于1的概率,y表示样本类别。为方便使用pt来代替p,即:pt=p,y=11-p,其他(8)则标准交叉熵函数可简写为:CE(p,y)=CE(p)=-log(p)(9)在训练时正负样本的数量差异巨大,因此在使用交叉熵损失函数时一般给样本加上权重:CE(pt)=-tlog(pt)(10)其中,t为类别控制权重,较小的t可以降低负样本在总损失中占的权重。但是易分类样本和难分类样本的不平衡依然会影响模型的优化。聚焦损失为了解决这个问题,在式(10)的基础上加入了超参数,聚焦损失可表示为:FL(pt)=-t(1-pt)log(pt)(11)其中,(1-pt)为简单/困难样本调节因子,为

26、聚焦参数。引入调节因子使得易分类样本权重降低,模型分类的精度提高。从式(11)中可以看出:1)当一个样本被错误分类时,pt非常小,1-pt会趋近1,反之,1-pt趋近0,使得分类较好的样本权值被调低,2)当聚焦参数=0时,聚焦损失就是传统的交叉熵损失函数,能够平滑地调节易分类样本权值的比例。实验中发现 的值等于 2时模型的训练效果最好。直观地看,当参数的值一定时(如=2),同样的易分类样本,假设此时pt=0.9,聚焦损失要比标准的交叉熵损失降低100多倍,而当pt=0.968时,损失相对于标准交叉熵降低1000多倍。但是对于难分类的样本(即pt0.5时),损失最多降低4倍。t和的选择范围也很广

27、泛,一般而言增加时需要适当的降低t值。本文实验中,设置=2,t=0.25。在聚焦损失函数的基础上,可以列出如下的联合损失函数:Loss(object)=Lbbox+Lconf+Lcla(12)Lbbox=i=0K Kj=0MIobjij(2-wi hi)(xi-x?i)2+(yi-y?i)2+i=0K Kj=0MIobjij(2-wi hi)(wi-w?i)2+(hi-h?i)2(13)Lconf=-i=0KKj=0MIobjijC?ilog(Ci)+(1-C?i)log(1-Ci)-noobji=0KKj=0MIobjijC?ilog(Ci)+(1-C?i)log(1-Ci)(14)Lcla

28、=-i=0KKIobjijcclasses p?i(c)log(pi(c)+(1-p?i(c)log(1-pi(c)(15)其中,Lbbox为预测框的位置回归损失,Lconf为置信度损失,Icla为分类损失。模型将图像划分为共有KK个的中心网格,每个网格产生M个候选框,每个候选框经过网络会得到相应的预测框,最终形成KKM个预测框。回归损失乘以比例系数(2-wihi)用来加大对小预测框的损失。置信度损失函数分为 2 个部分:包含目标物体(obj)和不包含目标物体(noobj),其中noobj的损失项增加了权重系数noobj。分类损失函数采用聚焦损失,当第i个网格的第j个anchor box负责某

29、一真实目标时,这个anchor box所产生的预测框才会计算分类损失。2实验结果与分析2.1实验设置和评价指标本文实验平台配置如下:实验所用 CPU 为 IntelCore i5-10400F 主频 2.9 GHz。GPU 为 Nvidia GeForce RTX 3070,显存为 8 GB,对应的 GPU 驱动版本为Nvidia Driver 460.32.03和CUDA 11.2。本文的实验的操作系统为Ubuntu18.04,深度学习框架为PyTorch1.7.1并基于Python3.6编程实现。本文选取平均分类精度(mean Average Precision,mAP),每 秒 检 测

30、帧 数(Frames Per Second,FPS),精确度(Precision),召回率(Recall)和 F1 分数(F1 Score)等最常用指标进行目标检测算法效果的评价。相关指标定义为:P=TPTP+FP 100%(16)R=TPTP+FN 100%(17)F1=21P+1R=2PRP+R(18)其中,P 表示 Precision,R 表示 Recall,F1与 P 和 R 有关。TP(True Positive)表示检测出的目标数中被正确分类的目标数量,FP(False Positive)表示将背景当成目标检测出来的错误的目标个数,FN(False Negative)表示测试集中没

31、有检测出来的目标数量。P衡量的是一个分类器正确分类出来正类的概率。R衡量的是一个分类器能把所有的正类都找出来的能力。另外采用mAP对精度进行评价。mAP=i=1CPiC(19)AP=r=01(rn+1-rn)Pinterp(rn+1)(20)Pinterp(rn+1)=maxr?:r?rn+1P(r?)(21)其中,P(r?)表示在P-R曲线图中召回率为r?时精确度的值。r?取值为rn+1,右侧最大精确度的点C为数据集类别的数量。2.2实验过程和结果分析本文利用水下声呐图像数据集USD(UnderwaterSonar Dataset)对所提出模型进行训练。该数据集共分为10个类别:person

32、、kenai fish、geese、shark、alligator、propeller、pipe、umbrella、ammunition box 和 shipwreck。水下声呐数据集示例如图3所示。原始数据集共有1500张声呐图像,对1500张图片中的显著目标进行了标注,并生成VOC格式的数据集。并对原始数据集使用数据增广(随机旋转、裁剪、镜像、平移、高斯模糊和改变亮度)的方式进行数据集扩充,以提升小样本条件下模型的训练效果,避免训练数据过少导致模型过拟合或者欠拟合。最终获得了7454张水下声呐图片。训练集、测试集、验证集按照7:2:1比19计算机与现代化2023年第3期例随机分配。其他对比

33、模型使用相同数据增强方法并开启学习率余弦退火衰减,训练至损失收敛。模型输入图片大小为416416,batch size为16,最大学习率为0.001,最小值为0,初始学习率为0.0001,预训练epoch设置为100,并开启Mosaic数据增强31和学习率余弦退火衰减。Mosaic数据增强是一种数据增强方式,属于Cutmix的扩展32。Cutmix是2张图像的混合,而Mosaic是4张图像的混合,一张图含有4张图的背景信息,相当于变相增加了训练过程中batch的数量,也可以相应减少训练过程中的batch,降低了对硬件的要求33-34。图3水下声呐数据集示例首先,为了验证本文提出的模型裁剪算法的

34、有效性,排除其他因素的影响,本文以原始YOLOv4模型进行预训练作为Baseline,在此基础上分别将裁剪阈值设置为25%、50%和75%,分别对网络进行逐层裁剪,每次裁剪完后会进行 2个 epoch 的精度恢复,直到修剪完最后一层后再进行100个epoch的微调。表1展示了不同压缩阈值下模型的mAP、检测速度和参数量的对比。从表1可以看出模型的压缩率越高,参数量越低,模型的推理速度就越快。通常情况下即使修剪掉弱影响通道也会一定程度上降低模型的精度,但是本文的模型裁剪算法在经过100个epoch微调后与官方的轻量级网络YOLOv4-tiny相比并没有损失太多的精度。以 Pruned-75为例,

35、和 Baseline相比仅损失了 5.03%的 mAP,但检测速度却提升了一倍多。表1模型裁剪实验ModelBaselineYOLOv4-tinyPruned-25Pruned-50Pruned-75mAP0.95140.76270.94010.91120.9011Speed/fps4112081100115Parameter/MB64.05.942.124.811.6以Pruned-75为标准重新剪枝和模型微调,然后将修剪后模型与 YOLOv4 和 YOLOv4-tiny 在同一声呐图像数据集、训练参数和步骤相同的情况下进行对比。如图4所示,3种目标检测模型训练最终都实现收敛,本文模型在数据

36、集上的训练loss收敛时要低于 YOLOv4-tiny,而 最 终 的 mAP 要 明 显 高 于 YOLOv4-tiny。这说明本文比YOLOv4-tiny在声呐图像数据集上提取目标特征的能力强。虽然本文模型在mAP上略低于YOLOv4,但是参数量远小于YOLOv4。总体看来本文提出的目标检测模型具有高效的特征提取和融合结构,以及较好的检测效率和泛化能力。由图 5结果分析,本文提出的目标检测模型能够在声呐图像中准确的定位目标位置且能够达到较高的分类精度。表 2 展示的是本文模型的各项分类性能,在置信度阈值设置为0.5时本文模型在各类别上的 F1、Recall 和 Precision 数据在各

37、方面都取得了不错的结果。0102030405060708090100Epoch本文模型0102030405060708090100EpochYOLOv40102030405060708090100EpochYOLOv4-tinyVal lossVal lossVal loss543210432105.54.53.52.51.50.5-0.5(a)Total loss与epoch的关系曲线mAP=93.28%mAP=95.14%mAP=76.27%0.0 0.2 0.40.60.81.0AveragePrecision本文模型0.0 0.2 0.40.60.81.0AveragePrecisio

38、nYOLOv40.0 0.2 0.40.60.81.0AveragePrecisionYOLOv4-tinyumbrellashipwreckpropelleralligatorammunitionboxsharkpipepersonkenaifishgeesesharkpropellerammunitionboxalligatorshipwreckumbrellapersongeesekenaifishpipeumbrellashipwreckalligatorpropellerammunitionboxpipesharkgeesekenaifishperson1.01.01.01.000.

39、990.960.900.850.830.791.001.000.990.970.900.700.640.490.470.461.01.01.01.000.990.950.900.900.890.89(c)训练后模型的mAP指标图4本文模型与YOLOv4、YOLOv4-tiny在Total loss、Val loss、mAP指标上的比较(b)Val loss与epoch的关系曲线Total lossTotal lossTotal loss0102030405060708090100Epoch本文模型0102030405060708090100EpochYOLOv40102030405060708

40、090100EpochYOLOv4-tiny108642064206420202023年第3期图5检测结果可视化分析表2 置信度阈值为0.5时本文模型各类别的F1、Recall和Precision实验结果类别alligatorammunitionboxgeesekenaifishpersonpipepropellersharkshipwreckumbrellaF10.970.980.750.760.780.800.990.901.000.99Recall/%10098.8069.4469.0574.7180.5610088.78100100Precision/%94.6296.4780.658

41、5.2981.2579.4598.7791.5810097.50为了进一步验证本文提出的模型在构建的声呐数据集上的有效性,将其与近几年比较流行的一阶段目标检测模型 SSD35、YOLOv3、YOLOv3-DPFIN36、YOLOv4、YOLOv4-tiny、CenterNet、EfficientdetD037进行比较,结果如表3所示,比较内容包括mAP、FPS和参数量。从表 3 可以看出本文模型的 mAP 相对于SSD、YOLOv3、YOLOv3-DFPIN、YOLOv4-tiny 分别提高了00659,0.0214,0.0402和0.1701并且仅低于YOLOv4 0.0186,低于 Cen

42、terNet 0.0093,低于 EfficientdetD0 0.0074,但其 FPS 相对于 YOLOv4却得到了一倍多的提升,相较于CenterNet也得到近一倍的提升,相较于EfficientdetD0提升近5倍;同时,本文模型的参数量约为CenterNet的1/9。相较于YOLOv4-tiny的舍弃精度而获得的实时性,本文模型兼具了高精度和实时性的优点。为ASFF自适应权重特征融合模块相对于PANet采用了更简单的双向特征模块融合,提高了特征融合模块的有效性。表3主流目标检测模型在声呐数据集上的性能评估方法SSDYOLOv3YOLOv3-DPFINYOLOv4YOLOv4-tiny

43、本文方法CenterNetEfficientdetD0主干网络ResNet50DarkNet53Darknet66-dpnCSPDarknet53CSPDarknet-tinyProposed backboneResNet50Efficient-B0mAP0.86690.91140.89260.95140.76270.93280.94210.9394FPS372866411301158125参数量63.310661.51068.310664.01065.910611.2106124.6110638.7106另外,本文以75%压缩率原始模型作为Baseline,设计了模块消融实验。表4展示了各模

44、块对于mAP的提升,以及ASFF、Kmean+算法所得到的anchor以及Focal loss对本文模型检测精度的影响。在同一特征提取网络进行目标特征提取的基础上,各模块对于本文模型mAP的提高分别为0.0149,0.006和0.0108。表4模块消融实验方法BaselineBaseline+ASFFBaseline+ASFF+Kmeans+聚类Baseline+ASFF+Kmeans+聚类+Focal lossmAP0.90110.91600.92200.9328这一结果表明本文的几个改进方法对于模型精度有不同程度的提升,其中ASFF自适应特征融合模块对特征融合的学习极大地提升了模型性能。图

45、6展示了本文模型在数据集上对各类目标的检测和识别结果。从图中可以看出本文模型能够精确地检测和识别出数据集中的各类目标,并且能够适应不同的背景,表明本文模型兼具准确性和鲁棒性。范新南,等:水下声呐图像轻量级目标检测模型21计算机与现代化2023年第3期图6本文模型在数据集上的检测结果3结束语本文提出的声呐图像水下目标轻量化检测模型,在YOLOv4目标检测模型的基础上,对原有网络进行模型裁剪,并将YOLOv4模型上的简单双向特征融合模块替换为能够自适应学习权重的空间特征融合模块,提出了针对小样本和低分辨率声呐图像数据集的轻量化目标检测模型。实验结果表明,本文提出的特征提取网络能够大大减小模型参数的

46、冗余度,提高模型的效率,同时结合自适应空间特征融合模块,增强了不同尺度之间特征的相互融合和重用,进一步提高了模型的检测精度和处理速度。实验表明,在声呐图像数据集上,本文提出的模型能够有效地收敛且具有良好的鲁棒性和泛化性,与YOLOv4相比在平均精度只降低 0.0186 的情况下,检测速度提升一倍多,与CenterNet相比在平均精度只降低 0.0093的情况下,检测速度提升近一倍,与EfficientdetD0相比在平均精度只降低0.0074的情况下,检测速度提升近5倍;而与同为轻量模型的YOLOv4-tiny相比,平均精度提升了0.1701。这表明本文模型能够充分利用网络模型的参数,在保持检

47、测精度的条件下,降低模型参数的冗余。参考文献:1 CHOI Y W,CHUNG Y S,LEE S I,et al.Rear object detection method based on optical flow and vehicle information for moving vehicle C/2017 9th International Conference on Ubiquitous and Future Networks(ICUFN).2017:203-205.2 KANG Y K,HUANG W C,ZHENG S.An improved framedifference m

48、ethod for moving target detectionC/2017Chinese Automation Congress(CAC).2017:1537-1541.3PRABOWO M R,HUDAYANI N,PURWIYANTI S,etal.A moving objects detection in underwater video usingsubtraction of the background modelC/2017 International Conference on Electrical Engineering,Computer Science and Infor

49、matics(EECSI).2017:1-4.4 REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposalnetworksJ.IEEE Transactions on Pattern Analysis andMachine Intelligence,2015(28):1137-1149.5 LIN T Y,DOLLAR P,GIRSHICK R,et al.Feature pyramid networks for object detection C/

50、Proceedings of 2017IEEE Conference on Computer Vision and Pattern Recognition(CVPR).2017:936-944.6 WU S,XU Y,ZHAO D N.Survey of target detection basedon deep convolution network J.Pattern recognition and artificial intelligence,2018,31(4):335-346.7 XU Y J,QU W Y,LI Z Y,et al.Efficient k-Means+approx

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服