收藏 分销(赏)

基于改进YOLOv5针对舰船识别的算法研究.pdf

上传人:自信****多点 文档编号:2266280 上传时间:2024-05-24 格式:PDF 页数:7 大小:2.96MB
下载 相关 举报
基于改进YOLOv5针对舰船识别的算法研究.pdf_第1页
第1页 / 共7页
基于改进YOLOv5针对舰船识别的算法研究.pdf_第2页
第2页 / 共7页
基于改进YOLOv5针对舰船识别的算法研究.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023 年第 8 期188智能技术信息技术与信息化基于改进 YOLOv5 针对舰船识别的算法研究刘树林1 周晓燕1 王玉林2LIU Shulin ZHOU Xiaoyan WANG Yulin 摘要 由于舰船在海面上距离岸边较远时,合成孔径雷达(synthetic aperture radar,SAR)所进行的图像会比较小,对船舰测量也较为困难,会产生漏检的情形。为了进一步提高测量准确度,提供了一个可以改进YOLOv5 识别 SAR 舰船图像的新测量方法。方案介绍了注意力机制模型和改进非极大值抑制模式,并使用了自己的目标数据集中进行了训练试验,在对船舰标记时,使原正矩形框变成了平行四边形,对

2、标记的精度更加准确。在进行了海面目标的集中训练后进行了测试,结论:与原 YOLOv5 模型比较,改进的 YOLOv5 模型的准确率、召回成功率、平均准确率分别增加了 2.3%、4.8%、2.5%,提升了船舶检测和识别的整体效果,证实了改进 YOLOv5 算法检测的可行性。关键词 YOLOv5;船舰检测;合成孔径雷达(SAR);注意力机制;深度学习doi:10.3969/j.issn.1672-9528.2023.08.0421.青岛理工大学 山东青岛 2661002.山东产业技术研究院 山东济南 2500110 引言舰船目标识别是海洋监测系统中的重要环节,在渔业管理、海洋救援、海洋交通管控、走

3、私船只检测、海冰检测、救助遇难的船只等民用和军用领域都有十分重要的意义。合成孔径雷达(synthetic aperture radar,SAR)1是一个通过微波反射信号成像的微波遥感图像系统,可以通过对主动发出的微波信号所辐射区域的散射回波来成像,不仅能够同时在白天和夜间工作,还能够透过云层,在阴雨天可以正常工作,因此具有全天时和全天候的特点,正因为这些优秀的特点,SAR 卫星被应用于了舰船目标识别领域。传统的 SAR 图像舰船识别方法需要经过预处理、特征提取和分类识别三个阶段,其中难点在于特征提取与特征选择,在特征提取的时候,不但费时费力,而且还需要运气和丰富的经验。在人工设计的特征的时候具

4、有局限性,不能充分表达图象中蕴涵的信息。但近年来,由于卫星设备的进步以及深入调查,大量实时图象已被用来检测海洋中的船舶以及其他目标。因此使用 SAR 图象对海洋目标进行的监测和鉴定,在海洋遥感领域已经取得了高度重视。目前,根据深度认知的目标分析方法,大致上应该分成两类:One-stage(一阶段)和 Two-stage(两阶段)2。Two-stage 检测过程的二个阶段主要可分成二个步骤:第一步主要是培训 RPN,而第二步则是确定目标对象在网络中的位置。而测试过程的第一阶段则只有一个步骤,并且在输入图像以后立即测试结果。但这二个实验阶段都经过了 RPN 训练,且测试速率较快,构造简便。因此Ro

5、ss B.提出的更快速 RCNN 模型于 2016 年,重新标记了二个实验阶段。通过利用 RPN 网络快速的进行帧分析,显著增强了目标性能检测。One-stage 检测以 YOLO 系统最为典型,而 YOLOv5 系统则由 Ultralytics3公司在 2021 年设计,YOLOv5 模型的目标检测模块能够利用自身学习能力获得更有效信息,因此相比于 YOLOv4,部署简单且性能更快。在本文中,我们可以通过真正的开源模型将构建成为船舰的资料集。为此,开展了一项试验,以准确的结果来评估检测系统在海面舰船中的效能。然后,本文通过在骨干网络的基卷积块中加入(convolutional block a

6、ttention module,CBAM)4注 意 力 机 制 模 块 来 改 进YOLOv5 网络,以增加图像的特征提取,并用 FReLU 激活函数代替基卷积块中的SiLU激活函数以增加语义特征提取。1 YOLOv5 算法原理1.1 YOLOv5 网络结构YOLOv5 是一种阶段的探测算法,其算法在 YOLOv35的基础上又增加了新的改进,使得其探测效率和准确性都获得了很大的提高。YOLOv5 包括了四种不同的版本,分别为YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 四种型号6。由于 YOLO 网络从 YOLOv1 开始就不断改进完善,在发布至 YOLOv5 后,在很多地方

7、均有使用并且取得了良好的成效。接下来,我将介绍 YOLOv5 的结构和测试方法,以YOLOv5s 模型为例,计算 s 模型的最小宽度和高度以及最小范围参数。YOLOv5s 的模型结构图如图 1 所示。2023 年第 8 期189智能技术信息技术与信息化图 1 YOLOv5s 网络结构以 上 为 YOLO5s 整 体 的 网 络 架 构,从 图 中 可 看 出YOLOv5 网络由四个部分组成:Input、Backbone、Neck 以及Predic-tion7。Backbone:主要具有提取功能的主干网络,网络的主干是从网络中的图像中提取信息。共享网络包 RESNET、VGG等,这些网络具有强大

8、的优势,可以解决对于一些图片的分类问题进行精确的提取。Neck:其作用是更好地融合主干网络给出的特征,使网络在运行时具有更好的性能,运行更加流畅。网络系统中的主要组件,包含聚焦模组、内池化模块、接口模组、卷积模组、及其跨层的网络组件、上采样模块。相同的模块有不同的输入通道数、输出通道数、卷积核大小、卷积步长。1.2 激活函数YOLOv5 是一个提供功能激活来解决不可分割线性问题的模型。用在神经网络层的输入和输出级别之间添加的功能,以增强表达和学习神经网络的能力。将 SiLU 替换为FReLU,这是一种专用于视觉任务的激活函数,并增加了空间条件来扩展 ReLU 和 PReLU,以增强激活空间的灵

9、敏度,并显着改善图像视觉。FReLU 提出的二维漏斗样激活函数,通过在维 ReLU 激活函数中加入漏斗条件 T(x),将二维漏斗样激活函数扩展到二维。只引入少量的计算和过拟合风险来激活网络中空间不敏感的信息,以改善视觉任务。FReLU 激活函数的计算公式和原理图分别为公式(1)和图 2 所示。max(,()yx T x=(1)图 2 FReLU 原理图式中:T(x)代表简单高效特征提取器。1.3 损失函数IoU,GIoU 与 CIoUIoU:在目标检测时,损失函数一般用交并比(Inter section over union,IoU)用 I 来表达,运算方法见下方程(2):DGIDG=(2)式

10、中:D(detection results)为检验结果;G(ground truth)的实验结果。由于常规的交并比不能体现二框间距的远近,所以提出了综合交并比 G(GIoU)8。G 公式如下:1gtCBBGIC=+(3)相 比 于 GIoU,目 标 检 测 模 型 采 用 常 C(complete intersection over union,CIoU),该模型更加精准,所考虑的更加周到,例如重叠面积、中心点距离等问题都能解决。具体如公式(4)(5)(6)所示:2/CId lv=(4)/(1)avIv=+(5)224(arctanarctan)gtgtddvhh=(6)式中:d 为预计框和实

11、际框中心线之间的最大欧式距离;l 为涵盖预计框和实际框中心的最小闭合框的正对角线边长;A为权重函数;v 为长宽比的相似性;gt为真实框;h 为框的实际高度。1.4 注意力机制(SE)模块压 缩 与 激 发 网 络(squeeze and excitation networks,SENet)9关注通道之间的关系,通过一系列操作得到一个11C 的权重矩阵,对原特征进行重构(不同颜色表示不同的数值,用来衡量通道的重要性)。其结构如图 3 所示。图 3 SENet 模块分析图图 3 展示了通道注意力机制的四个步骤,具体如下:第一步:Transformation(Ftr():给定一个 input 特征图

12、 X,让其经过 Ftr操作生成特征图 U,当前特征层 U 的特征图维度为 C,H,W。第二步:Squeeze(Fsq():对特征图的 H,W 维度进行平均池化或最大池化,池化过后的特征图大小从 C,H,W-C,1,1。C,1,1 可理解为对于每一个通道 C,都有一个数字和其一一对应。对 U 实现全局低维嵌入,相当于一个数值拥有该通道的全局感受野,如公式(7)所示:2023 年第 8 期190智能技术信息技术与信息化()111(,)HWsqccijFuu i jHW=(7)第三步:Excitation(Fex):这一步通过两层全连接层完成,通过权重 W 生成我们我所要的权重信息,其中 W 是通过

13、学习得到的,用来显示的建模我们我需要的特征相关性。如公式(8)所示:21(,)=(,)()exFz Wg z WWW z=(8)对 C,1,1 的特征可表现为,由各个通道本身所提取出特征的权重,权重大小说明了各个通道对特征提取的重要性,全局池化后的向量通过 MLP 网络后,其意义为得到了每个通道的权重。通过两个全连接层 W 1W 2 对上一步得到的向量 z 进行处理,得到我们想要的通道权重值 s,经过两层全连接层后,s 中不同的数值表示不同通道的权重信息,赋予通道不同的权重。第四步:Scale(Fscale):由算法流程图可以看出,第四步的操作是将第三步生成权重向量 s 对特征图 U 进行权重

14、赋值,得到我们想要的特征图X,其尺寸大小与特征图U完全一样,SE 模块不改变特征图的小大。如公式(9)所示:(,)scaleccccFu ss u=(9)上述步骤,得到了每个通道 C 的权重 C,1,1,将权重作用于特征图U C,H,W,即每个通道各自乘以各自的权重。可以理解为,当权重大时,该通道特征图的数值相应的增大,对最终输出的影响也会变大;当权重小时,该通道特征图的数值就会更小,对最终输出的影响也会变小。SE 模块是一个即插即用的模块,结构图如图 4 所示,是在一个卷积模块之后直接插入 SE 模块。注意:两层全连接层之间存在一个超参数 R,向量z(11C)经过第一层全连接层后维度由(11

15、C)变为(11C/r),再经过第二层全连接层为度由(11C/r)变为(11C)。2 改进的 YOLOv5 网络2.1 损失函数改为 SIoU有关 IoU 损失函数,如(GIoU,DIoU,CIoU)没有考虑到真实框与预测框框之间的方向,导致收敛速度较慢,对此SIoU10引入真实框和预测框之间的向量角度,重新定义相关损失函数,具体包含四个部分:(1)角度损失(Angle cost),如图 5 所示。图 5 角度损失图21 2 sin(arcsin()cos(2(arcsin()44hhcc=(10)式中:ch为真实框和预测框中心点的高度差,为真实框和预测框中心点的距离,事实上arcsin()/h

16、c等于角度。sin()hc=(11)22()()XXYYgtgtCCCCbbbb=+(12)max(,)min(,)YYYYgtgthCCCCCbbbb=(13)(bgtCx,bgtCy)为真实框中心坐标(bCx,bCy)为预测框中心坐标,可以注意到当 为/2 或为 0 时,角度损失为 0,在训练过程中/4,则最小化,否则最小化。距离损失(Distance cost),如图 6 所示。图 6 距离损失图,(1)2ptpxpyt x yeee=(14)2()XXgtCCxWbbpc=(15)2()yygtCCyhbbpc=(16)2=(17)(,)whcc为真实框和预测框最小外接矩形的宽和高。(

17、3)形状损失(Shape cost),定义如下:,(1)(1)(1)wtwtwht w heee=+(18)max(,)gthgthhWh h=max(,)gtWgtWWWW W=(19)(w,h)和(,)gtgtWh分别为预测框和真实框的宽和高,控制对形状损失的关注程度,为避免过于关注形状损失而降低对预测框的移动,使用遗传算法计算出 接近 4,因此定于 参数范围为 2,6。(4)IoU 损失IoUALB=(20)式中:A 表示的是图 7 中的交集 A,B 表示的是图 8 中的并集 B。图 4 SE 模块结构图 2023 年第 8 期191智能技术信息技术与信息化图 7 真实框与预测框交并图综

18、上所诉,最终 SIoU 损失函数定义如公式(21):12SIoULIoU+=+(21)2.2 注意力机制(CBAM)模块convolutional block attention module 简称 CBAM4,Sanghyun 等人在 2018 年提出的一个全新的卷积注意力模型,创新地提出了一种将时间注意力与空间注意力结合的新型注意力机制,对于前馈卷积的神经网络而言,是一个更简单且有效的新注意力模式。CBAM 首先分别确定了在道路轴与空间轴这二种主要维度之间的有意特性,并先后分别使用了channel attention module(通道注意模块),结构图则如图 8所给出。图 8 CBAM

19、注意力机制结构图假设输入特征公式为:C H WFR (22)利用 CBAM 依此推导出一维通道注意图:1 1CCMR 和二维空间注意图:。总的注意过程可以概括为:()CFMFF=(23)()SFMFF=(24)CAM 通道注意力机制的基本理念和 SENet 一致,只是具体操作方式和 SENet 不同。如图 9 所示,首先,通过对输入中的特性图形 F(HWC)依次经过基于 H 和 W 两个维度的全局最大值池化(MaxPool)和全局方差池化(AvgPool),而获得了两个 11C 的特性图形;然后,再把二个通道图送到一个共享连接权值的双层神经网络(MLP)中完成通道之间相互依赖机制的学习,在二个

20、神经层之间通过压缩比 r 进行降维。然后,再对 MLP 图像的特征进行基于 element-wise 的加和计算,最后再进行 sigmoid 激活运算,以得到最终的通道图整体风险值,将其公式如下:()()()CMFMLP AvgPool FMLP MaxPool F=+1010max()()ccavgW W FW W F=+(25)图 9 CAM 注意力机制结构图SAM 和 CAM 的区别在于,空间注意力是一个关注信息“位置”的单元。为计算空间注意力,沿通道轴可以使用平均池化方法和最大池化过程,并把它们联系到一起以形成合理的空间特征描述。通过二个池化操作聚合一个特征图的通道信号,从而生成二个

21、2Dmaps:Fsavg和 Fsmax,SAM注意力机制结构图如图 10 所示。每个通道表示平均池化和最大池化组合属性,然后使用标准的卷积层进行连接和卷积操作以获得二维空间注意力机制图:7*7()();()SMFfAvgPool FMaxPool F=7*7max(;)ssavgfFF=(26)式中:为 sigmoid 函数,7*7f为 7*7 大小的卷积核。图 10 SAM 注意力机制结构图3 改进的 NMSNMS 算法常用在目标检测算法中,而 Soft-NMS 算法11可以说是 NMS 算法的一种改进或者替代。思考可以应用于其他目标检测算法中,以提高检测精度。Soft-NMS 算法相比传统

22、的 NMS 提高了检测准确率,并且计算复杂度与传统NMS 算法相同。传统的 NMS 算法很简单,就是将不是极大值的框抑制掉,也就是删除为 0,只保留下置信度最大的那个框。用 Soft-NMS 代替传统的 NMS,算法伪代码如图 11。从图片描述可以看出,B 是检测出的框的集合,D 用来存放最终的结果框,S 是框的得分的集合,Nt是阈值,就是NMS算法里设置的阈值。然后开始代码,D 刚开始是空,若 B 不是空,则开始接下来的流程:图 11 NMS 和 Soft-NMS 运行流程原理图2023 年第 8 期192智能技术信息技术与信息化(1)从 S 中找到得分最大的框,用 m 下标来表示,则bm就

23、是当前所有框中,表示得分最大的一个框,用 M 表示,D 与 M 取交集,从 B 中去除 M。(2)从剩下的 B 中,开始循环,红色部分表示 NMS 算法,若最大框M和bi计算出的iou大于阈值,则按NMS原理,从 B 中删除当前 bi框,得分 S 中删除当前 Si 这个分值。绿色部分表示Soft-NMS算法,最大得分框M和当前框bi的iou值,用来当作函数 f(x)的输入,乘 bi所对应的得分,得到最终所需要的 Si。然后一直重复此过程,就返回最终的 D 和 S。传统的 NMS 公式如(27):,(,)0,(,)iititS iou M bNiiou M bNS=(27)很容易看出,就是 M

24、和 bi的 iou,如果大于阈值,则删除bi框,得分Si为0;反之,还是Si。Soft-NMS算法公式(28):(1,(,)(,),(,)iiitiiitiouS iou M bNSM biou M bNS0.5 的测试框数量;F代表满足预测框与标注框 0.5 的测试框数量;M 代表尚未测量到的标注框数量;A 代表经过插值运算的 PrecisioN-Recall 曲线面积;N 代表一共 N 个类。mAP0.5 代表在 IOU 阈为 0.5 时全部图像的平均值准确度,而 mAP0.5:0.95 则代表在不同 IOU阈时全部图像的平均值准确度的平均数(IOU 门槛从 0.5 到 0.95,步长为

25、0.05)。MAP0.5:0.95,代表了模式在各种 IOU 阈值下的整体综合性能,其值越多表示模型高精度边界的回归功能就越好,检测框和标定框的拟合就更准确。为进一步提高精准度,加了 SE 和 CBAM 注意力机制之后,重复进行实验。NMS 阈值设置为 0.45,迭代次数设置为 100。加入 SE、CBAM 和 Soft-NMS-CBAM 后精度-召回率的走势图见图 12 所示。YOLOv5YOLOv5-SE YOLOv5-CBAM YOLOv5-Soft-NMS-CBAM图 12 精度的走势图 2023 年第 8 期193智能技术信息技术与信息化由图可见:加入 SE 的网络,mAP 略有提升

26、,准确率也不会一直下降,说明加入SE之后在网络错检上效果较为突出。加入 CBAM 网络,mAP 有更明显的提升,但是不太稳定,于是又在 CBAM 基础上加了 Soft-NMS,不仅提升效果明显而且更为稳定。表 1 检测结果对比网络精度 P召回率 RmAP0.5YOLOv577.5%63.8%71.4%YOLOv5-SE77.7%67.3%73.4%YOLOv5-CBAM79.3%67.2%73.8%YOLOv5-Soft-NMS-CBAM79.8%68.6%73.9%在网络的预测部分添加坐标注意力机制,与原 YOLOv5模型比较,YOLOv5-Soft-NMS-CBAM 模型的准确率、召回成功

27、率、平均准确率分别增加了 2.3%、4.8%、2.5%,其余的模型相比较原始的 YOLOv5 也均有提升,但效果不如YOLOv5-Soft-NMS-CBAM 模型。4.4 试验环境及数据本次试验运行系统为 Windows 7,实验配置表如表 2 所示。表 2 实验配置表实验配置规格CPUIntel Core(TM)i7-5500RAM12 GB开发语言Python 3.8.10深度学习框架Pytorch 1.8.0IDEPycharm本 文 中 设 定 的 输 入 图 像 与 试 验 图 像 尺 寸 均 为640640,练习轮数设定为 100 轮,批处理设置为 16,并在正常条件下,使用 YO

28、LOv5、SE-YOLOv5、CBAM-YOLOv5 和改良后的 CBAM-Soft-NMS-YOLOv5 模式开展了舰船识别比较测试,以下 SAR 图片是在同一设备下识别结果,它们分别对应样例 1 中的(a)(b)(c)(d),实验结果如图 13 所显示。样例 1(a)样例 1(b)样例 1(c)样例 1(d)图 13 部分样例检测结果同样,用光学图片在同一设备下进行检测识别,YOLOv5、SE-YOLOv5、CBAM-YOLOv5 和 改 良 后 的CBAM-Soft-NMS-YOLOv5 对应样例 2 中的(a)(b)(c)(d),实验结果如图 14 所示。样例 2(a)样例 2(b)样

29、例 2(c)样例 2(d)图 14 光学图片检测结果CBAM-Soft-NMS-YOLOv5 模式的单张图像的识别率在这几种模式中是最高的,从样例 1 中可以发现,四种模式都能识别出图中的舰船,但是识别精度依次在提高。在样例 2 光学图片中,普通的 YOLOv5 样例 2(a)和 YOLOv5-SE 样例 2(b)在图中只识别出了 5 支舰船,但加有注意力机制 SE 的网络识别的结果比普通网络明显偏高,但是还是存在漏检的现象。在样例 2 的(c)(d)识别出 6 支舰船,且识别率明显比前两种偏高,所以在该实验中可以看出改进的YOLOv5 平均精度和识别率最高,适用于 SAR 卫星舰船识别和光学

30、卫星舰船识别。5 结语本文基于通用目标检测模型YOLOv5,通过对网络结构、锚框、损失函数等方面进行改进和优化,改进舰船检测方法。针对在海面上漏检的问题,进行了添加注意力机制的实验,并且验证了改进的模型 CBAM-Soft-NMS-YOLOv5 的精准度和可行性,达到了我想要的结果。但由于我的电脑配置偏低,有一部分参数并没有修改,我初步猜想修改代码中的部分参数是的检测结果还会更高,例如将 epoch 改为 300或者 400,批处理大小和动量设置也可以修改,我这里采用的都是偏小值。实验结果表明:改进后的模型与 YOLOv5模型相比平均精度高达 79.8%,在准确率、召回率、平均精度上分别提高了

31、 2.3%、4.8%、2.5%,模型在改进后主要是漏检的问题得到了解决,检测速度相比来说之间差距不是很大,我下一步准备在确保检测精度提高和漏检问题解决的前提下把检测速度也进行提升。(下转第 198 页)2023 年第 8 期198智能技术信息技术与信息化参考文献:1黄健洪,钟健樑,曾嘉俊.浅谈变电站防小动物治理措施J.农村电气化,2022(4):88-90.2 郭子豪.基于深度学习的节肢动物目标检测方法研究 D.淄博:山东理工大学,2022.3 郭子豪,董乐乐,曲志坚.基于改进 Faster RCNN 的节肢动物目标检测方法 J.计算机应用,2023,43(1):88-97.4 张世龙.基于深

32、度学习的阿尔巴斯绒山羊面部识别研究D.呼和浩特:内蒙古大学,2022.5 杜紫薇,周恒.面向深度卷积神经网络的小目标检测算法综述 J.计算机科学,2022,49(12):205-218.6 王亚茹,刘雨青,黄璐瑶.基于 FML-Centernet 算法的鱼类识别检测方法 J.激光与光电子学进展,2022,59(16):1-157 LI J,WEI Y,JIN X,et al.Object detection via a multi-region&semantic segmentation-aware CNN modelC/Proceedings of the IEEE Conference o

33、n Computer Vision and Pattern Recognition(CVPR),New York:CVPR,2015:1134-1142.8 邵延华,张铎,楚红雨,等.基于深度学习的 YOLO 目标检测综述 J.电子与信息学报,2022,44(10):3697-3708.9 张静,农昌瑞,杨智勇.基于卷积神经网络的目标检测算法综述 J.兵器装备工程学报,2022,43(6):37-47.10 张艳,张明路,吕晓玲,等.深度学习小目标检测算法研究综述 J.计算机工程与应用,2022,58(15):1-17.11HU J,SHEN L,ALBANIE S,et al.Squeeze

34、-and-excitation networksJ.IEEE transactions on pattern analysis and machine intelligence,2019,42(8):2011-2023.12 周飞燕,金林鹏,董军.卷积神经网络研究综述 J.计算机学报,2017,40(06):1229-1251.13 张 志 远,罗 铭 毅,郭 树 欣,等.基 于 改 进 YOLOv5的 自 然 环 境 下 樱 桃 果 实 识 别 方 法 J.农 业 机 械 学报,2022,53(S1):232-240.14 邱天衡,王玲,王鹏等.基于改进 YOLOv5 的目标检测算法研究 J

35、.计算机工程与应用,2022,58(13):63-73.【作者简介】林典敏(1996),男,广东汕头人,广东工业大学硕士研究生,研究方向:涉及变电站小动物危害的防治、深度学习和目标检测。吴可廷(1998),男,江西赣州人,广东工业大学硕士研究生,研究方向:涉及变电站小动物危害的防治、智能信息处理和嵌入式系统。(收稿日期:2023-01-15 修回日期:2023-03-01)参考文献:1 曹芳.基于 SAR 图像的海面舰船目标检测与鉴别算法研究 D.西安:西安电子科技大学,2014.2 李坤,樊宇.基于改进卷积神经网络的船舶图像识别研究J.舰 船科学技术,2021,43(12):187-189.

36、3 GLENN J.YOLOv5 releases v6.1CP/OL.(2022-02-07)2022-03-10.https:/ WOOS,PARK J,LEE J Y,et al.Cbam:Convolutional block attention module C/Proceedings of the 2018 European Conference on computer Vision.Cham:Spring,2018:3-19.5 姜浩风,张顺,梅少辉.基于改进 YOLOv3 的 SAR 舰船图像目标识别技术 J.上海航天,2022,39(3).60-66.6 李男,叶晓东,王昊,

37、等.基于改进 YOLOv5 的复杂场景下SAR图像船舶检测方法J.信号处理,2022,38(5):1009-1018.7 王玲敏,段军,辛立伟.引入注意力机制的 YOLOv5 安全帽佩戴检测方法 j.计算机工程与应用,2022,58(9):303-312.8 REZATOFIGHI H,TSOI N,GWAK J Y,et al.Generalized intersection over union:a metric and a loss for bounding box regressionC/IEEE/CVF Conference on Computer Vision and Patter

38、n Recognition.PaloAlto:IEEE,201 9:658-666.9 HU J,SHEN L.Squeeze-and-excitation networks journal J.IEEE transactions on pattern analysis and machine intelligence.2019,48(2):7132-7141.10 高倩,潘杨,朱磊,等.基于 SIOU 函数的改进 YOLOv5遥感目标检测方法 J.长江信息通信,2022,35(11):5-8.11BODLAN,SINGHB,CHELLAPPAR,et al.Soft-NMS-imp rovi

39、ng object detection with one line of codeC/IEEE International Conference on Computer Version(ICCV).New York:IEEE,2017:5561-5569.12LINTY,GOYAL P,GIRSHICKR,et al.Focal loss for dense object Detection C/Proceedings of the 2017 IEEE International Conference on Computer Vision.Washington:IEEE Computer Society,2017:2980-2988.【作者简介】刘树林(1997),男,山东潍坊人,硕士研究生在读,研究方向:智能控制与应用。周晓燕(1978),女,山东烟台人,副教授,博士研究生,研究方向:永磁电机及其控制。王玉林(1972),男,湖南衡阳人,硕士研究生,研究员,研究方向:遥感、通信工程。(收稿日期:2023-02-10 修回日期:2023-04-23)(上接第 193 页)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服