收藏 分销(赏)

基于事件帧与RGB帧融合的...下透明生物检测实验方案设计_罗偲.pdf

上传人:自信****多点 文档编号:277524 上传时间:2023-06-26 格式:PDF 页数:7 大小:2.03MB
下载 相关 举报
基于事件帧与RGB帧融合的...下透明生物检测实验方案设计_罗偲.pdf_第1页
第1页 / 共7页
基于事件帧与RGB帧融合的...下透明生物检测实验方案设计_罗偲.pdf_第2页
第2页 / 共7页
基于事件帧与RGB帧融合的...下透明生物检测实验方案设计_罗偲.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、 实 验 技 术 与 管 理 第 40 卷 第 4 期 2023 年 4 月 Experimental Technology and Management Vol.40 No.4 Apr.2023 收稿日期:2022-11-30 基金项目:国家重点研发计划“智能可持续空中地面物联网络研究”(2021YFE0111600)作者简介:罗偲(1983),男,湖北武汉,博士,副教授,主要研究方向为智能无人系统,luo_。通信作者:任鹏(1981),男,内蒙古土右旗,博士,教授,博士生导师,主要从事图像处理相关科研和教学工作,。引文格式:罗偲,吴吉花,孙士新,等.基于事件帧与 RGB 帧融合的水下透明生

2、物检测实验方案设计J.实验技术与管理,2023,40(4):62-68.Cite this article:LUO C,WU J H,SUN S X,et al.Experiment scheme design for underwater transparent organisms detection based on fusion of event frames and RGB framesJ.Experimental Technology and Management,2023,40(4):62-68.(in Chinese)ISSN 1002-4956 CN11-2034/T DOI:

3、10.16791/ki.sjg.2023.04.008 基于事件帧与 RGB 帧融合的水下透明 生物检测实验方案设计 罗 偲,吴吉花,孙士新,李凯扬,任 鹏(中国石油大学(华东)海洋与空间信息学院,山东 青岛 266580)摘 要:为了提高水下透明生物的检测精度,在图像预处理方面,提出用事件相机转化得到的事件帧与 RGB帧进行图像的像素级融合,以便加强水下透明生物的边缘特征。在检测方面,提出用改进的 YOLOX 算法进行水下透明生物检测,改进内容包括:添加自适应空间特征融合模块进行加权融合,充分利用不同尺度之间的特征;使用 Focal loss 函数,缓解数据集中类别不均衡问题;使用iou-函

4、数进行更准确的边界框回归,提高定位的准确率。实验结果表明,与传统的 YOLOX 算法相比,该文提出的算法的 mAP 提高了 2.58%,与Faster R-CNN、SSD 等算法相比也有较大提升,证明了该文改进 YOLOX 算法的有效性与优越性。关键词:水下透明生物检测;事件相机;YOLOX;自适应空间特征融合;损失函数 中图分类号:TP391 文献标识码:A 文章编号:1002-4956(2023)04-0062-07 Experiment scheme design for underwater transparent organisms detection based on fusion

5、 of event frames and RGB frames LUO Cai,WU Jihua,SUN Shixin,LI Kaiyang,REN Peng(College of Oceanography and Space Informatics,China University of Petroleum(East China),Qingdao 266580,China)Abstract:In order to improve the detection accuracy of underwater transparent organisms,in the aspect of image

6、preprocessing,it is proposed to use the event frame converted by the event camera and RGB frame for pixel-level fusion of the image,in order to strengthen the edge features of underwater transparent organisms.In terms of detection,the improved YOLOX algorithm is proposed for underwater transparent o

7、rganisms detection.The improved contents include:adding the adaptive spatial feature fusion module for weighted fusion,making full use of features between different scales;the Focal loss function is used to alleviate the imbalance of categories in the dataset;using-iou function to perform more accur

8、ate boundary box regression to improve the accuracy of location.The experimental results show that compared with the traditional YOLOX algorithm,the mAP of the algorithm proposed in this paper is increased by 2.58%,and it is also greatly improved compared with Fast R-CNN,SSD,and other algorithms,whi

9、ch proves the effectiveness and superiority of the improved YOLOX algorithm in this paper.Key words:underwater transparent organisms detection;event camera;YOLOX;ASFF(adaptive spatial feature fusion);loss function 1 概述 水下生物在自然界有着极其重要的地位,是人类的宝贵资源,我国越来越重视对海洋生物的保护。利用计算机视觉技术进行水下透明生物检测,有利于对其进行更有效的研究和保护。罗

10、 偲,等:基于事件帧与 RGB 帧融合的水下透明生物检测实验方案设计 63 近年来,基于深度学习的计算机视觉发展迅速,目标检测是计算机视觉的一个重要组成部分。目标检测算法可以分为单阶段(one-stage)和双阶段(two-stage)1两类。单阶段目标检测的代表性算法有 YOLO(you only look once)2系列算法和 SSD(single shot multibox detector)3算法,该类算法可以直接将定位和分类任务一次性完成,实现端到端的检测,检测速度快,但精度略低于双阶段检测算法。双阶段目标检测经典算法包括 Fast R-CNN4、Faster R-CNN5等,该类

11、算法将检测过程划分为两个阶段,首先产生候选区域(region proposals),然后再对候选区域进行分类和位置回归得到检测结果。该类算法的检测精度较高,但检测速度慢,难以满足实时性要求。针对检测速度和检测精度平衡问题,ZHENG 等人提出了 YOLOX6目标检测模型,这是典型的单阶段目标检测网络,兼顾了精度和速度,但对于透明的水下生物来说检测精度仍然相对较低。有鉴于此,本文在 YOLOX 基础上,对网络进行了改进。事件相机(event camera)是一种受生物启发的视觉传感器7,与传统基于帧的相机工作方式有所不同。基于帧的相机的曝光时间是固定的,所以即便是某个像素点上的亮度没有发生变化也

12、会曝光。而事件相机是通过像素点独立成像的,每个像素点可以独立检测亮度变化,以稀疏和异步事件流形式生成数据。对于水下应用场景来说,事件相机相较于传统的基于帧的相机优点明显。首先,事件相机高动态范围的优点使其即使在光线较暗的水下,也能清晰捕捉到游动的生物;其次,事件相机的功耗较低,当用于水下机器人时可以实现更小的机器人功耗;最后,事件相机没有运动模糊,所以即使是运动速度很快的水下生物也能被事件相机清楚地捕获到。由于水下透明生物的边缘特征被弱化,对其检测要比其他生物困难,因此增强水下透明生物的边缘特征,可以提高检测精度8。此外,本研究对 YOLOX检测算法进行了三点改进,进一步提高了检测精度。综上所

13、述,本文的主要工作包括:(1)本文使用事件相机得到的水下透明生物数据集,对该数据集中的事件帧和 RGB 帧进行像素级融合,以此来增强水下透明生物的边缘信息和背景信息。(2)在 YOLOX 检测网络的 PAFPN 模块后端加入空间自适应特征融合模块。该模块能使网络直接学习如何在其他级别对特征进行空间滤波,从而进一步提取水下透明生物的边缘特征。(3)使用iou-来改进定位损失中使用的 IoU_ loss,用于更准确的边界框回归,并在置信度损失中加入 Focal loss 函数,缓解数据集中正负样本不均衡问题,使模型在训练时更专注于难分类样本。2 事件相机简介 神经形态学的发展推动了一种新型仿生视觉

14、传感器的开发和应用。事件相机是一种受自然界生物启发得到的新型视觉传感器,最初以硅视网膜9形式被人们所研究。事件相机不以固定速率输出,且对像素上光照的变化很敏感,当亮度变化达到阈值后会触发“事件”,每个事件由一个元组来表示,记为:(,)ex y p t=(1)其中,(,)x y为事件的位置坐标,t 表示瞬时时间戳,p表示事件极性(1 为亮度变暗的事件,1 为亮度变亮的事件)。事件相机可以对每个像素的时间戳、坐标、事件极性做出异步输出。由于事件相机与普通帧相机的工作方式完全不同(见图 1),而具有高动态范围、无运动模糊、低功耗、低延迟等独特优点,因此可以在光线强或弱场景、高速运动场景、需要较低功耗

15、场景(如搭载在无人机或水下机器人)上发挥巨大优势10。图 1 事件相机和普通帧相机工作方式示意图 本文使用的数据集由型号为 DAVIS 346 的事件相机采集而来。该事件相机由两个通道组成,一个为主动像素传感器(active pixel sensor,APS),一个为动态视觉传感器(dynamic vision sensor,DVS),其中 APS通道可以输出传统的 RGB 帧图像,而 DVS 通道会输出基于亮度变化的异步事件信息。由于目前大部分基于深度学习的目标检测都是以 CNN即卷积神经网络为基础的,而卷积神经网络对处理二维图像有优势,因此本论文使用的水下透明数据集已将 DVS 通道的输出

16、转换为事件帧格式,以便进行后续处理。虽然事件相机的 DVS 通道可以输出高动态范围、低延迟的事件信息,但有时会由于缺乏背景信息给目标检测带来困难,而 APS 通道输出的 RGB 帧恰好可以弥补这一不足。因此,可将 APS 通道与 DVS 通道融合起来以便更好地保存信息的完整性,增加水下透明生物的边缘特性(见图 2)。我们对水下透明生物数据集中的事件帧与 RGB 帧进行线性加权的像素级融合11,增强水下透明生物的边缘和背景信息,从而实现快速准确的检测。64 实 验 技 术 与 管 理 图 2 事件帧与 RGB 帧融合得到的融合图 3 YOLOX 模型 YOLOX 目标检测网络是以 YOLOv3

17、目标检测网络为基础改进而来,相较于 YOLO 系列的目标检测算法,YOLOX 的目标检测精度和速度有了进一步提高。该算法由三部分组成:Backbone、Neck 和 Prediction,其网络结构如图 3 所示。3.1 骨干网络 骨干网络 Backbone 继续采用了 YOLOv412使用的 CSPDarknet13结构,该部分使用残差网络 Residual14结构。Residual 采用跳跃式连接可以缓解深度神经网络带来的梯度消失问题,能够提高网络的计算和学习能力。3.2 多尺度特征提取融合网络 多尺度特征提取融合网络 Neck 部分采用 PAFPN结构对特征进行进一步提取和融合。高层的特

18、征信息先通过上采样方式进行传递融合,再通过下采样融合方式得到预测的特征图,最终输出由 3 个特征层组成的元组结果。3.3 预测网络 在 Prediction 预测部分,YOLOX 创新性地提出了三点改进。首先,提出了 Decoupled Head 即解耦头的结构。作者在实验中发现使用 Decoupled Head 不仅使模型精度提高,而且还加快了网络的收敛速度。其次,使用了 Anchor-free15方式。在 YOLOv3、YOLOv4、YOLOv5 中,通常都是采用 Anchor-based16方式来提取目标框,再与 Ground-truth 进行比对判断二者的差距,但该方式需要在特征图上预

19、设很多 Anchor,增加了检测头的复杂度。而 Anchor-free 方式不需要预先设定 Anchor 就可以对目标图像进行检测,相比 Anchor-based 方式大大减少了参数量,使网络速度更快、性能更好。最后,使用更加先进的标签匹配策略(SimOTA)方式实现正负样本匹配,能够使网络以最小的学习成本学习到有用的知识,并得到最终的预测结果。图 3 YOLOX 模型图 罗 偲,等:基于事件帧与 RGB 帧融合的水下透明生物检测实验方案设计 65 4 模型改进与创新 4.1 自适应空间特征融合结构 YOLOX 中的 Neck 使用的是 PAFPN17结构。该结构自上而下通过上采样和下采样方式

20、将特征信息进一步提取和融合,从而得到预测特征图。但这样的融合方式只是将不同特征层的尺寸调整为相同大小后再进行累加,不同特征层尺度之间的不一致会使融合特征图的噪声变大,从而导致检测效果变差。为了充分利用不同尺度之间的特征,包括图像低层的形状、轮廓、边缘等信息及图像高层的语义信息,本文引入了自适应空间特征融合 ASFF(adaptive spatial feature fusion)网络模块 18。该模块通过学习空间过滤信息的方法来抑制不一致性,能自适应调整各尺度的特征在融合时的空间权重,从而提高特征的尺度不变性。ASFF 的整体结构如图 4 所示。图 4 ASFF 的结构 YOLOX 的 Nec

21、k 部分输出的特征图为 Level-1、Level-2、Level-3。以 ASFF-1 为例,若要将 Level-1、Level-2、Level-3 融合成 ASFF-1,在融合前需要对各个 Level 进行调整,首先要对 Level-1、Level-2、Level-3进行上采样或下采样,使特征图尺度和通道数相同后再进行融合。然后将调整好尺度和通道的特征分别与不同的权重参数相乘并求和,这样就可以得到融合后的特征 ASFF-1,该过程可用公式(2)来表示:ll1ll2ll3lijijijijijijijy=x+x+x (2)其中,lij、lij、lij是网络自适应地学习从 Level-1到 L

22、evel-3 特征图的空间重要性权重,1lllijijij+=,且lij、lij、lij0,1;1lijx、2lijx、3lijx表示从 Level-1、Level-2、Level-3 调整到 Level-L 的特征图位置(,)i j处的特征向量。根据文献18的实验结果,ASFF 模型对检测网络的性能有很好的提升,证明了其在目标分类和检测任务中的有效性。因此,本文采用 ASFF 结构对 PAFPN的输出部分进行进一步的特征融合,增强对水下透明生物的边缘特性,进而提高检测精度。4.2 损失函数 YOLOX 的损失函数由三部分组成:分类损失iou-,根据特征点和真实框的种类判断目标框中所属类别的误

23、差,采用的是 BCELoss;置信度损失iou-,根据正负样本和特征点是否包含物体来计算结果,同样采用的是 BCELoss;定位损失iou-,根据预测框和真实框的交并比值计算特征点的回归误差,采用的是 IoU_loss。在 YOLOX 中定位损失用的是 IoU_loss,而IoU_loss 存在一个问题,如图 5 所示,红色线为真实框,黄色线为预测框。在训练过程中可能出现三种情况:如图 5(a)所示,当预测框与真实框不相交时,IoU 为 0,会导致损失函数不可导;如图 5(b)、(c)所示,当预测框与真实框相交、IoU 相同时,此时的 IoU_loss 无法区分二者相交情况的不同。鉴于这种情况

24、,本文采用更先进的iou-函数19。iou-可用于精确的边界框回归,是基于 IoU 现有损失函数的统一幂化,其公式如下:1,0iouiouL-=(3)其中,iou 表示预测框与真实框的交并比,为权重系数,通过调节,能使探测器更灵活地实现不同水平边界框的回归精度。在实验中发现,3=效果最好。通过实验对比发现,相对于 GIoU20、EIoU21等函数,iou-对于本数据集来说能达到最优性能。水下环境是复杂多变的,生物之间存在的遮挡和重叠会使前景正样本和背景负样本难以区分22。尤其是对于 One-Stage 网络,正负样本的数量极不平衡,在模型训练过程中,负样本数量过多而正样本数量却极少的情况会导致

25、模型对正样本的学习不够充分,使模 图 5 IoU 的预测框和真实框可能出现的情况 66 实 验 技 术 与 管 理 型不稳定。为解决这一问题,本文将置信度损失使用的交叉熵函数改为 Focal loss23函数。Focal loss 函数为:fl(1)ln,1ln(1),0ppyLppy-=|=-=|(4)定义tp为:,11,otherwisetpypp=-(5)在实际应用中,引入tp的同时还会结合交叉熵函数引入t,得到最终的 Focal loss 公式为:fl(1)lntttLpp=-(6)其中,t为权重因子,可以抑制正负样本的数量;为聚焦参数(focusing parameter),为控制难

26、以分类样本权重的平衡系数,在实际实验中,2=效果最好;tp反应了难以分类样本的概率。Focal loss 相当于一个可以动态缩放的交叉熵损失函数,能动态降低训练过程中易区分样本的权重,该损失函数还可以调节正负样本损失之间的比例,缓解正负样本不均衡问题。5 实验结果与分析 5.1 实验数据集 本文用到的数据集是水下透明生物数据集 Aqua Eye Dataset24。据我们所知,该数据集是目前唯一一个水下透明生物数据集,包含 5 种水下较为透明的生物,分别是 glass catfish、x-ray fish、siberian prawn、flame jellyfish、moon jellyfis

27、h。数据集中包括 RGB 帧和事件帧两种类型的图片共 13 578 张,并且对其中的6 497 张图片进行了标注,本文将 6 497 张图片按 811 的比例划分为训练集、验证集、测试集,各个类别的边界框数量如图 6 所示。图 6 各个类别的边界框的数量 5.2 实验评价指标 本实验采用平均精度 AP 和平均精度均值 mAP 作为评价指标,可通过计算预测的各类目标查准率 P(precision)和查全率 R(recall)25的值来得到 mAP值,查准率 P 和查全率 R 的计算公式如下:TPpTPFP=+(7)TPRTPFN=+(8)其中,TP(true positive)为预测正确的正样本

28、;TN(true negative)为预测正确的负样本;FN(false negative)为预测错误的负样本。平均精度 AP 和平均精度均值 mAP 计算公式如下:10AP()dP RR=(9)=11mAPAP()niin=(10)其中,P 和 R 由公式(7)、(8)求得。通常来说,AP与 mAP 的值越大,检测器的性能越好。5.3 实验结果与分析 5.3.1 模型训练 本实验的运行平台为 Ubuntu 18.04.5 操作系统,显卡为 NVIDIA Ge-Force RTX 3090。深度学习软件环境为 Python 3.9.12、CUDA11.6、PyTorch 1.11.0,训练25

29、0 个 epoch,初始学习率为 0.01,使用 sgd 优化器,batch size 为 32。模型训练的 Loss 曲线如图 7 所示。由图 7 可以看出,随着训练轮次 epoch 的不断增加,模型 Loss 值不断下降。图例中 YOLOX 表示用官方给出的模型训练RGB 图片的结果,YOLOX-ours 表示用本文提出的方法训练事件帧与 RGB 帧融合得到的图像的结果。从图 7 可以看到,当迭代到 170 次左右时,模型逐渐收敛,而使用改进版 YOLOX 检测事件帧和 RGB帧的融合图片所得到的 Loss 最先收敛,且 Loss 值更低。由此可以证明本文提出的改进策略及参数设置的合理性,

30、改进后的YOLOX模型可以更准确地预测目标。图 7 模型训练 Loss 曲线 5.3.2 消融实验 在前述提到的数据集中进行消融实验,来进一步判断每个改进点的有效性。如表 1 所示,使用“”表示加入该改进方法,“”表示未加入该改进方法。罗 偲,等:基于事件帧与 RGB 帧融合的水下透明生物检测实验方案设计 67 表 1 YOLOX 的消融实验 Fusion ASFF Focal loss-iou mAP/%80.07 80.62 81.56 82.23 81.19 82.65 从表 1 中可以看出,使用未改进的 YOLOX 对事件帧与 RGB 帧融合后的图像进行检测,使 mAP 提升了 0.5

31、5%;加入自适应空间特征融合 ASFF 能使网络自适应地学习各尺度特征映射融合的空间权重,使mAP 提高了 1.49%;引入 Focal loss 损失函数替换置信度损失中的交叉熵函数,使模型能更好地平衡正负样本之间的数量,使 mAP 提升了 2.16%;通过将定位损失采用的 IoU_loss 替换为更先进的iou-,使模型的 mAP 提升了 1.12%;当表中所有模块都加入时,对水下透明生物的检测效果最好,相比于传统未改进的YOLOX 算法,mAP 值共计提升了 2.58%。5.3.3 对比实验 为验证所提出的改进 YOLOX 算法对水下透明生物场景的有效性,将改进的 YOLOX 算法与其他

32、经典主流目标检测算法,如 EfficientDet、Faster R-CNN、SSD、RetinaNet、YOLO 系列等进行了对比实验,并且对该数据集中的每个类别都进行了检测。每个类别的平均精度均值如表 2 所示。表 2 每个类别的平均精度均值%Methods glass catfishx-rayfishSiberian prawn moon jellyfish flamejellyfishmAP(%)EfficientDet 79.5475.4377.39 83.98 86.0280.47Faster R-CNN76.7171.1374.03 78.68 84.4076.98SSD 77.

33、2573.6175.99 77.42 85.2377.90RetinaNet 79.8976.2577.97 81.06 86.3480.18YOLOv3 64.2766.0367.16 69.08 79.1269.25YOLOv4 49.2051.1161.95 54.42 72.9857.93YOLOv5 78.4880.6883.34 81.79 86.6182.18YOLOX 79.3075.2877.06 82.16 79.3080.07YOLOX-ours82.0978.7380.36 84.83 87.2482.65 从表 2 中可以看出,本文提出的改进 YOLOX 模型针对五类

34、透明生物的 mAP 值均高于其他模型,其平均精度均值达到 82.65%,比原版 YOLOX 的精度值高出 2.58%。平均精度值最低的是 YOLOv4,改进版的 YOLOX 比其高出 24.72%。此外,综合来看,flame jellyfish 的精度值最高,这是因为 flame jellyfish 总是保持一个姿态,使得该类别最容易检测出来。通过与经典算法的对比分析可以得出,本文提出的基于 YOLOX 的改进算法在精度方面优于其他算法,用改进版 YOLOX 模型去检测事件帧与 RGB 帧融合得到的水下透明生物数据集可以得到更好的结果(见图 8)。图 8 改进后的 YOLOX 算法检测效果 6

35、 结语 事件帧可以清楚地捕捉到水下透明生物的游动形态,但却忽略了其背景信息,RGB 帧可以更清晰地呈现出水下透明生物的原貌和背景,但却忽略了其边缘特征。本文将水下透明生物数据集中的事件帧与 RGB 帧图像进行融合,来增强水下透明生物的边缘及背景特征,并使用改进的 YOLOX 算法对融合图像进行了检测。改进内容包括:通过在多尺度特征提取融合网络后端添加自适应空间特征融合 ASFF 模块,在损失函数部分引入 Focal loss 用于平衡正负样本,使用iou-损失函数用于更好的边界框回归。实验结果表68 实 验 技 术 与 管 理 明,改进的 YOLOX 算法与传统的 YOLOX 算法相比,mAP

36、 提高了 2.58%,与其他传统主流检测算法相比也有较大提升。因此,本文提出的改进 YOLOX 算法能够更好地适应水下复杂环境,对水下透明生物场景呈现出更好的检测性能。参考文献(References)1 李柯泉,陈燕,刘佳晨,等.基于深度学习的目标检测算法综述J.计算机工程,2022,48(7):112.2 REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,real-time object detectionC/Proceedings of the IEEE Conference on Computer Vision

37、and Pattern Recognition,Las Vegas,USA,2016:779788.3 LIU WEI,ANGUELOV D,ERHAN D,et al.SSD:Single shot multibox detectorC/Proceedings of the 14th European Conference on Computer Vision,Amsterdam(NL),2016:2137.4 GIRSHICK R.Fast r-cnnC/Proceedings of the IEEE International Conference on Computer Vision,

38、Santiago,CL,2015:14401448.5 REN S,HE K,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networksJ.IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(6):11371149.6 GE Z,LIU S,WANG F,et al.Yolox:Exceeding yolo series in 2021J/OL.(2021-08-06)2022-11-

39、12.https:/arxiv.org/abs/2107.08430.7 孔德磊,方正.基于事件的视觉传感器及其应用综述J.信息与控制,2021,50(1):119.8 JIANG M,ZHAI F,KONG J.A novel deep learning model DDU-net using edge features to enhance brain tumor segmentation on MR imagesJ.Artificial Intelligence in Medicine,2021(121):102180.9 KOGLER J,EIBENSTEINER F,HUMENBER

40、GER M,et al.Ground truth evaluation for event-based silicon retina stereo dataC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops,Portland,USA,2013:649656.10 MONDAL A,SHASHANT R,GIRALDO J H,et al.Moving object detection for event-based vision using graph spectra

41、l clusteringJ/OL.(2021-12-02)2022-11-12.https:/arxiv.org/abs/2109.14979.11 LIU,YU,et al.Deep learning for pixel-level image fusion:Recent advances and future prospectsJ.Information Fusion,2018(42):158173.12 BOCHKOVSKIY A,WANG C Y,LLAO H Y M.Yolov4:Optimal speed and accuracy of object detectionJ/OL.(

42、2004-04-23)2022-11-12.https:/arxiv.org/abs/2004.10934.13 WANG C,LIAO H,WU Y,et al.CSPNet:A new backbone that can enhance learning capability of CNNC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops,Seattle,USA,2020.14 WU S T,ZHONG S H,LIU Y.Deep residual le

43、arning for image steganalysisJ.Multimedia Tools and Applications,2018,77(9):1043710453.15 ZHANG,SHIFENG,et al.Bridging the gap between anchor-based and anchor-free detection via adaptive training sample selectionC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Seat

44、tle,USA,2020.16 KONG T,SUN F C,LIU H P,et al.Foveabox:Beyound anchor-based object detectionC/IEEE Transactions on Image Processing,2020:73897398.17 LIN T Y,DOLLAR P,GIRSHICK R,et al.Feature pyramid networks for object detectionC/2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),H

45、onolulu,USA,2017.18 LIU S T,HUANG D,WANG Y H.Learning spatial fusion for single-shot object detectionJ/OL.(2019-12-25)2022-11-12.https:/arxiv.org/abs/1911.09516.19 HE J,ERFANI S,MA X,et al.Alpha-IoU:A family of power intersection over union losses for bounding box regressionJ.Advances in Neural Info

46、rmation Processing Systems,2021,34(9):2023020242.20 REZATOFIGHI,HAMID,et al.Generalized intersection over union:A metric and a loss for bounding box regressionC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Seoul,Kr,2019.21 YANG Z,WANG X,LI J.EIoU:An improved vehi

47、cle detection algorithm based on vehiclenet neural networkJ.Journal of Physics Conference Series,2021,1924(1):012001.22 党宏社,狄国栋,张选德.一种改进型 RetinaFace 的遮挡人脸检测算法J.实验技术与管理,2022,39(10):8085.23 LIN T Y,GOYAL P,GIRSHICK R,et al.Focal loss for dense object detectionJ.IEEE Transactions on Pattern Analysis an

48、d Machine Intelligence,2020,42(2):318327.24 GitHub.Aqua-Eye-Dataset.EB/OL.(2022-7-28)2022-11-15.https:/ GOUTTE,CYRIL,ERIC GAUSSIER.A probabilistic interpretation of precision,recall and F-score,with implication for evaluationC/European Conference on Information Retrieval.Springer,Berlin,Heidelberg,GRE,2005:952952.(编辑:张文杰)

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服