收藏 分销(赏)

基于改进YOLOv3的轻量级目标检测算法.pdf

上传人:自信****多点 文档编号:2266903 上传时间:2024-05-24 格式:PDF 页数:8 大小:4.05MB
下载 相关 举报
基于改进YOLOv3的轻量级目标检测算法.pdf_第1页
第1页 / 共8页
基于改进YOLOv3的轻量级目标检测算法.pdf_第2页
第2页 / 共8页
基于改进YOLOv3的轻量级目标检测算法.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第45卷第5期2023年10 月探测与控制学报Journal of Detection&ControlVol.45 No.5Oct.2023基于改进YOLOv3的轻量级目标检测算法王燕妮,贾瑞英(西安建筑科技大学信息与控制工程学院,陕西西安7 10 0 55)摘要:针对YOLOv3模型在进行目标检测时无法充分利用丰富的上下文信息导致目标漏检、误检,且模型参数量大的问题,提出一种轻量级目标检测算法。首先,该算法使用VGNetG网络作为骨干网络进行主干替换,这有利于减少模型计算参数量;其次,采用特征尺度感知模块FSSA进一步融合主干信息特征,使模型上下文信息对齐上采样的高级特征信息;最后,改进的交

2、叉注意力模块ICC-Attention使用两个连接图来代替常见的单个密集连接图,并通过交叉路径法有效提取所有像素的上下文信息。改进后的算法比YOLOv3模型缩减一倍模型参数量,提高了算法参数效率与检测速率。算法在PASCALVOC2007测试集上验证,实验结果表明,平均检测精度达到8 4.1%,参数量为5.37 M,检测速度为47 顿/s,改进后的算法可有效改善YOLOv3模型中的漏检、误检与参数量大的问题,同时在检测速度方面可以满足实时性的要求。关键词:目标检测;轻量级;尺度感知;上下文信息中图分类号:TP391Lightweight Object Detection Algorithm B

3、ased on Improved YOLOv3(School of Information and Control Engineering,Xian University of Architecture andAbstract:Aiming at the problems of miss detection and false detection when the YOLOv3 algorithm performeddetection,a lightweight object detection algorithm was proposed to deal with the problems

4、which caused by theinadequate utilization of rich context information with a large number of model parameters.First,the VGNetGnetwork was employed as the backbone network for replacement,which helped to reduce the number of modelcomputational parameters;second,Feature Select Scale Aware(FSSA)module

5、was adopted to further fuse theinformation features of the backbone to align the model contextual information to the high-level features of theupsampling;finally,the Improved Criss Cross Attention(ICC-Attention)utilized two connected graphs to effi-ciently extract the contextual information of all p

6、ixels by the cross path method instead of the common singledense connected graph.The improved algorithm exponentially reduced the number of model parameters and in-creased the efficiency of algorithm parameters and detection rate.The algorithm was validated on the PASCALVOC2007 test set,and the expe

7、rimental results showed that the average detection accuracy reached 84.1%,thenumber of parameters was 5.37 M,and the detection speed was 47 FPS.The improved algorithm effectively im-proved the problems of missed detection,false detection and a large number of parameters of the YOLOv3 algo-rithm.At t

8、he same time,the algorithm could meet the requirements of real-time in terms of detection speed.Key words:object detection;lightweight;scale awareness;contextual information0引言目标检测是计算机视觉领域的一个基本问题,*收稿日期:2 0 2 3-0 5-12作者简介:王燕妮(197 5一),女,陕西渭南人,博士,副教授。文献标志码:AWANG Yanni,JIA RuiyingTechnology,Xian 710055,

9、China)文章编号:10 0 8-1194(2 0 2 3)0 5-0 0 98-0 8旨在对对象进行分类并预测目标所在位置1。它的应用十分重要与广泛,比如常见的红外探测技术2、智能视频监控3、车道线检测4等。传统的目标检测算法主要基于手动提取特征,王燕妮等:基于改进YOLOv3的轻量级目标检测算法如常用于行人检测的方向梯度直方图(histogram ofooiented feature gradient,H O G)5 与支持向量机(support vector machine,SV M)6 算法。传统算法对滑动窗口的区域选择策略没有针对性,且穴余设计的窗口特征对于多样性的变化未达到较好的

10、鲁棒性,这些任务目前的解决方法是基于卷积神经网络的方法。基于卷积神经网络的目标检测算法依据速度可分为两阶段目标检测与单阶段目标检测。两阶段目标检测算法先提取出候选目标边界框,然后做分类和边界框回归任务,如经典的Faster-RCNNC7,但该模型检测效率低,速度上无法满足实时的要求。单阶段目标检测算法将两阶段融合在一起,采用了“锚点十分类精修”的实现框架。单阶段检测算法(single shot muitibox detector,SSD)8结合了回归思想与 anchor box机制,提取到一系列离散化的bounding boxes,但 SSD算法对本身较小的目标检测效果较差。快速目标检测算法(

11、you onlylookonce,YO LO)9系列算法将目标检测任务转化为一个回归问题,在网络预测窗口使用全局信息,这使得检测精度大大提高。近些年来,卷积神经网络在计算机视觉领域取得了很大进展,在目标检测领域也取得了一定的成果。Shuffle Netv210 与Mobile Netv211 网络通过在主干中加人深度可分离积(depthwise separableconvolutions,DSCs)12或神经搜索结构(neural ar-chitecture search,NA S)13减小参数模型及运算参数量。轻量化的网络层出不断,文献14提出的基于部署的检测网络轻量化程度高,但检测精度有限

12、。文献15通过引人ShuffleNet中的通道打乱机制减小识别船舶模型。但上述模型在减小参数量的过程中,网络的一些固有特征被弱化了。VGNetG网络16 尝试使用边缘检测器替换可学习的深度分类卷积层,通过减少映射中的穴余提高模型参数效率和推理速度。基于YOLOv3的轻量级检测算法通过低成本操作得到更多的特征图信息,借鉴特征对齐融合网络(feature-align pyramid networks,FaPN)17 改进的FSSA模块有效融合信息;通过嵌入改进交叉注意力18(improved criss cross Attention,ICC-Attention),增加模型对空间位置的关注,兼顾检

13、测99精度与速度,减少目标物误检,提升检测效率与网络目标定位能力。1YOLOv3 模型YOLOv3模型是经典的多尺度目标检测模型,以整张图作为输人,以回归边界框的位置和边界框所属的类别作为输出。模型在检测时首先将输人图片划分为SXS个网格,每个网格负责检测目标物中心点落在网格内部的物体;然后通过计算每个网格中预测框的置信度得分,采用非极大值抑制算法(non-maximum suppression,NM S)191 选出置信度最高的预测框来实现初步目标的定位与分类;最后利用损失函数训练各类误差并进行最小值寻优,完成目标的精确定位与分类。模型由检测主干、融合网络、检测头三部分组成。1.1检测主干D

14、arknet53YOLOv3模型以Darknet53作为主干网络进行特征提取。主干网络含有5个残差块,每个残差块均使用大量的卷积与跳跃连接有效提取多个尺度的语义信息。每个残差块由图1所示的11卷积与33卷积及残差边组成。为达到更高效的精度,主干网络制造更深更复杂的网络,但模型规模同时增大,训练参数多,检测速率低下。卷积11步长=1卷积33步长=2图1残差模块Fig.1Residual module1.2特征融合金字塔YOLOv3的颈部融合网络(feature pyramidnetworks,FPN)2 0 1对主干提取的三个特征层重新处理,将不同感受野的特征图进行信息融合。如图2所示,特征融合

15、金字塔是自顶向下的,采用多尺度融合的方式对浅层和中层目标进行特征融合,构成三个不同尺度的目标定位与语义信息的融合层,增强网络语义信息的表达能力。100探测与控制学报息;其次使用特征尺度感知FSSA模块动态融合2 1多尺度上下文信息2 最后ICC-Attention模块收2改进的轻量级检测算法P为改善YOLOv3模型的不足,改进后模型首先使用轻量深度卷积网络VGNetG高效提取特征信图2 FPN特征融合网络Fig.2Feature pyramid networks1.3检测头YOLOHead由两个卷积组成,卷积核大小分别为3X3与1X1,前者用于特征整合,后者用于调整通道数,最后输出检测目标的位

16、置与类别置信度信息。步骤5步骤426265125252256步骤3步骤2步骤1卷积4164163输入骨干网络Fig.3 Overall frame diagram of the improved algorithm2.1主干网络改进算法使用轻量化主干VGnetG模型提取特征。下采样模块与恒等映射模块如图4所示。图4(a)中,下采样模块先通过步长为2 的深度可分离卷积(depthwise separable convolutions,D SC s)来加倍通道数、减半分辨率并提取特征,再通过点卷积来扩展通道并重用这些特征。拼接33可分离卷积步长=211卷积,本身激活/规范化(a)下采样模块图4下采

17、样模块与恒等映射模块Fig.4 Down-sampling module and identity mapping module集给定像素的上下文信息算法,在计算资源较少的情况下提炼关键目标的上下文信息,减少漏检误检情况。算法整体框架图如图3所示。置信度13131024卷积(3x3ICCA检测头圈积(1x11313FSAFSMFSMFSM1041041282082086441641632图3改进算法整体框架图深度可分离卷积将标准卷积分解为用于空间滤波的轻量级深度卷积和用于特征生成的点卷积。由于带有深度卷积核卷积会导致特征图重复与计算余,因此网络使用恒等映射来代替部分深度卷积。下采样模块中仅扩展

18、通道部分由逐点卷积生成来重用特征,提高推理速率。半恒等模块用恒等映射模块替换一半的深度卷积,且输入的右半部分组成最终输出的左半部分,输出的右半部分由逐点卷积生成,在保持块宽度的同时减少点卷积以更好重用特本身33可分离卷积征。改进后的算法主干中每个stage层由图4(a)与4(b)两个模块叠加而成。VGNetG模型详细网络11卷积激活/规范化参数如表1所示。(b)半恒等模块类别位置检测头2626FSAFSMICCA改进的交叉注意力模块FSM特征选择模块FSA特征尺度感知模块颈部融合网络检测头5252检测头王燕妮等:基于改进YOLOv3的轻量级目标检测算法表1VGNetG网络结构Tab.1VGNe

19、tG network structure层卷积核步长重复次尺寸道数图片1卷积3X3步骤1步骤2步骤3步骤4步骤5Shared DW-Conv2dPointwise BlockAvgPool2d2.2嵌入注意力机制注意力机制指人类在观察周围物体时,选择性地聚焦在关键物体上,同时忽略其他事物的一种策略。2.2.1改进的交叉注意力长距离依赖性也叫非局部上下文信息2 3。要准确完成目标检测,获得长距离依赖性非常必要。图5(a)所示的非局部注意力模块首先使特征图A每个位置生成一个自适应的注意力图B,并对输人特征图A做某种转化C,然后对B和C进行加权和,获得每个位置的上下文信息D,即密集连通注意力,这需要

20、很多计算力,不适合对速度与精度要求较高的YOLO系列算法。如图5(b)所示,重复的交叉注意模块只需两次遍历十字位置上的信息便可采样到所有像素的上下文信息F来增强位置表示,且注意力参数都是共享的,模块复杂度小。交叉注意力使用两个连续的注意力取代原有密集通道注意力,仅在十字交叉方向上聚合信息,极大降低了注意力的时间与空间复杂度。101B输出输出通416231121112110421221162111321111111福AC(a)非局部注意力41623220826420826412810421285222565222562625122625121321024132102413210241321024

21、1321024DH+W-1H+W-1AE(b)改进的交叉注意力图5非局部注意力和改进的交叉注意力Fig.5 Non-local block and improved criss cross attentionICC-Attention模块解决了目标检测中语境信息不足的问题,其使用两个连接图来代替常见的单个密集连接图,在提高参数运算效率的情况下,有效获取全图上下文信息,适合改进的算法。2.2.2微交叉注意力 MCC-Attention组成改进交叉注意力的微交叉注意力如图6 所示。首先,输人特征图HERHXWXC经过全局平均池化操作,然后进行卷积核大小为kk卷积操作,并经过Sigmoid激活函数得

22、到各个通道的权重,最后将权重与原始输人特征图对应元素相乘,得到的特征图输人到交叉注意力机制中,沿空间维度展开得到矩阵HERNxC,其中N=HW,C表示不同图像区域的高维向量。给局部特征映射H应用两个具有1X1滤波器的卷积层分别生成两个映射Q与K,在Q空间维的每一个位置u上,可以得到一个向量,同时从K中提取与位置u在同一行或同一列的特征。进一步通过Affinity操作,在H上应用另一个1 1滤波的卷积层,生成VERCXWXI进行特征自适应。Affinity操作指在Q空间维度u的每个位置上,计算与K同行或同列元素的相关性。在V的空间维数中每一个位置u处计算可以得到向量vuERCxV和集合ER(H+

23、W-1)XC。集合u是中与位置H同行或同列的特征向量的集合。上下文信息通过Aggregation操作进行收集。在这里,局部特征H是HERCXHxW在位F102置u处的特征向量值。HW2.3FSSA融合网络FSSA模块通过计算两组未对齐特征的偏移量,给底层特征提供准确的位置信息与高层特征融合,进而减少目标物漏检。特征尺度感知FSSA模块结构图如图7 所示。特征感知特征选择图7 FSSA融合模块Fig.7FSSA fusion module2.3.1特征选择模块FSM特征选择模块通过SE注意力(squeeze and ex-citation)24为输入特征建立含有丰富细节语义信息的特征映射,通过全

24、连接来保留高权重噪声点,增强感受野。为减少边界信息损失,FSM模块在计算得到输人重要矩阵U后,继续缩放新特征图并引人特征选择层,完成包含空间细节的重要特征图的精确分配,进而自适应地重新校准通道响应。FSM如图8 所示,Ci、C,表示输人特征与输出特征。f和f、分别表示特征重要性建模和特征选择层。CFig.8Feature selection module首先,输人特征图到注意力模块中,特征重要性建模层fm()学习这些信息来建模每个特征图的探测与控制学报重要性,并输出重要度矩阵U;其次使用重要度矩阵U得到缩放后的特征图,并将其添加到原始特征图上;最后,在特征映射上引人特征选择层f()(即S11c

25、onv层以提高效率),用于有选择地维护重要的特征映射和删除无用的特征映射以减少信道。总的来说,FSM的过程可以公式化为12Zea(h,w)。1x1xc1x1xc图6 微交叉注意力Fig.6Micro criss cross attention特征尺度感知模块图8 图像选择模块FSMH,WZdH.XWh=12.3.2特征尺度感知模块FSA尺度感知模块(feature scaled aware,FSA)通过研究人类视觉的感受野(receptivefields,RFs25)结构有效整合错位信息。模块动态选择合适的尺度特征,并通过自学习进行融合。FSA如图9 所示,P!为上采样的特征映射C,为自上而下

26、的特征映射。假定C,为自底向上网络的第i级,其相对于输人图像的跨距为2 的讠次方,C.ERx,其中HXW为输人图像的大小。首先利用softmax算子在空间值上生成像素级注意图,PuA;=-P+c.P!+C.1W,A,与B;提供了上采样和对应的自下而上特征之间的空间差异,其中,A,BECXHXW。其次,以加权和的形式得到融合特征图:Prusion=AoP!十BoC-1,即在注意图与两个比例尺特征之间进行逐元素积运算(),即得到融合特征图P。尺度感知模块中不同大小的卷积核类似于不同的感受野,不同空洞率的空洞卷积为每个分支分配偏心距可扩大感受野。其完成所有分支拼接与1X1卷积操作后生成感受野空间阵列

27、,模拟人类视觉空间阵列,获取并对齐特征层的上下文信息,捕获多尺度特征信息。+11卷积+33卷积D让来样55卷积图9特征尺度感知模块FSAFig.9Feature scare aware(1)C-1,B;=,i=1,2,3,.,HXP王燕妮等:基于改进YOLOv3的轻量级目标检测算法3实验与分析3.1实验数据基于YOLOv3的轻量级算法使用的是经典的目标检测数据集PASCALVOC数据集2 6,包含2 0个类别。在训练阶段,算法使用PASCALVOC2007 trainval 与 PASCAL VOC2012 trainval作为训练集和验证集,使用PASCALVOC2007test作为测试集来

28、测试。数据集中各类目标均匀分布,保证了实验的有效性。3.2评价指标算法的评价指标为mAP(均值平均精度)。在目标检测中,mAP是所有类别的平均精度求和除以所有的类别,取 IOU=0.5时的mAP值。P-R曲线即精准率-召回率的关系曲线图,即在坐标系上做以precision 和recall 为纵、横轴坐标的二维曲线。3.3训练过程实验配置环境如下:CPU为 AMD EPYC7302H,GPU 为 NVIDIA GeForce RTX3090、C PU显存为2 4GB、硬盘内存为50 GB。训练过程的优化参数如下:训练的epoch为140,设置每批次输人网络的图像数为32。训练采用两步骤训练法,首

29、先冻结骨干网络训练前2 0 个epoch,初始学习率为0.001,每迭代一次,学习率下调5%;从第2 1个ep-och开始,解除冻结的骨干网络,初始学习率设置为0.0001,且每迭代一次,学习率也下降5%。此训练方式有助于保持模型深层的稳定性,提升网络对多尺度目标物的检测能力。3.4实验结果在输人图片尺寸为416 416 时,改进算法的检测精度为8 4.1%,比SSD算法检测精度提高6.9%,并且检测速度符合实时检测速率。另外,和两阶段算法的FasterR-CNN相比,算法在输人图片像素尺寸为416 416 的情况下,检测精度超过输人图片像素尺寸为10 0 0 X600的FasterR-CNN

30、算法。3.4.1检测结果图对比为更直观地体现本网络的性能,选取了部分图片来展示算法在PASCALVOC2007test下的检测结果图如图10 所示。可以看出YOLOv3检测中均有漏检,改进后的算法检测出图10(a)中有像103素交叉时漏检的person类,和复杂背景下的图10(c)中的cow类。说明YOLOv3模型对小尺度目标物不敏感,改进后的算法均可以检测出图10(e)中的boat类、图10(g)中的 sheep类。从以上结果得知,改进的算法对漏检、小目标的物体检测有一定的泛化能力。(a)YOLOv3检测结果(c)YOLOv3检测结果(e)YOLOv3检测结果(g)YOLOv3检测结果图10

31、 检测算法结果对比Fig.10Comparison of detection algorithm results3.4.2消融实验本文改进方法以YOLOv3为基线做出三个改进:采用轻量化的检测主干、改进的交叉注意力与特征尺度感知模块。为了评估引进的模块在PAS-CALVOC2007test数据集上的影响,在此数据集上进行消融实验,定性分析各模块的检测性能结果如表2 所示。(b)改进算法检测结果(d)改进算法检测结果()改进算法检测结果(h)改进算法检测结果104Tab.2Accuracy comparison results of different modulesVGNet-GmAP/主干度

32、感知注意力(帧/s)一706647表3PASCALVOC2007test数据集下检测速度与检测精度对比Tab.3 Comparison of detection speed and detection accuracy in the PASCAL VOC2007 test dataset算法SSDYOLOv3YOLOv4YOLOv3-tinyOurs图11为6 个算法检测精度的对比折线图,红色折线图表示为改进算法的精度图走向。可以清晰地看出,算法在car、c o w、t a b l e、d o g、mb i k e、p e r-son、s h e e p、s o f a、t r a in、t

33、v 这10 个类都达到了最高精度。综上表明改进后的轻量级算法检测参数量小。若在相同的参数量下,改进算法不仅能准确识别出更多的目标数量,且对相似目标的辨别能力更强,特别是对小目标和密集图像等检测难的目标,效果有显著提升。上述实验充分说明改进后的方法有利于改善小目标、密集目标等的漏检情况。10090807050yolov340SSDyolov3-tiny30FasterYolov420ours图11数据集上2 0 种类别AP对比Fig.11AP comparison of 20 categories探测与控制学报表2 不同模块精度对比结果3.4.3不同算法检测速度与精度对比为了验证算法的检测性能,

34、将改进算法和 SSD、特征尺改进交叉速度/主干FLOPs/BVGG16130.9DarkNet53156.3CSPDarknet53128.5darknet53-tiny5.62VGNetG4.50类别YOLOv3、YO LO v 42 7、YO LO v 3-t i n y 2 8 进行实验对%比。从表3可以看出,与 SSD、YO LO v 3相比,基于81.4YOLOv3的轻量级目标检测算法的运算量与参数量82.1都成倍减少。与YOLOv3-tiny相比,虽然运算量与参83.4数量相差不大,但精度mAP增长17%。改进算法精84.1度虽逊色于YOLOv4,但需要的运算力更小。参数量/M速度

35、/(顿/s)模型大小/MB99.649.5251.258255.7598.03705.37474结论为解决当前检测模型难以适配在便携式移动设备与嵌人式平台的问题,基于YOLOv3的轻量级目标检测算法充分使用丰富的上下文信息来解决困难目标漏检问题。首先使用VGNetG作为主干,并在网络中引人改进的交叉注意力模块以提取更多上下文信息,增强网络对关键信息的辨别能力;其次,对于原网络的融合机制进行改进,引人FSSA网络融合更丰富细节的低分辨率的特征,从而进一步提高网络在密集目标环境下的检测效果。基于YOLOv3的轻量级目标检测算法在PAS-CALVOC 2007测试集上的检测精度达到了84.1%,检测

36、速度达到47 顿/s,参数量为5.37 M,证明该算法具有实时性和一定鲁棒性。改进后的算法需要进一步完善算法的速度,可针对各个模块进行优化,全面提升网络在复杂场景下目标检测性能。参考文献:1张慧,王坤峰,王飞跃.深度学习在目标视觉检测中的应用进展与展望J.自动化学报,2 0 17,43(8):12 8 9-130 5.2谢江荣,李范鸣,卫红,等.用于空中红外目标检测的增强单发多框检测器方法J.光学学报,2 0 19,39(6):2 2 3-2 31.mAP/%100.077.223681.4244.386.333.467.116.284.1王燕妮等:基于改进YOLOv3的轻量级目标检测算法3黄

37、凯奇,陈晓棠,康运锋,等。智能视频监控技术综述J.计算机学报,2 0 15,2 0(3):10 93-1118.4崔文靓,王玉静,康守强,等.基于改进YOLOv3算法的公路车道线检测方法J.自动化学,2 0 2 2,48(0 6):156 0-1568.5JDALAL N,TRIGGS B.Histograms of oriented gradi-ents for human detectionC/IEEE Computer SocietyConference on Computer Vision&.Pattern Recognition.US:IEEE,2005:886-893.6JCHEN

38、 P H,LIN C J,BERNHARD SCHOLKOPF.Atutorial on v-support vector machinesJ.Applied Sto-chastic Models in Business and Industry,2005,21(2):111-136.7JREN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with regionproposal networks JJ.IEEE Transaction on Pattern A-nalysis and M

39、achine Intelligence.2017,39(6):1137-1149.8王燕妮,刘祥,刘江.基于单阶段网络模型的目标检测改进算法J.探测与控制学报,2 0 2 1,43(2):56-6 2.9JREDMON J,FARHADI A.Yolov3:An incrementalimprovementEB/OL.(2 0 18-0 4-0 8)2 0 2 3-0 5-12.h t-tps:/arxiv.0rg/abs/1804.02767.1oJMA N N,ZHANG X Y,ZHENG H T,et al.Shuf-fleNet V2:Practical Guidelines for

40、 Efficient CNN Ar-chitecture Design C/Proceedings of the EuropeanConference on Computer Vision(ECCV).Germany:Springer,2018:116-131.11IHOWARD A G,SANDLER M,CHEN B,et al.Searching for mobileNetV3 C/Proceedings of theIEEE/CVF International Conference on Computer Vi-sion.Piscataway:IEEE,2019:1314-1324.1

41、2JCHOLLET,F.(2 0 16).Xc e p t i o n:D e e p l e a r n i n g w i t hdepthwise separable convolutionsCJ/2017 IEEE con-ference on Computer Vision and Pattern Recognition(CVPR).US:EEE,2005:1800-1807.13JRAPAPORT E,SHRIKI O,PUZIS R.Eegnas:neuralarchitecture search for electroencephalography data a-nalysis

42、 and decodingC/International Workshop onHuman Brain and Artificial Intelligence.Germany:Springer,2019:3-20.14崔家华,张云洲,王争,等.面向嵌人式平台的轻量级目标检测网络J.光学学报,2 0 19,39(4):30 7-313.15陈丽,王世勇,高思莉,等.Sentinel-2卫星的多光谱轻量级船舶目标检测算法J.光谱学与光谱分析,2 0 2 2,42(9):2862-2869.16JZHANG L Q,SHEN H B,LUO Y H,et al.Efficient105CNN arc

43、hitecture design guided by visu-alizationCJ/2022 IEEE International Conference on Multimedia andExpo(ICME).US:IEEE,2022:1-6.17HUANG S,LU Z,CHENG R,et al.FaPN:feature-a-ligned pyramid network for dense image predictionC/2021 IEEE/CVF International Conference on Com-puter Vision(ICCV).US:IEEE,2021:844

44、-853.18HUANG Z,WANG X L,HUANG C,et al.CCNet:criss-cross attention for semantic segmentationC/2019 IEEE/CVF International Conference on ComputerVision(ICCV).US:IEEE,2019:603-612.19JNEUBECK A,GOOL L.Efficient non-maximum sup-pressionCJ/International Conference on Pattern Rec-ognition.US:IEEE Computer

45、Society,2006:850-855.20JLIN T Y,DOLLAR P,GIRSHICK R,et al.Featurepyramid networks for object detectionC/2017 IEEEConference on Computer Vision and Pattern Recognition(CVPR).US:IEEE Computer Society,2017;2117-2125.21JGOINDANI A,SHRIVASTAVA M.A dynamic headimportance computation mechanism for neural m

46、achinetranslationEB/OL.2023-05-12.https:/arxiv.org/abs/2108.01377.22李阳阳,毛鹤亭,张小龙,等.利用非局部上下文信息的遥感图像小目标检测.西安电子科技大学学报,2022,49(05):117-124.23VASWANI A,SHAZEER N,PARMAR N,et al.At-tention is all you needJ Advances in neural informa-tion processing systems,2017,30.24JJIE H,LI S,GANG S,et al.Squeeze-and-exc

47、itationnetworksJJ.IEEE Transactions on Pattern Analysisand Machine Intelligence,2020,42(8):2011-2023.25FENG S,ZHAO H,SHI F,et al.CPFNet:contextpyramid fusion network for medical image segmentationJJ.IEEE Transactions on Medical Imaging,2020,39(10):3008-3018.26范丽丽,赵宏伟,赵浩宇,等.基于深度卷积神经网络的目标检测研究综述J.光学精密工程,2 0 2 0,2 8(5):1152-1164.2 7 BO CH K O V SK I Y A,W A NG C,LI A O H M.YOLOv4:Optimal speed and accuracy of object detec-tionEB/OLJ.(2 0 2 0-0 4-2 3)2 0 2 3-0 5-12.h t t p s:/ArXiv,abs/2004.10934.28张秀花,静茂凯,袁永伟,等.基于改进YOLOv3-Tiny的番茄苗分级检测J.农业工程学报,2 0 2 2,38(1):221-229.

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服