收藏 分销(赏)

一种注意力机制特征融合的小目标检测模型_陈海燕.pdf

上传人:自信****多点 文档编号:473389 上传时间:2023-10-13 格式:PDF 页数:7 大小:1.83MB
下载 相关 举报
一种注意力机制特征融合的小目标检测模型_陈海燕.pdf_第1页
第1页 / 共7页
一种注意力机制特征融合的小目标检测模型_陈海燕.pdf_第2页
第2页 / 共7页
一种注意力机制特征融合的小目标检测模型_陈海燕.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第51卷 第3期2023 年 3 月华 中 科 技 大 学 学 报(自 然 科 学 版)J.Huazhong Univ.of Sci.&Tech.(Natural Science Edition)Vol.51 No.3Mar.2023一种注意力机制特征融合的小目标检测模型陈海燕 甄霞军 赵涛涛(兰州理工大学计算机与通信学院,甘肃 兰州 730050)摘要 针对图像中小目标的特征难以有效提取,从而对小目标的检测不利的问题,提出了一种通道-空间注意力机制特征融合的小目标检测模型该模型以Faster R-CNN作为基础检测模型,首先设计了一种基于通道-空间注意力机制的特征融合方法,用于降低特征融合过

2、程中引起的混叠效应;然后设计了一种跳跃残差连接模块用于降低特征融合过程中高层特征信息的丢失;最后基于ResNet101深层特征提取能力强的特点,使用其提取特征,将提取的特征采用通道-空间注意力机制特征融合方法融合生成特征金字塔网络,并将生成的特征金字塔网络作为Faster R-CNN的主干网络在NWPU VHR-10数据集上对小目标检测的实验结果表明:本文模型的平均检测精度为82.5%,高于DSSD(55.4%)、FSSD(77.3%)、TDFSSD(76.8%)、Faster R-CNN(44.2%)和FPN(68.9%)的平均检测精度关键词 小目标检测;特征融合;注意力机制;混叠效应;特征

3、金字塔网络中图分类号 TP391.4 文献标志码 A 文章编号 1671-4512(2023)03-0060-07Small object detection model based on feature fusion of attention mechanismCHEN Haiyan ZHEN Xiajun ZHAO Taotao(School of Computer and Communication,Lanzhou University of Technology,Lanzhou 730050,China)Abstract Aiming at the disadvantage of sm

4、all object detection caused by the difficulty of feature extraction in the image,a small object detection model was proposed based on the feature fusion of channel-space attention mechanismIn this model,Faster R-CNN was used as the basic detection model First,a feature fusion method was designed bas

5、ed on channel-space attention mechanism to reduce aliasing effect caused by feature fusion Secondly,a jump residual connection module was designed to reduce the loss of high-level feature information in the process of feature fusion Finally,based on the strong deep feature extraction ability of ResN

6、et101,it was used to extract features in fast Faster R-CNNThe extracted features were fused using the feature fusion method of channel spatial attention mechanism proposed to generate the feature pyramid network,and the generated feature pyramid network was used as the backbone network of Faster R-C

7、NNThe experimental results of small object detection on NWPU VHR-10 data set show that,the average detection accuracy of this model is 82.5%,which is better than deconvolutional single shot detectors 55.4%(DSSD),feature fusion single shot multibox detectors 77.3%(FSSD),top-down feature fusion single

8、 shot multiBox detectors 76.8%(TDFSSD),Faster R-CNNs 44.2%and feature pyramid networks 68.9%(FPN)Key words small object detection;feature fusion;attention mechanism;aliasing effect;feature pyramid network小目标检测是计算机视觉中一个具有挑战性的任务,被广泛应用于自动驾驶、医疗诊断及农业监测等领域1-3得益于深度卷积神经网络(DCNN)强大的特征表征能力,出现了许多检测性能优异的基于 DCNN

9、的目标检测模型4-12Faster R-CNN 是代表性的基于 DCNN的目标检测模型之一,其在检测过程中,首先使用 RPN(region proposal network)在主干网络的顶层特征上进行感兴趣区域候选,然DOI:10.13245/j.hust.238491收稿日期 2021-10-09作者简介 陈海燕(1978-),女,副教授,E-mail:基金项目 国家自然科学基金资助项目(62161019,62061024)第 3 期陈海燕,等:一种注意力机制特征融合的小目标检测模型后将候选的感兴趣区域输入Fast R-CNN(fast region-based convolutional

10、neural network)分类和回归,从而实现目标检测11小目标在图像中的内容占比低、特征不显著和易被干扰等特点,使其可用检测特征较少,而Faster R-CNN在特征提取过程中经过多次池化,进一步丢失了小目标的特征,容易造成小目标漏检和误检1为了提高基于 DCNN 目标检测模型对小目标的检测精度,学者们对基于 DCNN的检测模型展开了大量的研究,发现 DCNN提取的低层特征具有丰富的细节信息,有利于目标定位;而高层特征具有丰富的语义信息,有利于目标的分类13同时发现融合不同深度的特征,能够提高模型的检测性能13。根据这一发现,学者们提出了大量基于特征融 合 的 检 测 模 型,比 如 D

11、SSD14,FSSD15,TDFSSD13和 FPN16,用于小目标的检测以上文献表明:特征融合能提高基于 DCNN的模型对小目标的检测精度,但使用基于元素求和通道连接的方法融合特征会引入大量背景噪声和冗余信息,容易造成混叠效应,从而对小目标的检测不利17同时,顶层特征在自顶向下的传递过程中存在信息丢失,使低层特征不能充分地利用顶层的特征信息针对特征融合引入的冗余信息问题,学者们提出使用注意力机制来降低混叠效应18-20LU等21在遥感图像目标检测中,首先融合主干网络提取的用于检测的特征,其次在融合的特征上使用 SE(squeeze-and-excitation)注意力机制消除冗余信息,在一定

12、程度上消除了冗余,但由于其只在通道方向消除,对混叠效应的抑制有限18GUO等19在特征融合中使用 SE 构建空间自适应特征融合方法,降低了融合过程中引入的背景噪声,但其只在通道方向抑制无用信息ZOU等20在遥感目标检测中使用SE注意力机制消除特征融合引入的冗余信息,以此来增强检测特征,但其也只在通道方向对特征进行了增强以上文献表明:在特征融合的基础上使用注意机制不仅能进一步提高模型的检测性能,也能够降低特征融合造成的混叠效应为了提高Faster R-CNN对小目标的检测精度,设计了一种基于通道-空间注意力机制的特征融合方法,记为FFBAM(feature fusion method based

13、 on attention mechanism),不仅在通道上抑制无用信息,而且也在空间上抑制无用信息,用于降低特征融合过程中引入的混叠效应;文献22表明,残差网络结构在特征提取过程中能够降低特征信息的丢失,设计了一种跳跃残差连接模块用于降低特征融合过程中高层特征信息的丢失,记为 SRCM(skip residual connectional module);最后基于 Resnet101能够提取不同深度特征的优势,用Resnet101作为Faster R-CNN 特征提取网络,将提取的特征使用FFBAM融合生成特征金字塔网络,并用生成的特征金字塔网络作为Faster R-CNN的主干网络,来更

14、为充分地提取小目标特征,以便更为有效地进行目标检测1 目标检测模型 目标检测模型结构如图 1 所示,由主干网络Backbone、区域候选网络RPN和Fast R-CNN网络组成Backbone负责提取图像特征,RPN网络生成候选区域,Fast R-CNN分类候选网络检测到的目标为了提取到细粒度小目标特征,设计了FFBAM 和 SRCM 两个结构,用于生成金字塔网络图中:C2,C3,C4和 C5为 Backbone 提取的特征;P2,P3,P4和 P5为融合之后用于检测的特征FFBAM是提出的基于通道-空间注意力机制的特征融合方法,图中橙色部分是提出的跳跃残差连接模块SRCM(skip resi

15、dual connectional modul)值得注意的是,本文模型与Faster R-CNN相比,只有主干网络、PRN和ROI不同,其他都相同。主干网络的特征P2,P3,P4和P5被依次输入RPN和ROI(region of interest)提取用于回归和分类的特征,RPN和 ROI图1本文模型的整体结构61华 中 科 技 大 学 学 报(自 然 科 学 版)第 51 卷的结构设置与文献16一致,因此这里仅详述提出的FFBAM和SRCM1.1基于通道-空间注意力机制的特征融合方法提出的基于通道-空间注意力机制的特征融合方法在通道和空间两个方向重标定融合特征,用于消除特征融合中引入的混叠效

16、应,结构如图 2 所示,图中:为Sigmoid函数;GAP为全局平均池化;MOC为最大池化;为模型的超参数首先使用全局平均池化获取特征的全局信息,其次在通道和空间两个方向重标定特征,最后将重标定的特征在通道方向分割并相加,得到用于检测的特征将融合的高层特征和低层特征依次记为F1RC H1 W1和F2 RC H W,将F1使用双线性插值上采样到F2的尺寸,并将上采样的F1和F2在通道方向连接并记为F R2C H W,将F的 Feature maps记为Uk RH W(k=1,2,2C)为了获取特征的全局信息,借鉴文献21的方法,将F的2C个Feature map使用全局平均池化聚合为特征描述子Z

17、 R2C 1 1全局平均池化的计算表达式为Zk=1W HiHjWui,j(1 i H,1 j W,1 k 2C),式中:Zk为F的第k个Feature map的聚合值;ui,j为F的第k个Feature map在(i,j)点的值在得到特征全局信息后,借鉴文献23的思想,采用2个卷积加一个Sigmoid函数组成一个门机制,并将其记为:WC=(W2(W1Z),用于学习通道之间的依赖关系,增强关键通道特征,其中:为 Sigmoid 函 数;W1 R2C (2C/r)和W2R(2C/r)2C分别为2个卷积的卷积核参数文献21中使用的是全连接层构成的瓶颈结构,要学习的参数量为8C3/r,为了降低参数量,

18、全部使用卷积层,此时要学习的参数量变为2C+2C/r将最终的输出WC作为通道特征重标定的权重,并将权重WC与输入特征F逐元素相乘,得到重标定的特征FC=F WC(FC R2C H W)由于在通道方向特征重标定时使用全局平均池化,在抑制通道方向无用的信息时保留了特征的全局信息,有利于小目标的检测空间注意力机制如图2的“空间”部分所示,借鉴文献23的思想,使用最大池化去聚合空间方向的信息最大池化计算表达式为Zs=max(ci,j(k)(1 i H,1 j W,1 k 2C),式中:ci,j(k)为FC的第k个Feature map在(i,j)点的值;Zs R1 H W为最大池化后的空间特征描述子之

19、后使用7 7的卷积核对Zs进行卷积操作,最后经过Sigmoid函数得到空间方向的权重为Ws=(f7 7(Zs)将空间方向的权重与Fc逐元素相乘得到空间方向重标定的特征Fs R2C H W,并将其沿着通道方向分割,将分割后的特征基于逐元素加的方式融合得到用于检测的特征Fe RC H W空间注意力机制保留了特征空间位置的关键信息,抑制无用信息,能够有效降低融合中引入的背景噪声,降低融合引起的混叠效应提出的基于通道-空间注意力机制的特征融合方法,与文献19的特征融合方法相比,有以下不同点:从通道和空间两个方向对融合特征增强,消除混叠效应,而文献19中仅在通道上增强特征;为了获取特征的全局信息,使用全

20、局平均池化进行特征聚合,而文献19中使用全局最大池化聚合信息1.2跳跃残差连接模块自顶向下特征融合过程中存在高层语义信息的丢失,对小目标的检测不利,因此设计了SRCM图3(a)是残差块的结构(X表示图像)22,为了降低特征提取中信息的丢失,加入了自身映射的残差路径图3(b)是SRCM跳跃残差连接模块,与残差块相比,残差块是自底向上特征提取过程,而SRCM是自顶向下的特征融合过程SRCM首先将高层特征使用微步卷积 Dec(Deconvolution,微步卷积核的大小为11,卷积核数是256,步长为2)、批归一化BN(BatchNorm)和线性整流函数RL(Relu)上采样到融合特征的尺度,之后再

21、将其融合 在使用SRCM过程中,针对C4与C2的融合有两种路径,如图1的AP4和BP4AP4表示P4与C2图2基于通道-空间注意力机制的特征融合结构62第 3 期陈海燕,等:一种注意力机制特征融合的小目标检测模型融合,BP4表示P5与C2融合,这里采用BP4的路径2 实验结果与分析 2.1实验数据实验数据采用NWPU VHR-10数据集24NWPU VHR-10包含10类,总共800张图像,其中650张含有目标实验中仅采用含有目标的图像,将其按20%,20%和60%的比例分成训练集、验证集和测试集NWPU VHR-10数据集中中小目标占比为89.82%为了进一步说明本文方法的有效性,也在COC

22、O数据集上进行了实验2.2评价指标为了评价本文模型的有效性,使用平均精度fAP(average precision)和平均检测精度fmAP(mean average precision)13目标检测评价指标在COCO实验中,还使用平均召回率fAR(Average Recall)13评价指标2.3实验平台实验在挂载 NVIDIA Titan V 和 NVIDIA GeForce 2080Ti 的图形操作站上完成,操作系统是Ubuntu LTS 16.04,CUDA 版本是 10.1使用的深度学习框架是Pytorch1.1,使用Python3.5.2编程为了说明本文模型对小目标检测的有效性,本文

23、模 型 的 目 标 检 测 性 能 与 DSSD14,FSSD15,TDFSSD13,Faster R-CNN11和FPN25目标检测性能进行了对比分析,所有实验均未使用数据增强2.4实验结果在实验中,将超参数设置为8,BatchSize设置为2,优化器采用SGD优化器,初始学习率10-2每5个迭代轮次(epoch)衰减为原来的0.1,训练15个迭代轮次在NWPU VHR-10数据集上的检测结果如表1所示本文模型的fmAP为 82.5%,相比于 DSSD,FSSD,TDFSSD,Faster R-CNN 和 FPN,fmAP分别高出 27.1%,5.2%,5.7%,38.3%和 13.6%这是

24、因为本文模型在融合特征时不仅在通道上,而且还在空间上抑制了冗余信息,并不是简单的基于元素求和或通道连接的融合方法13,因此能够有效抑制特征融合中引入的冗余信息对小目标检测的干扰同时,DSSD,FSSD,TDFSSD和FPN模型没有考虑特征融合中高层语义信息丢失的问题,使得负责检测小目标的低层特征未能充分利用高层特征的语义信息,造成小目标的误分类而本文模型使用的SRCM将高层的特征融合到低层特征,有效避免了高层语义信息的丢失图4是对测试集中目标检测的示例,图中4(a)是Faster R-CNN的检测结果,图4(b)是本文模型的检测结果由图4可知:Faster R-CNN对小目标存在漏检和误检,而

25、本文模型能较好地检测到小目图3残差块和SRCM示意图表1在NWPU VHR-10测试集上的结果方法DSSD320FSSD300FSSD512TDFSSD300TDFSSD512Faster R-CNNFPN本文模型BackboneResNet101VGG16VGG16VGG16VGG16VGG16ResNet101ResNet101fmAP55.465.577.367.876.844.268.982.5fAP飞机78.388.890.989.790.884.690.897.1舰船76.469.886.374.185.466.582.889.3油罐66.245.869.352.774.915.0

26、76.788.2棒球场87.289.989.789.889.988.189.790.1网球场38.546.078.255.177.836.373.979.4篮球场18.842.575.649.572.335.161.472.9田径场90.099.390.693.784.654.666.590.5港口36.278.963.877.467.329.064.781.3桥梁16.460.359.160.251.010.215.057.7汽车46.034.269.336.076.822.867.778.763华 中 科 技 大 学 学 报(自 然 科 学 版)第 51 卷标,这是由于提出的基于通道-空间

27、注意力机制的特征融合方法消除了干扰小目标检测的冗余信息,同时跳跃残差连接模块增强了表征小目标特征的高层语义信息,使模型能对小目标更好地分类3 讨论 3.1超参数对模型检测精度的影响为了分析超参数对模型检测性能的影响,表2列出了模型在不同下的fmAP从表2可知:随着的增大,模型检测精度也在增大,但在为8时模型的检测精度达到最优,之后随着的增大性能会趋于平稳,因此在实验中将其设置为83.2FFBAM中通道特征重标定和空间特征重标定对模型检测精度的影响表3所示为通道特征重标定和空间特征重标定对模型fmAP的影响,表中:C和S分别表示通道特征重标定和空间特征重标定;C-S和S-C表示特征重标定的顺序;

28、SC(CS)表示通道和空间两个方向重标定时是并列的,然后将标定的特征以元素加的方式融合从表3可知:通道特征重标定C和空间特征重标定S都可以提高模型的性能,且S对模型的性能提升更加显著,这也说明只在通道方向消除混叠效应的不足同时表明基于通道-空间注意力机制融合 的 合 理 性,本 文 实 验 按 C-S 的 顺 序 取 得 最优的fmAP图4在测试集上的定性检测示例表2不同下模型在NWPU VHR-10测试集上的结果1248163264fmAP82.081.079.482.580.282.082.0fAP飞机90.990.790.997.190.990.990.9舰船89.887.886.089

29、.388.588.288.4油罐82.986.688.188.287.884.786.8棒球场89.889.589.590.189.089.790.3网球场80.679.978.279.479.378.377.4篮球场77.077.969.072.974.674.970.9田径场89.889.195.090.585.592.291.2港口73.278.168.081.373.875.374.1桥梁65.352.850.957.755.162.765.1汽车81.077.578.278.777.783.684.9表3通道和空间特征重标定对模型fmAP的影响特征重标定CSC-SS-CSC(CS)f

30、mAP81.582.282.582.382.3fAP飞机90.990.997.190.990.9舰船89.989.689.388.488.0油罐87.384.288.288.886.8棒球场89.390.390.189.989.4网球场79.578.679.478.882.6篮球场80.477.172.979.477.5田径场89.787.290.589.892.7港口74.872.381.377.384.3桥梁50.065.657.758.247.1汽车83.285.878.781.384.264第 3 期陈海燕,等:一种注意力机制特征融合的小目标检测模型3.3跳跃残差连接模块对模型检测精度

31、的影响表 4 所示为 SRCM 对模型fmAP的影响,可见:与FPN模型相比较,使用基于通道-空间注意力机制的特征融合方法FFBAM时模型fmAP高出12.1%,加上SRCM(BP4)高出13.6%,表明提出的SRCM能提高小目标的检测精度,这是因为自顶向下的特征融合存在信息丢失,造成了小目标的误分类值得注意的是当残差连接路径为AP4和BP4时,分别高出12.3%和13.6%,所以本文模型的连接路径设为BP4,进一步说明了SRCM设计的合理性3.4COCO数据集上的实验结果表 5 所示为 COCO 数据集上的实验结果,表中:IOU表示交并比;IOU0.5,0.95表示 IOU从0.50.95(

32、间隔为0.05)的平均fmAP从表 5 可知:本文模型在 COCO 数据集上的fmAP为 34.7%,相 比 于 DSSD,FSSD,TDFSSD,Faster R-CNN 和 FPN,fmAP分别高出 1.5%,2.9%,1.3%,12.8%和1.1%而对于小目标而言,本文模型的fAP为18.3%,相比于DSSD,FSSD,TDFSSD和 FPN,fAP分别高出 5.3%,4.1%,1.1%和 0.8%实验结果进一步说明了本文模型对小目标检测的有效性4 结语 为了提高Faster R-CNN目标检测模型对小目标的检测精度,提出了一种基于通道-空间注意力机制特征融合的小目标检测模型对遥感图像和

33、COCO数据集中小目标检测的实验结果表明:提出的基于通道-空间注意力机制的特征融合方法和跳跃残差连接模块能降低特征融合造成的混叠效应和高层特征信息的丢失,有效提升模型对小目标的检测精度参 考 文 献1KANG T,WU Y,ZHOU FRecent advances in small object detection based on deep learning:a reviewJImage and Vision Computing,2020,97:1039102陈海燕,陈刚琦基于语义分割的高原鼠兔目标检测J华中科技大学学报(自然科学版),2020,48(7):7-123YOU Z X,TIA

34、N Z Q,YU J C,et alA review of object detection based on deep learningJ Multimedia Tools and Applications,2020,79:23729-237914ALEXEY B,WANG C-Y,LIAO HYOLOv4:optimal speed and accuracy of object detectionEB/OL2021-10-09https:/arxiv.org/pdf/2004.10934.pdf5DAI J F,LI Y,HE K M,et alR-FCN:object detection

35、 via region-based fully convolutional networksC/Proceedings of the 30th International Conference on Neu表4SRCM对模型性能的影响模块FFBAMSRCM(AP4)SRCM(BP4)fmAP81.081.282.5fAP飞机90.990.997.1舰船89.488.489.3油罐75.984.288.2棒球场88.989.490.1网球场79.080.079.4篮球场82.670.372.9田径场89.889.790.5港口71.980.681.3桥梁56.852.757.7汽车94.485.

36、678.7表5在COCO数据集上的检测结果方法Faster R-CNNDSSD321DSSD513FSSD300FSSD512TDFSSD300TDFSSD512FPN25*本文模型fmAPIOU为0.50,0.9521.928.033.227.131.829.533.433.634.7IOU为0.542.745.433.247.752.849.854.754.956.9IOU为0.7529.335.227.833.530.635.536.037.2fAP小目标6.213.08.714.211.117.217.518.3中目标28.335.429.235.131.935.935.636.9大目

37、标49.351.142.245.043.846.044.445.5fAR小目标11.521.815.922.317.326.230.431.1中目标43.349.144.249.946.550.051.953.5大目标64.966.458.662.059.361.963.563.8注:“*”表示复现的实验结果;“”表示相应文献中未给出数据;Backbone与表1一致65华 中 科 技 大 学 学 报(自 然 科 学 版)第 51 卷ral Information Processing SystemsBarcelonaSpain:Curran Associates Inc,2016:379-38

38、76GIRSHICK R Fast R-CNNC/Proceedings of the 2015 IEEE International Conference on Computer Vision(ICCV)New York:IEEE,2015:1440-14487GIRSHICK R,DONAHUE J,DARRELL T,et alRich feature hierarchies for accurate object detection and semantic segmentationC/Proceedings of the 2014 IEEE Conference on Compute

39、r Vision and Pattern RecognitionNew York:IEEE,2014:580-5878HE,K M,GKIOXARI,GEORGIA,et alMask R-CNNC/Proceedings of 16th IEEE International Conference on Computer Vision(ICCV)New York:IEEE,2017:2980-29889LIU W,DRAGOMIR A,DUMITRU E,et alSSD:single shot multibox detectorEB/OL 2021-10-09https:/arxiv.org

40、/pdf/1512.02325.pdf10 PIERRE S,DAVID E,ZHANG X Overfeat:integrated recognition,localization and detection using convolutional networksEB/OL2021-10-09https:/arxiv.org/pdf/1312.6229v1.pdf11 REN S Q,HE K M,GIRSHICK R,et alFaster R-CNN:towards real-time object detection with region proposal networksJIEE

41、E Transactions on Pattern Analysis and Machine Intelligence,2016,39(6):1137-114912 TIAN Z,SHEN C,CHEN H,et al FCOS:fully convolutional one-stage object detectionC/Proceedings of 2019 IEEE/CVF International Conference on Computer Vision(ICCV)New York:IEEE,2019:9626-963513 PAN H,JIANG J,CHEN G FTDFSSD

42、:top-down feature fusion single shot multibox detectorJ Signal Processing:Image Communication,2020,89:11598714 FU C Y,LIU W,ANANTH R,et alDSSD:deconvolutional single shot detectorEB/OL 2021-10-09https:/arxiv.org/pdf/1701.06659.pdf15 LI Z X,ZHAO F QFSSD:feature fusion single shot multibox detectorEB/

43、OL 2021-10-09 https:/arxiv.org/pdf/1712.00960.pdf16 LIN T-Y,PIOTR DOLLAR,GIRSHICK R,et alFeature pyramid networks for object detectionC/Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR)New York:IEEE,2017:936-94417 LIAN J,YIN Y H,LI L H,et alSmall object detecti

44、on in traffic scenes based on attention feature fusionJSensors,2021,21:303118 LU X C,JI J;XING Z Q,et alAttention and feature fusion SSD for remote sensing object detectionJIEEE Transactions on Instrumentation and Measurement,2021,70:1-919 GUO C X,FAN B,ZHANG Q,et alAugFPN:improving multi-scale feat

45、ure learning for object detectionC/Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR)New York:IEEE,2020:12592-1260120 ZOU F H,WEI X,JI W T,et alArbitrary-oriented object detection via dense feature fusion and attention model for remote sensing super-resoluti

46、on imageJNeural Computing and Applications,2020,32(18):14549-1456221 HU J,LI S;SAMUEL A,SUN G,et alSqueeze-and-excitation networksJ IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-202322 HE K M,ZHANG X Y,REN S Q,et alDeep residual learning for image recognitionC/Procee

47、dings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR)New York:IEEE,2016:770-77823 WOOL S H,PARK J C,LEE J-YCBAM:convolutional block attention moduleC/Proceedings of the 2018 European Conference on Computer Vision(ECCV)Cham:Springer,2018:3-1924 CHENG G,HAN J W,ZHOU P C,et alMulti-class geospatial object detection and geographic image classification based on collection of part detectorsJ ISPRS Journal of Photogrammetry and Remote Sensing,2014,98:119-13225 YANG J W,LU J SA FPN pytorch implementation of FPNEB/OL2021-10-09https:/

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 品牌综合 > 临存文档

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服