收藏 分销(赏)

遥感图像语义分割的空间增强注意力U型网络_宝音图.pdf

上传人:自信****多点 文档编号:610235 上传时间:2024-01-15 格式:PDF 页数:10 大小:2.02MB
下载 相关 举报
遥感图像语义分割的空间增强注意力U型网络_宝音图.pdf_第1页
第1页 / 共10页
遥感图像语义分割的空间增强注意力U型网络_宝音图.pdf_第2页
第2页 / 共10页
遥感图像语义分割的空间增强注意力U型网络_宝音图.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、http:/DOI:10.13700/j.bh.1001-5965.2021.0544遥感图像语义分割的空间增强注意力 U 型网络宝音图1,2,刘伟1,*,李润生1,李钦1,胡庆1(1.中国人民解放军战略支援部队信息工程大学数据与目标工程学院,郑州450001;2.中国人民解放军31401 部队,呼和浩特010051)F1摘要:针对基于深度学习的语义分割模型在解析遥感图像时,小尺寸目标和目标边界存在分割不准确的问题,提出一种 U 型网络模型 SGE-Unet。该模型通过优化网络结构加强模型的特征提取能力;融合空间组增强注意力,提升模型对上下文语义信息的解析能力;采用中值频率平衡交叉熵损失函数抑

2、制类别分布不均衡的影响。在 2 个数据集上进行实验,SGE-Unet 的整体准确率、平均交并比、分数和 Kappa 系数均高于主流模型,Vaihingen 数据集中小尺寸目标车的交并比和F1分数分别为 0.719 和 0.901,比次优模型提升了 16%和 11%,实验结果表明所提模型能更精准地分割小尺寸目标及目标边界。关键词:遥感图像;语义分割;深度学习;注意力;损失函数中图分类号:TP751.1;V19文献标志码:A文章编号:1001-5965(2023)07-1828-10语义分割是图像分割的一个分支,主要任务是给图像的每个像素分配语义标签,可在像素级对图像分类标识,并细粒度地描述目标,

3、已被广泛应用于基于遥感图像的土地覆盖利用分析、环境监测、灾害评估、城市规划和军事安全等任务1。近年来,随着深度学习的发展,受益于神经网络强大的表征能力,一些基于深度学习的语义分割模型在遥感图像解析中得到了较好效果2。根据研究对象的细粒程度,基于深度学习的遥感图像语义分割方法可分为基于区域的方法和基于像素的方法。基于区域的方法通常先将遥感图像按照一定策略划分区域,再通过深度学习模型分别辨识各区域信息并标注语义标签。划分区域主要依靠阈值、聚类、超像素和图论等方法,这些方法基于图像的颜色、纹理、光谱和位置等浅层次特征信息3,且需要设计人类工程特征或者专家知识支撑,因此基于区域的方法通常分割精度低、效

4、率不高。基于像素的方法能够直接对遥感图像每个像素标注语义标签,实现端到端的像素级分割。2016 年,Kampffmeyer 等4将全卷积神经网络(fullyconvolutionalnetwork,FCN)5用于遥感图像语义分割,实现了深度学习模型在遥感图像上的像素级分割。在此基础上,Guo 等6融合集成学习方法,提升遥感图像中小尺寸目标的分割精度。针对遥感图像目标方向尺寸多变的问题,Li7和 Alam8等在 U-Net9基础上使用不对称卷积块和索引池化提升模型对遥感图像中多方向目标的辨识能力。张小娟和汪西莉10利用多尺度特征融合增强模型对遥感图像目标尺寸的敏感度。Feng等11构建邻域像素亲

5、和损失函数,使模型更精准地分割遥感图像的目标边界。肖春姣等12通过条件随机场捕获上下文信息,对遥感图像的分割结果优化处理。翟鹏博13和杨军14等采用空洞卷积增大感受野,将数字地表模型(digitalsurfacemodel,DSM)信息和图像信息融合进行训练,构建双路径网络结构提升分割精度。基于深度学习的语义分割在解析遥感图像上收稿日期:2021-09-10;录用日期:2022-02-25;网络出版时间:2022-03-1808:58网络出版地址: J.北京航空航天大学学报,2023,49(7):1828-1837.BAO Y T,LIU W,LI R S,et al.Semantic seg

6、mentation of remote sensing images based on U-shaped network combined with spatialenhance attentionJ.Journal of Beijing University of Aeronautics and Astronautics,2023,49(7):1828-1837(in Chinese).2023年7月北京航空航天大学学报July2023第49卷第7期JournalofBeijingUniversityofAeronauticsandAstronauticsVol.49No.7取得了可观的成绩

7、,然而,遥感图像地物信息丰富,目标尺寸多变,同类目标之间和不同类目标之间尺寸差别很大,并且目标形状不规则,这些因素影响小尺寸目标和目标边界的分割效果11。造成上述问题的原因可归结为:各类别目标的像素数量分布不均衡;目标边界信息在整幅图像中占比少。网络模型如果平等地计算像素类别信息,就会导致小尺寸目标和目标边界信息被淹没。针对上述分析,为提升遥感图像中小尺寸目标和目标边界的分割效果,本文提出了融合空间组增强注意力15的 U 型网络(spatialgroupenhanceandU-net,SGE-Unet)结构用于遥感图像语义分割。为增 强 特 征 提 取 能 力,在 编 码 和 解 码 部 分

8、使 用EfficientNet16做基础骨干网络,引入空间组增强注意力机制加强对语义信息的理解。在训练阶段,将中值频率平衡交叉熵作损失函数用于反馈训练,抑制各类别像素数量分布不均衡的影响。在预测阶段,用拼接策略消除大尺寸遥感图像分割拼接后预测结果的拼接痕迹。1原理与方法1.1整体网络模型设计UNet+语义分割模型是一种 U 型网状的编码解码器结构,其密集的跳跃连接可以获取更多语义信息17。在 UNet+基础上改进特征提取模块,使用 EfficientNet16作为基础结构增强特征提取能力,在编码和解码部分添加空间组增强注意力模块,进一步提升模型解析语义能力。SGE-Unet 网络结构如图 1

9、所示。图中向下的实线箭头表示 2 倍下采样的编码过程,其中前 2 层为了保留背景信息采用了最大池化,后 2 层为了提取特征信息采用了平均池化。向上的实线箭头表示 2 倍上采样的解码过程,包括转置卷积和反池化;虚线箭头表示跳跃连接,将多张特征图进行融合,丰富特征信息。经过最后 1 个卷积块后,通过 Softmax 分类得到最终的分割结果。E0,0E1,0E2,0E3,0E4,0C0,1C1,1C2,1C3,1C0,2C1,2C2,2C0,3C1,3C0,4下采样上采样跳跃链接卷积块输入图像分割结果注意力模块Ci,jEi,jEfficientNet图1SGE-Unet 结构Fig.1Structu

10、reofSGE-Unet1.2空间组增强注意力模块遥感图像中不仅包含地物类别等有效信息,也包含着云、雾、遮挡等干扰信息。对于特定的类别标签,如果与原图中位置对应,就能提取正确的语义特征,如果由干扰等原因导致类别标签与原位置不能对应,就会造成错误的学习,混淆正确的语义特征,导致分类困难15。同时,在基于卷积神经网络的语义分割中,下采样会导致小尺寸目标的特征信息进一步缩小甚至消失,致使特征信息在上采样过程中较难恢复,从而造成辨识困难14。注意力机制类似于人观察环境,通过对特征图加权处理给予局部重要信息更多的关注,有助于增强特征的表达能力,降低噪声干扰,加强模型对特征信息的解析18。xiX=x1,x

11、m mg针对遥感图像小尺寸目标和目标边界较难准确分割的情况,采用空间组增强注意力15提升局部信息的特征表达能力。空间组增强注意力将特征图根据通道数量 C 均分为多组子特征图,各组子特征图在空间的每个位置都有特征,则各组包含的特征为(为特征图的宽和高的乘积),组语义信息 可通过空间平均函数衡量,空间平均函数定义为g=F(X)=1mmi=1xiX=x1,xm(1)XmxiF(X)式中:为每组在空间中个位置特征信息的合集;为空间平均函数。第7期宝音图,等:遥感图像语义分割的空间增强注意力 U 型网络1829xigci将位置特征信息与该组语义信息 相乘可得到位置特征信息的加权系数:ci=gxi=gxi

12、cosi(2)ixigxigixici式中:为位置特征信息与语义信息 之间的夹角。显然位置特征信息越大,更接近 的方向(即更小),该位置特征信息越重要,因此,可以有效衡量各位置特征信息的贡献情况。cici为弱化加权系数 的数值影响,需对 进行归一化处理:c=1mmj=1cj(3)c=1mmj=1(cjc)2(4)ci=cicc(5)ccci ci式中:和分别为所有加权系数 的均值和标准差;为经过归一化处理的加权系数。cixi xi将 与对应的位置特征信息相乘,即可得到加权的位置特征信息:xi=xi ci(6)X=x1,xm组内所有的位置特征信息进行加权处理后,即可获得增强后的组特征。因各组关注

13、的区域都是独立的,最终将增强的组特征融合,即可更有效地关注目标区域。空间增强注意力在充分利用全局信息的基础上,根据语义信息的贡献程度赋予各组对应空间位置权重,增强关注区域的语义特征学习,更有利于在局部区域建立上下文联系,从而更好地指导训练模型。1.3中值频率平衡交叉熵损失函数可以评估模型预测值与样本真实值之间的差异度,是指导模型学习的重要因素,根据不同的任务需求选择合适的损失函数,更有助于训练出性能更好的模型19。对于遥感图像语义分割任务,像素级的类别标签会造成较大的类别分布不均衡。例如,在国际摄影测量和遥感学会(Interna-tionalSocietyforPhotogrammetryan

14、dRemoteSensing,ISPRS)发布的 Vaihingen 语义分割数据集20中,不透水表面类别的像素数量超过车类别像素数量20 倍。中值频率平衡交叉熵损失函数可以减弱类别分布不均衡的影响21,其可定义为L=1NNn=1Mc=1lnclg(pnc)wc(7)wc=median(fc|c M)fc(8)lnc=0样本n的真实值标签不为c类1样本n的真实值标签为c类(9)NMwcc pncncfcclnc式中:为预测的样本数量;为类别数量;为类别 的权重;样本 预测为类别 的概率;为类别的像素频率;median 为取所有类别像素频率的中位数;为符号函数。wc由式(8)可知,权重以类别的像

15、素频率作分子,频率越高则权重越小,从而平衡了类别分布不均衡的问题。2实验及结果分析2.1数据集及数据预处理选用 ISPRS 发布的 Vaihingen 语义分割数据集20和 Potsdam 语义分割数据集20进行实验来验证本文网络模型的有效性。Vaihingen 数据集用数字航拍方式采集自德国的 Vaihingen,包含 33 张带有语义标签的遥感图像,空间分辨率为 0.09m,图像尺寸分别为 1000 像素4000 像素和 4000 像素1000 像素,遥感图像包含近红外(IR)、红(R)和绿(G)3 个波段。Potsdam 数据集用数字航拍方式采集自德国的 Potsdam,包含38 张带有

16、语义标签的遥感图像,空间分辨率为0.05m,图像尺寸为 6000 像素6000 像素,遥感图像包含红(R)、绿(G)和蓝(B)3 个波段。每个数据集均被标注为不透水表面(如道路,RGB:255,255,255)、建 筑(RGB:0,0,255)、树(RGB:0,255,255)、低值被(RGB:225,0,225)、车(RGB:255,255,0)和背景(不属于前 5 类的其他地物类别,RGB:255,0,0)共 6 种地物类别。这 2 个数据集都以城市场景为主,Vaihingen 数据集中有许多独立的建筑,且与植被交错分布,Potsdam 数据集则有大量建筑群和狭窄的街道,分布相对分散。实验

17、过程中,参考文献 22、23 的数据集配置方式,将数据集按表 1 进行分配,表中数字为图像编号。因选用数据集的遥感图像尺寸较大,难以直接输入网络模型,需先将遥感图像裁剪为多幅小尺寸子图像,再分别输入网络模型进行预测,而后拼接得到最终分割结果。如不采取任何措施,有可能产生如图 2 所示的拼接痕迹。产生拼接痕迹的主要原因是:原始遥感图像经过裁剪操作,小尺寸子图像边缘的地物信息不完整,导致在小尺寸子图像中丢失部分上下文信息。1830北 京 航 空 航 天 大 学 学 报2023年遥感图像语义标签分割结果图2拼接痕迹示意图Fig.2Seamaftersplicing为消除拼接痕迹,采取一种拼接策略11

18、。如图 3所示,对遥感图像以滑窗重叠24的方式裁剪成小尺寸子图像,将小尺寸子图像经网络模型得到预测结果,随后按顺序进行拼接。需要注意的是,在拼接时忽略小尺寸子图像预测结果的边缘区域。图 3中虚线区域是裁剪的尺寸,即输入网络模型的尺寸,实线区域是得到预测结果后保留的区域,b 为滑窗重叠的步幅。经实验对比分析,b 仅需要大于最小目标尺寸即可较好消除拼接痕迹。b图3拼接策略Fig.3Splicingmethod实验中,将 2 个数据集按滑窗重叠步长取 50 像素的方式裁剪为 512 像素512 像素的子图像,同时对训练集的图像通过旋转、缩放、翻转、颜色变换、添加噪声、随机擦除等方式扩充数据以提升模型

19、的泛化能力。2.2评价标准F1为了评估本文网络模型的性能,使用整体准确率 OA、平均交并比 mIoU、分数和 Kappa 系数等评价指标进行分析。OA 表示预测正确像素占全部像素比例,mIoU 是各类 IoU 的平均,IoU 即预测结F1果与真值标签的交集与并集之比,用于评价分割区域的完整性,分数则结合了精准率和召回率,Kappa 系数用于评价预测结果和标签真值的近似程度。这些评价指标侧重点不同,综合各评价指标能更准确全面了解模型性能。相应计算公式为OA=ni=1piini=1nj=1pij(10)IoU(k)=pkknj=1(pkj+pjk)pkk(11)mIoU=1nni=1IoU(i)(

20、12)P(k)=pkknj=1pkj(13)R(k)=pkknj=1pjk(14)F(k)1=2P(k)R(k)P(k)+R(k)(15)F1=1nni=1F(i)1(16)Kappa=(ni=1nj=1pij)ni=1piini=1(nj=1pijnj=1pji)(ni=1nj=1pij)2ni=1(nj=1pijnj=1pji)(17)nkkpijijpiipjiPR式中:为类别数量;表示第 类;表示真值为类,而预测值为 类的像素,即假反例,相应的为真正例,为假正例;为精准率,表示预测为正例的结果中预测对的比例;为召回率,表示真值为正例的结果中预测对的比例。2.3实验参数设置实验平台环境为

21、Windows10操作系统搭建PyTorch1.7 框架,CPU 型号为 12 核 IntelXeonGold6226表1数据集分配Table1Allocationofdataset类别VaihingenPotsdam训练集1,3,11,13,15,17,21,26,28,32,34,372_12,3_10,3_11,3_12,4_11,4_12,5_10,5_12,6_7,6_8,6_9,6_10,6_12,7_7,7_9,7_10,7_11,7_12验证集5,7,23,302_11,4_10,5_11,7_8测试集2,4,6,8,10,12,14,16,20,22,24,27,29,31,

22、33,35,382_10,2_13,2_14,3_13,3_14,4_13,4_14,4_15,5_13,5_14,5_15,6_13,6_14,6_15,7_13第7期宝音图,等:遥感图像语义分割的空间增强注意力 U 型网络18312.70GHz,配置 64GB 内存,搭载 2 块 NVIDIA 公司的 RTX5000 显卡,显存为 216GB,使用 11.0 版本的 CUDA 及 8.2.0 版本的 cudnn 加速训练。在训练过程中,使用 Adam 优化器25,初始学习率为 0.001,权重衰减为 0.0005,损失函数使用中值频率平衡交叉熵,学习率衰减策略采用 Poly 衰减策略26,

23、即用式(18)调整学习率:lrepoch=lreopch1(1epochmax_epoch)0.9(18)lrepochlrepoch1max_epoch式中:为当前 epoch 的学习率;为前一次epoch 的学习率;为设置的最大 epoch。max_epoch实验中,设为 200,每个 epoch 后用验证集进行评估,如果连续 10 个 epoch 的评价指标没有提升,则终止训练。2.4结果分析SGE-Unet 网络模型的全局分割结果如图 4 所示,图 4(a)遥感图像的第 1 行和第 2 行分别选自 Vai-hingen 数据集和 Potsdam 数据集。观察图 4 可知,SGE-Une

24、t 在 2 个数据集上的分割结果较好,分割的目标边界清晰、可辨识性高,没有明显的拼接痕迹。交错分布的树和建筑能准确分割,对于大尺寸目标建筑和小尺寸目标车的分割效果都比较好,易混淆的低植被和树分割结果也与标签相近,甚至密集分布的车都能逐个区分。但也存在部分误检情况,主要出现于目标边界分布情况复杂及阴影、遮挡等干扰因素较多区域。说明 SGE-Unet 的分割性能较好,能准确地分割小尺寸目标和目标边界。F1表 2 为 SGE-Unet 与当前遥感图像语义分割的主流模型 FCN5、SegNet21、DeepLabV326、SCAtt-NetV227和 UNet+17在 Vaihingen 数据集上的语

25、义分割结果。如表 2 所示,SGE-Unet 在 OA、mIoU、分数和 Kappa系数这 4 项综合评价指标上都达到(a)遥感图像(b)标签图像建筑车树低植被不透水表面背景(c)SGE-Unet图4SGE-Unet 全局分割结果Fig.4GlobalsegmentationresultsofSGE-Unet表2Vaihingen 数据集上的语义分割结果Table2SemanticsegmentationresultonVaihingendataset模型IOUF1OAmIoUF1Kappa不透水表面建筑低植被树车不透水表面建筑低植被树车FCN50.6690.7610.5060.6970.63

26、40.8010.8640.6870.8220.7680.8230.6530.7880.783SegNet210.7530.8050.6560.7050.4580.8590.8920.7920.8270.6290.8450.6750.8000.791DeepLabV3260.8220.9120.7110.7700.5680.9020.9540.8310.8700.7240.8580.7570.8560.809SCAttNetV2270.8040.8230.6670.6710.5440.8910.9030.8010.8030.7050.8550.7020.8210.788UNet+170.7830

27、.8780.6140.7160.6190.9520.9520.8170.9310.8090.8540.7220.8920.808SGE-Unet0.8030.8900.7060.8300.7190.9350.9660.9340.9410.9010.8660.7900.9350.8241832北 京 航 空 航 天 大 学 学 报2023年了最高结果,说明有较好的分割效果。在各类型目标中,SGE-Unet的 IoU 和 F1分数达到最高或次高结果,优于其他模型,尤其是小尺寸目标车的 IoU 和 F1分数比次高模型有近 0.1 的提升,IoU 提升了 16%,F1分数提升了 11%,远高于其他模型

28、。在树和低植被这 2 类易混淆目标上的 F1分数最高。同主流模型比较说明,SGE-Unet 能更精准分割目标,特别是小尺寸目标和易混淆目标。表 3 为各网络模型在 Potsdam 数据集上的语义分割结果。可以看到,与在 Vaihingen 数据集上的结果一样,SGE-Unet 模型在综合评价指标和各类单项评价指标上都能获得较好成绩,仅不透水表面和建筑的 IoU 得到次高结果,但与最高结果相差不到0.04,基本持平。SGE-Unet 在 2 个不同的数据集上都能获得较好分割结果,说明模型的泛化能力较强。表3Potsdam 数据集上的语义分割结果Table3Semanticsegmentation

29、resultonPotsdamdataset模型IOUF1OAmIoUF1Kappa不透水表面建筑低植被树车不透水表面建筑低植被树车FCN50.7760.7990.7200.6700.7970.8740.8890.8370.8200.8870.8080.7520.8610.781SegNet210.8540.9120.7860.7570.8810.9210.9540.8800.8620.9370.8110.8380.9110.782DeepLabV3260.8820.9440.7890.7450.8710.9380.9710.8820.8540.9310.8350.8460.9150.799S

30、CAttNetV2270.8180.8880.7070.6630.8030.9010.9410.8290.7970.8910.8790.7760.8720.805UNet+170.8640.9230.7810.7670.8650.9410.9740.8950.8830.9330.8720.8400.9250.828SGE-Unet0.8790.9400.8150.7950.8910.9550.9820.9050.9570.9690.8830.8640.9540.843图 5 为 SGE-Unet 和 UNet+在 Vaihingen 数据集上的特征热图及局部分割结果。对比 SGE-Unet 和

31、UNet+的特征热图,SGE-Unet 更多集中于车等小尺寸目标,且可以辨识出部分建筑和车的轮廓,说明 SGE-Unet 更关注小尺寸目标和目标边界。观察局部分割结果,4 个场景中 SGE-Unet 结果与遥感图像和标签的大部分区域相近,尤其是车、建筑和不透水表面 3 类基本完全一致。特别是在图 5 的红色标注区域,图 5(a)遥感图像的第 1 行图中被阴影遮盖的车、图 5(a)遥感图像的第 2 行图中紧密分布的车、图 5(a)遥感图像的第 3 行图中建筑边界及图 5(a)遥感图像的第 4 行图中被阴影遮盖的道(a)遥感图像(b)UNet+特征热图(c)SGE-Unet特征热图(d)标签图像(

32、f)SGE-Unet结果(e)UNet+结果图5Vaihingen 数据集上的特征热图及局部分割结果Fig.5FeatureheatmapandlocalsegmentationresultsonVaihingendataset第7期宝音图,等:遥感图像语义分割的空间增强注意力 U 型网络1833路,SGE-Unet 分割结果更好,在小尺寸目标的完整性和目标边界的精细度方面 SGE-Unet 明显优于UNet+。图 6 为 SGE-Unet 和 UNet+在 Potsdam 数据集上的特征热图及局部分割结果,为了验证模型性能,所选场景包含目标被遮挡、目标模糊等情况。与在 Vaihingen 数

33、据集上一样,特征热图和分割结果表明,相比于 UNet+,SGE-Unet 在小尺寸目标和目标边界上的分割效果更好,分割结果更清晰、更精准。但是也有部分区域值得关注,对于图 5(a)遥感图像的第 1 行图中左下红色椭圆形标注区域的不透水表面在图 5(f)SGE-Unet 结果的第 1 行图中被识别为车,从图 5(a)遥感图像的第 1 行图中可发现该处有被阴影遮盖的车,应当为标签错误。对于图 5(a)遥感图像的第 3 行图,左侧红色方框标注区域的低植被在图 5(f)SGE-Unet 结果的第 3 行图中被识别为建筑,从图 5(a)遥感图像的第 3 行图可判断出该处为建筑,应为标签错误;右侧红色方框

34、标注区域中图 5(f)SGE-Unet 结果的第 3 行图中的分割结果虽然与图 5(d)标签图像的第 3 行图的标签一致,但从图 5(a)遥感图像的第 3 行图可知该区域地物信息较为复杂且被阴影遮盖,观察分析图 5(e)UNet+结果的第 3 行图的分割结果应当更符合实际情况。对于图 6(a)遥感图像的第 1 行图,红色斜方框标注区域的部分不透水表面在图 6(f)SGE-Unet 结果的第 3 行图中被识别为树或者低植被,从图 6(a)遥感图像的第 1 行图发现该标识区域有几株不明显的植被,不属于不透水表面类型,显然是标签错误,且 SGE-Unet 的分割结果更准确。对于图 6(a)遥感图像的

35、第 2 行图,左侧红色方框标注区域的车在图 6(f)SGE-Unet 结果的第 2 行图中被识别为建筑,观察图 6(a)遥感图像的第 2 行图可知该处确有车辆,由于成像过于扭曲,导致模型无法辨认;右侧红色方框标注区域的树在图 6(f)SGE-Unet 结果的第 2 行图中被识别为车,从图 6(a)遥感图像的第 2 行图中可以发现被树遮挡的车,应属于标签错误。2 个不同数据集上的特征热图及局部分割结果进一步说明 SGE-Unet 模型的泛化性能较好。(a)遥感图像(b)UNet+特征热图(c)SGE-Unet特征热图(d)标签图像(f)SGE-Unet结果(e)UNet+结果图6Potsdam

36、数据集上的特征热图及局部分割结果Fig.6FeatureheatmapandlocalsegmentationresultsonPotsdamdataset表4 和表5 分别为在Vaihingen 数据集和Potsdam数据集上的消融实验。可以看到,SGE-Unet 在大部分综合评价指标和各类单项评价指标上相较于UNet+有明显提升,特别是对于小尺寸目标车的 IoU和 F1提升较为显著。消融实验结果说明,SGE-Unet的改进有效提升了语义分割效果,尤其是小尺寸目标。表 6 列出了各网络模型的参数量和计算复杂度对比。模型参数量直接影响计算机的硬件消耗,1834北 京 航 空 航 天 大 学 学

37、 报2023年参数量越少,对硬件的需求也越低。浮点运算量则影响模型的运算速度,浮点运算量越少,运算速度越快。SGE-Unet 的评价指标得分最高,同时参数量较少,计算复杂度较低,说明模型对计算机硬件的性能要求不高。3结论通过研究基于深度学习的遥感图像语义分割方法,提出 SEG-Unet 模型提升小尺寸目标和目标边界分割效果,通过实验分析可以得出如下结论:F11)SGE-Unet 模型在 Vaihingen数据集上实验结果的 OA、mIoU、分数和 Kappa 系数分别达到0.866、0.790、0.935 和 0.824,与主流模型相比均为最高值。2)SGE-Unet 模型可以提升小尺寸目标和

38、目标边界的分割效果,对易混淆目标有更好区分能力,甚至有遮挡、阴影等干扰的情况下也具备一定的辨识能力。3)SGE-Unet 模型对计算机硬件性能要求较低。参考文献(References)YUANXH,SHIJF,GULC.Areviewofdeeplearningmethodsfor semantic segmentation of remote sensing imageryJ.ExpertSystemswithApplications,2021,169:114417.1XINGS,XIEQ,WANGM.Semanticsegmentationforremotesensing images b

39、ased on adaptive feature selection networkJ.IEEEGeoscienceandRemoteSensingLetters,2022,19:8006705.2蒋晨琛,霍宏涛,冯琦.一种基于PCA的面向对象多尺度分割优化算法J.北京航空航天大学学报,2020,46(6):1192-1203.JIANGCC,HUOHT,FENGQ.Anobject-orientedmulti-scalesegmentationoptimizationalgorithmbasedonPCAJ.JournalofBeijing University of Aeronautics

40、 and Astronautics,2020,46(6):1192-1203(inChinese).3KAMPFFMEYERM,SALBERGAB,JENSSENR.Semanticseg-mentationofsmallobjectsandmodelingofuncertaintyinurbanre-motesensingimagesusingdeepconvolutionalneuralnetworksC/IEEE Conference on Computer Vision and Pattern RecognitionWorkshops(CVPRW).Piscataway:IEEEPre

41、ss,2016:680-688.4SHELHAMERE,LONGJ,DARRELLT.Fullyconvolutionalnet-worksforsemanticsegmentationJ.IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(4):640-651.5GUOR,LIUJB,LIN,etal.Pixel-wiseclassificationmethodforhigh resolution remote sensing imagery using deep neural6表4Vaihingen 数据集上的消融

42、实验Table4AblationexperimentsresultonVaihingendataset模型IOUF1OAmIoUF1Kappa不透水表面建筑低植被树车不透水表面建筑低植被树车UNet+0.7830.8770.6130.7160.6190.9730.9520.8170.9300.8090.8530.7220.8960.808UNet+&EfficientNet0.8150.9110.6270.7210.6550.9760.9670.8230.9370.8320.8660.7460.9070.825UNet+&EfficientNet&SGE0.8130.9010.6260.722

43、0.7140.9710.9630.8260.9380.8940.8670.7550.9180.824表5Potsdam 数据集上的消融实验Table5AblationexperimentsresultonPotsdamdataset模型IOUF1OAmIoUF1Kappa不透水表面建筑低植被树车不透水表面建筑低植被树车UNet+0.8110.9050.6950.6660.8040.9650.9740.8950.8830.9310.87207760.9300.828UNet+&EfficientNet0.8290.9180.7110.6910.8100.9600.9860.8920.9090.9

44、430.8790.7920.9380.839UNet+&EfficientNet&SGE0.8260.9150.7090.6940.8230.9550.9820.8980.9130.9700.8830.7930.9440.843表6各模型的参数量和计算复杂度对比Table6Comparisonofparametersandcomputationalcomplexityofdifferentmodes模型参数量/MB计算复杂度GFLOPSOAF1VaihingenPotsdamVaihingenPotsdamFCN521.3019.200.8230.8080.6210.757SegNet2118

45、.82117.740.8450.8110.6750.838DeepLabV32626.01109.340.8580.8350.7570.846UNet+1726.7973.770.8540.8720.7220.840SGE-Unet20.0139.130.8660.8830.7900.864第7期宝音图,等:遥感图像语义分割的空间增强注意力 U 型网络1835networksJ.ISPRSInternationalJournalofGeo-Information,2018,7(3):110.LIR,DUANCX,ZHENGSY,etal.MACU-Netforsemanticsegmentat

46、ion of fine-resolution remotely sensed imagesJ.IEEEGeoscienceandRemoteSensingLetters,2022,19:8007205.7ALAMM,WANGJF,CONGGP,etal.ConvolutionalneuralnetworkforthesemanticsegmentationofremotesensingimagesJ.MobileNetworksandApplications,2021,26(1):200-215.8RONNEBERGERO,FISCHERP,BROXT.U-Net:Convolutionaln

47、etworksforbiomedicalimagesegmentationC/InternationalCon-ferenceonMedicalImageComputingandComputer-AssistedInter-vention.Berlin:Springer,2015:234-241.9张小娟,汪西莉.完全残差连接与多尺度特征融合遥感图像分割J.遥感学报,2020,24(9):1120-1133.ZHANGXJ,WANGXL.Imagesegmentationmodelsofremotesensing using full residual connection and multi

48、scale featurefusionJ.JournalofRemoteSensing,2020,24(9):1120-1133(inChinese).10FENGY,DIAOW,SUNX,etal.NPALoss:Neighboringpixelaffinity loss for semantic segmentation in high-resolution aerialimageryJ.ISPRSAnnalsofthePhotogrammetry,RemoteSensingandSpatialInformationSciences,2020,V-2-2020(I-3):475-482.1

49、1肖春姣,李宇,张洪群,等.深度融合网结合条件随机场的遥感图像语义分割J.遥感学报,2020,24(3):254-264.XIAOCJ,LIY,ZHANGHQ,etal.Semanticsegmentationofremotesensingimagebasedondeepfusionnetworksandconditionalran-domfieldJ.JournalofRemoteSensing,2020,24(3):254-264(inChinese).12翟鹏博,杨浩,宋婷婷,等.结合注意力机制的双路径语义分割J.中国图象图形学报,2020,25(8):1627-1636.ZHAIPB,

50、YANGH,SONGTT,etal.Two-pathsemanticseg-mentationalgorithmcombiningattentionmechanismJ.JournalofImageandGraphics,2020,25(8):1627-1636(inChinese).13杨军,于茜子.结合Atrous卷积的FuseNet变体网络高分遥感影响语义分割J.武汉大学学报(信息科学版),2022,47(7):1071-1080.YANGJ,YUXZ.Semanticsegmentationofhigh-resolutionre-motesensingimagesbasedonimpr

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服