收藏 分销(赏)

基于显著性语义协同的校园道路场景分割.pdf

上传人:自信****多点 文档编号:579299 上传时间:2024-01-02 格式:PDF 页数:8 大小:3.71MB
下载 相关 举报
基于显著性语义协同的校园道路场景分割.pdf_第1页
第1页 / 共8页
基于显著性语义协同的校园道路场景分割.pdf_第2页
第2页 / 共8页
基于显著性语义协同的校园道路场景分割.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 42 卷第 4 期2023 年 7 月Vol.42No.4Jul.2023JOURNAL OF HENAN POLYTECHNIC UNIVERSITY(NATURAL SCIENCE)河南理工大学学报(自然科学版)基于显著性语义协同的校园道路场景分割刘蓝蓝1,2,杜敏敏1,郑伟2,司马海峰1(1.河南理工大学 软件学院,河南 焦作 454000;2.河南理工大学 文法学院,河南 焦作 454000)摘要:针对复杂场景图像语义分割精度低、细小目标识别能力不足等问题,提出基于显著性语义协同学习的校园道路场景分割算法,并在实时网络模型 LinkNet基础上对该算法加以改进。首先,在编码阶段引入

2、空洞空间金字塔池化模块,通过扩大视野提取更丰富的上下文语义信息,提升细小目标的分割能力;其次,采用协同学习思想,将语义分割与显著性检测的特征提取过程进行共享。通过共享卷积层特征,语义分割任务从显著性的学习过程中受益,进而提高分割模型的准确率。为了验证算法性能,在 Cityscapes数据集上进行实验。结果表明,与经典的语义分割方法进行对比,本文算法能进一步提高场景内各类目标分割精确度,整体精度达到67.91%,比原 LinkNet模型提高了 8.14%。关键词:校园安全;图像语义分割;协同学习;显著性语义中图分类号:TP391文献标志码:A文章编号:1673-9787(2023)4-148-8

3、Campus scene segmentation based on salient semantic collaborativeLIU Lanlan1,2,DU Minmin1,ZHENG Wei2,SIMA Haifeng1(1.School of Software,Henan Polytechnic University,Jiaozuo 454000,Henan,China;2.Faculty of Arts and Law,Henan Polytechnic University,Jiaozuo 454000,Henan,China)Abstract:Aimed at low segm

4、entation accuracy and insufficient recognition of small targets,a semantic segmentation algorithm based on salience collaborative was proposed,it was an improved model of the real-time network LinkNet.Firstly,the Atrous Spatial Pyramid Pooling was introduced to enlarge receptive field.This measure w

5、as able to enrich the context semantic information,thus the segmentation ability of small targets could be improved.Secondly,collaborative learning was adopted to share feature extraction process.The processes included semantic segmentation and saliency detection.The segmentation task benefited from

6、 training of saliency by sharing the features of convolution layer,then the accuracy of this model was improved.The proposed model was trained on the Cityscapes dataset to verify the performance.Experiment results showed that the proposed algorithm improved the accuracy of various targets of scene t

7、o 67.91%,which was 刘蓝蓝,杜敏敏,郑伟,等.基于显著性语义协同的校园道路场景分割 J.河南理工大学学报(自然科学版),2023,42(4):148-155.doi:10.16186/ki.1673-9787.2022070040LIU L L,DU M M,ZHENG W,et al.Campus scene segmentation based on salient semantic collaborative J.Journal of Henan Polytechnic University(Natural Science),2023,42(4):148-155.doi

8、:10.16186/ki.1673-9787.2022070040收稿日期:2022-07-18;修回日期:2022-12-07基金项目:国 家 自 然 科 学 基 金 资 助 项 目(61602157);河 南 省 科 技 攻 关 计 划 项 目(202102210167);河 南 省 高 校 创 新 团 队 项 目(19IRTSTHN012);河南理工大学博士基金资助项目(B2016-37)第一作者简介:刘蓝蓝(1982),女,河南焦作人,副教授,主要从事计算机视觉、智慧校园、高等教育等方面的教学和研究工作。Email:通讯作者简介:司马海峰(1982),男,河南濮阳人,博士,副教授,主要

9、从事图像处理,人工智能和计算机视觉等方面的教学和研究工作。Email:O S I D第 4 期刘蓝蓝,等:基于显著性语义协同的校园道路场景分割8.14%higher than the original LinkNet model.Key words:campus safety;image semantic segmentation;collaborative learning;salience semantic0引 言面向校园的视频图像监控与智能处理是安全智慧校园建设的重要内容,为了能够更好地发挥实时监控与智能处理技术对构建智慧教育管理体系的作用,图像的目标分割与识别效率是关键。图像语义分割是

10、根据图像中各个类别的语义信息,对图像进行像素级的类别预测。作为计算机视觉的基本任务之一,在目标跟踪检测、场景分类,异常行为分析和增强现实等领域有着广泛的应用前景1。校园内道路场景图像具有内容丰富、目标尺度不一等特点,是安全监控的重点。同时,道路场景图像分割也备受国内外研究学者的关注,其分割准确度是目标定位和识别的基础。近些年,随着深度学习的发展,图像语义分割性能取得显著性提高。LONG J 等2提出的全卷积神经网络(fully convolutional networks,FCN)首次实现端到端的语义分割,该模型可以接受任意尺寸的图像输入,实现逐像素级的类别预测,极大地推动了分割方法的进展。为

11、了应对不同的问题与需求,在 FCN 模型的基础上出现了 UNet3、SegNet4、DeepLab5、PSPNet6等一系列端到端的语义分割算法。同样,基于深度学习的道路图像语义分割也取得了一定发展。目前语义分方法大多都依赖于 CNN 的结构和编码器-解码器框架。通过编码器进行特征提取,多层卷积获取富含语义信息特征图,并设计解码器得出最后的分割结果4-6。FAN R 等7在 ResNet的基础上进行改进,提出了 PT-ResNet 网络,通过结合透视变换算法提 高 道 路 图 像 的 相 似 性;A.Abdollahi 等8基 于VNet 模型,将交叉熵损失和 Dice 损失结合,提出一种新的

12、端到端的图像语义分割模型,提高了分割的准确度。随后,基于 Transformer 的分割方法突破了 CNN的局限性,它将输入的图像 Token化,然后利用自注意力机制使模型从全局的角度去理解图片9-10。深度学习的出现提高了图像语义分割的准确度,但是对于道路场景中的细节物体的分割仍是一项挑战。全卷积分割模型的优化研究主要集中在提高模型的精度上,设置大规模的特征通道数和卷积核数量,带来了冗余,并忽略了模型的效率和实时性。随后,多种改进的 Linknet模型 被 用 于 语 义 分 割、道 路 和 建 筑 物 提 取11-13。Linknet模型通过 Encoder的多次下采样后损失了一些空间信息

13、,而这些损失的空间信息在 Decoder部分很难被恢复。针对上述问题,本文提出一种基于显著性语义协同的轻量语义分割网络。首先采用 LinkNet编码器-解码器的结构作为骨干网络,将编码器提取第 4 个阶段的特征使用空洞空间金字塔池化(atrous spatial pyramid pooling,ASPP)模块处理,进一步扩大感受野,提取范围更大的局部信息或全局信息,减少下采样导致的空间细节信息丢失,捕捉多尺度信息;其次,将显著性检测网络作为与分割网络协作学习的次级并行分支网络,两个网络共享编码层特征,分割网络可以从检测网络中受益,进一步提高分割精度。1相关工作1.1空洞空间金字塔池化在神经网络

14、视觉模型中,感受野大小与特征表达能力密切相关,感受野越大,蕴含的语义特征层次更丰富。为了得到不同尺度的特征,CHEN L C 等14在文献 5 基础上结合金字塔池化模型,提出了空洞空间金字塔池化模块(atrous spatial pyramid pooling,ASPP),采用不同扩张率的空洞卷积获取不同尺度的特征,进行特征融合,更好地处理多尺度问题。YU F 等15在 FCN 基础上引入空洞卷积,使用不同膨胀率的空洞卷积代替普通卷积,提高特征的感受野。WANG P 等16提出使用混合空洞卷积模块替代扩张卷积模块,解决使用扩张卷积带来的网格效应,可以进一步扩大感受野,同时避免局部信息完全丢失。

15、因此,本文在编码器后增加了 ASPP 模块,用于提取道路图像的多尺度特征。1.2协同学习目前,在不增加网络复杂度的情况下提高神经网络性能的方法主要有 3种:知识蒸馏、多任务学习和协同学习。SONG G C 等17提出了协同学习的方法,利用不同的分类器在相同的网络上训练同样的数据。与单任务模型比较,协同学习可以协调不同特征之间的互补性,在不增加网络深度和复杂度的前提下提高模型的泛化能力,使网1492023 年第 42 卷河南理工大学学报(自然科学版)络达到更加准确的结果。近几年,研究者们对协同学习的探索也逐渐增多:LUO G 等18首次提出了单阶段的协同学习网络,同时解决指向性目标检测和指向性目

16、标分割两个任务,在两个任务分支之间进行多次交互保证训练过程中可以相互促进,提高实时目标检测的速度与精度;WANG L等 19提出一种新的跨数据集的协同学习分割网络,将不同数据集组合在一起作为新的输入进行训练,可以学习到不同数据集的同构表示和异构统计信息,增加分割的准确性。基于上述分析,本文借鉴协同学习的思想,选择与图像分割相似的显著性检测作为辅助任务,搭建显著性知识共享的道路图像语义分割网络。2显著性知识共享网络模型结构本文基于知识共享模型,将显著性检测作为并行任务与分割网络进行知识共享,设计一个新的协同轻量语义分割框架模型,模型主要分为特征共享模块、分割模块、显著性检测模块。其总体架构如图

17、1所示。特征共享模块由特征提取器和 ASPP 模块构成。特征提取器采用 ResNet152 提取 5 个阶段的特征。ASPP 模块由 11 卷积层、扩张率为 6,12,18 的 33 空洞卷积和全局平均池化层构成,按照并行方式处理 R4 阶段特征并进行上采样和通道拼接融合,输出蕴含上下文信息的中间特征。其具体结构如图 2所示。语义分割模块自顶而下提取特征共享模块的R1,R2,R3,R4,R_ASPP 特征图,并通过自底向上的路径通过横向连接与解码快处理解码特征进行特征融合,以获取对应 D4,D3,D2,D1四个阶段解码特征。经过 ASPP 模块处理的特征图 R_ASPP与特征 R4进行特征融合

18、,获取解码特征 D1,然后解码特征 D1 通过解码块处理,恢复特征图 R3 相同尺寸的解码特征图后,再与特征图 R3进行特征融合,获取解码特征 D2。以相同方法逐步获取解码特征 D3,D4。最后,使用包含丰富特征信息的解码特征 D4通过 11卷积层处理,以获取最后的分割预测图。其中,解码块由 11 卷积层、33 反卷积层和 11卷积层组成,首先,用 11卷积层降低特征图的通道数;然后,用 33反卷积层恢复特征图至相应的尺寸;最后,用 11卷积层调整特征图的通道数,以适应横向连接两端包含不同信息特征图的特征融合。解码块结构如图 3所示。显著性检测模块由协同分割网络与显著性类别描述网络构成,通过这

19、两个网络分别得到解码特征图与显著性类别描述向量,解码特征图用于图像中各类物体的特征表达,而显著性类别描述向量用于强调图像中显著性物体特征所在的通道,将包含各类物体特征信息的多通道特征图与描述显著性类别向量相乘,重新表达多通道特征图中各类物体的特征信息,优化道路场景中的显著性目标物体。首先将特征共享模块提取的特征图 1 知识共享学习的分割框架Fig.1 Semantic diagram of segmentation framework based on collaborative learning150第 4 期刘蓝蓝,等:基于显著性语义协同的校园道路场景分割D4 经过特征优化模块faspp,

20、利用 11 卷积降维,其过程由式(1)表示,xfea=conv(faspp(xn)。(1)其次,对于经过 ASPP 模块优化的特征图xfea进行空间维度的平均池化操作,得到特征通道的权重占比描述,并使用 Sigmoid函数将权重映射至0,1,得到显著性类别描述向量,其过程由式(2)表示,sal=Sigmoid(GAP(xfea),(2)式中,GAP表示全局平均池化操作。最后,将分割图与显著性类别描述向量相乘得到最后的输出,ysal=i=1nxi4isal,(3)式中:xi4为特征共享模块提取的最后一个阶段特征中第 i 个特征通道;isal为显著性类别描述向量第 i个特征通道的重要程度。3实验结

21、果与分析3.1数据集使用两个数据集评估本文方法,其中城市景观数据集 Cityscapes20作为分割网络数据集,该数据集场景语义和校园内部场景相似度很高,具备了校园场景几乎全部语义元素,包括道路、行人、骑行人、自行车、墙、建筑、汽车、天空、植被等 19类精准标注验证数据;文献 21 中的 DUTS 作为显著性检测数据集。Cityscapes 数据集是专门针对城市道路场景的数据集,其中,2 975 张作为训练集,1 525 张作为测试集,500 张作为验证集。DUTS 数据集取 10 553 张图片用于显著性检测训练,5 019张图片用于显著性测试。3.2实验设置该实验在 Windows10 操

22、作系统上进行,CPU为 Inter i5-4200M,主频为 2.50 GHz,内存为 4 GB,GPU 为 NVIDIA Quadro RTX 8000。开发语言为Python3,深 度 学 习 框 架 为 Pytorch。本 文 使 用Adam作为优化器,并使用交叉熵损失优化所有模型。初始学习率设置为 0.000 1,batch size 设置为8,并 使 用 平 均 交 并 比(mean intersection over union,MIOU)衡量图像语义分割的精度。3.3消融实验(1)不 同 backbone 消 融 研 究。本 文 以ResNet152 为基础设计特征提取器。为了验

23、证不同深度的特征提取器对于本文方法分割精度的影响,使 用 不 同 深 度 的 特 征 提 取 器 ResNet18,ResNet34,ResNet50,ResNet101,ResNet152 进 行图 2 特征共享模块Fig.2 Figure of feature sharing module图 3 解码块结构Fig.3 The figure of decoder block1512023 年第 42 卷河南理工大学学报(自然科学版)消融实验,并选出最方案。由表 1可知,相比于其他结构的 ResNet,使用 ResNet152准确度较高。(2)ASPP结构的消融研究。为了验证范围更大的感受野提

24、取出范围更大的局部信息,同时聚合不同尺度的上下文信息特征对于分割结果有正向影响,针对 ASPP 模块进行消融实验对比,以验证 ASPP模块有助于提升分割性能。由表 2可知,对于同样的网络架构,加入 ASPP结构后,MIoU 值可以提高 0.59%。(3)协同学习的消融研究。传统的单任务学习网络需要不断增加模型结构的复杂度,提高方法精度,这会出现计算量庞大、训练耗时长等一系列问题。为了验证协同学习策略的优势,本文设计了单一语义分割模块和显著性检测融合的消融对比实验。由表 3 可知,仅依靠单任务语义分割方法 MIoU 评价指标达到 65.89%,而结合显著性检测任务,将两个任务进行协同训练精度可达

25、67.91%,提高了 2.02%。实验结果验证了协同学习方法的有效性,该方法可以显著提高分割结果的精确度。3.4对比实验与分析为进一步验证本文所提方法的有效性,在相同实验配置下将其与其他语义分割方法进行对比。选择了 FCN2、LinkNet22、SegNet4、ENet23和 SANet24进行对比,其中 FCN 是图像语义分割领域的经典模型,SegNet和 SANet是编码器-解码器网络的代表,ENet 和 LinkNet 是轻量级模型的代表。由表 45 可知,虽然本文方法没有达到每一类最优,但在多数类别的分割上占有优势。由于 ASPP 模块可捕获更多的上下文信息,对于交通标志等细小物体的识

26、别更加准确。实验证明,本文方法的评价指标具有相对优势,与其他分割方法相比均有不同程度提高。表 1 不同 Backbone的消融实验Tab.1 Ablation experiments of different backbone模型LinkNetBackboneResNet18ResNet34ResNet50ResNet101ResNet152GFLOPs11.5421.6428.7647.7664.40参数量/M 20.66 40.02 49.84 88.78127.74MIoU/%59.7763.2763.6564.2865.30表 2 ASPP结构的消融实验Tab.2 Ablation e

27、xperiments of ASPP模型LinkNetASPPGFLOPs69.9881.19参数量/M131.99143.77MIoU值/%65.3065.89表 3 协同学习的消融实验(SSM,SDM 表示)Tab.3 Ablation experiments of collaborative learning(SSM,SDM)模型LinkNet语义分割模块SSM显著性检测模块 SDMMIoU/%65.8967.91表 4 与先进的方法在 Cityscapes验证集上 MIoU值比较Tab.4 Comparisons of mIoU values of the state-of-the-a

28、rt methods on the Cityscapes validation set模型FCNLinkNetENetSegNetDenseNetSANet本文方法骨干网络VGG16ResNet18ResNet50VGG16-ResNet50ResNet152MIoU值/%58.6159.7761.7962.7164.9065.1967.91表 5 本文方法与其他网络在 Cityscapes 验证集上 MIoU值对比结果Tab.5 Comparison results of MIoU between our method and other networks on the Cityscapes

29、 validation set模型类别RoadSidewalkBuildingWallFencePoleTraffic LightTraffic SignVegetationTerrainSkyPersonRiderCarTruckBusTrainMotorcycleBicycleMIoUFCN96.6275.7787.5442.3139.5841.9931.0548.1488.4851.0287.5756.9543.3987.5341.8459.5740.6132.2764.4758.61LinkNet95.2967.8185.3144.0441.0633.3826.7144.3585.88

30、49.1889.1659.3948.9687.7858.2766.4552.9842.3957.1959.77ENet95.4777.2188.3244.1742.0141.5833.4756.5584.8952.0889.9364.5441.1991.8356.8763.3645.0635.2166.2261.79SegNet95.6176.0991.4943.9340.3744.4135.0452.0985.8851.6991.0966.8040.2692.9166.9566.1250.3536.7963.562.71SANet97.0375.7989.7650.1044.7648.163

31、1.9159.789.4148.7291.1974.9541.2590.6061.3870.7962.5347.7162.9165.19本文方法97.8976.9392.1350.1145.3944.2138.2463.8190.5851.1992.4275.5652.7695.4563.9880.3853.7350.9474.6867.91152第 4 期刘蓝蓝,等:基于显著性语义协同的校园道路场景分割由图 4可知,FCN 对于汽车、建筑图像的分割较为粗糙,边缘预测精度不够理想,LinkNet、ENet的分割出现多处识别错误,包括汽车车身和一些小尺度目标轮廓;SegNet 和 SANet 对

32、马路背景的分割有所改善,而本文方法对于小目标的轮廓预测更加清晰,例如自行车和远处行人,同时,对于汽车车身的识别也比较完整。FCN对于建筑背景和汽车轮廓目标的分割表现较差,分割边界不清晰,其他网络分割效果有所改善,但对于各类目标区域细节处理仍然不够清晰,完整性不高,本文方法能更加准确地分割细小物体,边界更加清晰,形状更加完整。此外,对于道路两旁的树木,路灯和交通标识的识别,本文方法识别更加准确、完整。总体而言,本文方法在 Cityscapes验证集上的分割结果更加优异。与经典算法 FCN、ENet、SegNet和SANet 进 行 对 比,MIoU 获 得 显 著 性 提 高,为 67.91%,

33、比 最 优 结 果(SANet,65.19%)提 升 了2.72%。由图 5(a)可以看出,经过 160 个 epoch 左右,本文模型可以很好地实现收敛;由平均精度均值(mean average precision,MAP)曲线(图 5(b)同样可以看出,该模型经过 160个 epoch左右可以很好地实现收敛。4结 论本文结合显著性检验知识学习,提出了一种基于 Linknet 协同学习的校园道路场景语义分割算法。首先在特征提取模块中加入 ASPP 模块,捕获更深层次的上下文信息,丰富语义结果;其图 4 不同方法在 Cityscapes验证集上的预测结果Fig.4 Prediction res

34、ults of different methods on the Cityscapes validation set图 5 本文方法训练曲线Fig.5 Training curves of the proposed model1532023 年第 42 卷河南理工大学学报(自然科学版)次,在编码阶段联合显著性检测为语义分割提供空间信息融合,将语义分割单任务网络扩展为协同学习网络,提高模型学习特征的能力,进一步提高了模型的分割性能;最后在 Cityscapes数据集上进行训练验证。实验表明,改进后的算法 MIoU有明显提高,并能更好地捕获多尺度目标和分割物体边界区域,同时能够满足实时检测需求,为

35、智慧校园场景的目标识别与跟踪提供有力支撑。本文方法借鉴两类任务的知识学习实现分割优化,现有数据对知识的学习尚不够充分,下一步工作将针对图像目标语义共生关系进行学习,优化场景内部语义的协同表征。参考文献:1 TAGHANAKI S A,ABHISHEK K,COHEN J P,et al.Deep semantic segmentation of natural and medical images:A review J.Artificial Intelligence Review,2021,54(1):137-178.2 LONG J,SHELHAMER E,DARRELL T.Fully c

36、onvolutional networks for semantic segmentationC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Jun.7-12,2015,Boston,MA,USA.IEEE,2015:3431-3440.3 RONNEBERGER O,FISCHER P,BROX T.U-net:Convolutional networks for biomedical image segmentationC/Proceedings of the Int

37、ernational Conference on Medical Image Computing and Computer-Assisted Intervention(MICCAI),Oct.5-9,2015,Munich,Germany.IEEE,2015:234-241.4 BADRINARAYANAN V,KENDALL A,CIPOLLA R.Segnet:A deep convolutional encoder-decoder architecture for image segmentationJ.IEEE Transactions on Pattern Analysis and

38、Machine Intelligence,2017,39(12):2481-2495.5 CHEN L,PAPANDREOU G,KOKKINOS I,et al.Semantic image segmentation with deep convolutional nets and fully connected CRFs J.Computer Science,2014(4):357-361.6 ZHAO H,SHI J,QI X,et al.Pyramid scene parsing network C/Proceedings of the IEEE Conference on Compu

39、ter Vision and Pattern Recognition,Jul.21-26,2017,Honolulu,HI,USA.IEEE,2017:2881-2890.7 FAN R,WANG Y,QIAO L,et al.PT-ResNet:Perspective transformation-based residual network for semantic road image segmentation C/Proceedings of the 2019 IEEE International Conference on Imaging Systems and Techniques

40、(IST),Oct.4-6,2016,Chania,Greece.IEEE,2019:1-5.8 ABDOLLAHI A,PRADHAN B,ALAMRI A.VNet:An end-to-end fully convolutional neural network for road extraction from high-resolution remote sensing data J.IEEE Access,2020,8:179424-179436.9 STRUDEL R,GARCIA R,LAPTEV I,et al.Segmenter:Transformer for semantic

41、 segmentationC/Proceedings of the IEEE/CVF Conference International Conference on Computer Vision(ICCV),Oct.11-17,2021,online.IEEE,2021:7242-7252.10 ZHENG S,LU J,ZHAO H,et al.Rethinking semantic segmentation from a sequence-to-sequence perspective with transformersC/Proceedings of the IEEE/CVF Confe

42、rence on Computer Vision and Pattern Recognition(CVPR),Jun.19-25,2021,online.IEEE,2021:6881-6890.11 顾清华,薛步青,卢才武,等.基于 D-LinkNet网络的露天矿道路智能识别与路网建模J.煤炭学报,2020,45(s2):1100-1108.GU Q H,XUE B Q,LU C W,et al.Road intelligent recognition and road network modeling of open pit based on D-LinkNet network J.Jour

43、nal of China Coal Society.2020,45(s2):1100-1108.12 刘广进,王光辉,毕卫华,等.改进 D-LinkNet模型在国产卫星影像云检测中的应用 J.测绘通报,2021(11):54-58.LIU G J,WANG G H,BI W H,et al.Application of improved D-LinkNet model in cloud detection of domesticsatellite image J.Bulletin of Surveying and Mapping,2021(11):54-58.13 张立恒,王浩,薛博维,等.基

44、于改进 D-LinkNet模型的高分遥感影像道路提取研究J.计算机工程,2021,47(9):288-296.ZHANG L H,WANG H,XUE B W,et al.Research of road extraction from high-resolution remote sensing images based on improved D-LinkNet modelJ.Computer Engineering,2021,47(9):288-296.14 CHEN L C,PAPANDREOU G,KOKKINOS I,et al.DeepLab:Semantic image seg

45、mentation with deep convolutional nets,atrous convolution,and fully connected CRFsJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(4):834-848.15 YU F,KOLTUN V,FUNKHOUSER T.Dilated residual networksC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition

46、(CVPR),Jul.21-26,2017,Honolulu,HI,USA.IEEE,2017:472-480.16 WANG P,CHEN P,YUAN Y,et al.Understanding convolution for semantic segmentation C/Proceedings of the 2018 IEEE Winter Conference on Applications of 154第 4 期刘蓝蓝,等:基于显著性语义协同的校园道路场景分割Computer Vision(WACV),Mar.12-14,2018,Harvey and Harrah,Lake Ta

47、hoe,NV.IEEE,2018:1451-1460.17 SONG G C,CHAI W.Collaborative learning for deep neural networks C/Proceedings of the 32nd International Conference on Neural Information Processing Systems,Dec.3-8,2018,Montral,Canada.Curran Associates Inc.,NY,USA,2018:1837-1846.18 LUO G,ZHOU Y,SUN X,et al.Multi-task co

48、llaborative network for joint referring expression comprehension and segmentationC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),Jun.16-18,2020,Washington,USA.IEEE/CVF,2020:10034-10043.19 WANG L,LI D,ZHU Y,et al.Cross-dataset collaborative learning for seman

49、tic segmentationJ.arXiv preprint arXiv:2103.11351,2021.20 CORDTS M,OMRAN M,RAMOS S,et al.The cityscapes dataset for semantic urban scene understandingC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Jun.16-18,2016,Las Vegas,NV,USA.IEEE,2016:3213-3223.21 WANG L,LU

50、 H,WANG Y,et al.Learning to detect salient objects with image-level supervision C/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Jul.21-26,2017,Honolulu,HI,USA.IEEE,2017:136-145.22 CHAURASIA A,CULURCIELLO E.Linknet:Exploiting encoder representations for efficient

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服