收藏 分销(赏)

改进BiSeNetV1实时模型的岩屑图像识别.pdf

上传人:自信****多点 文档编号:1450949 上传时间:2024-04-27 格式:PDF 页数:9 大小:1.53MB
下载 相关 举报
改进BiSeNetV1实时模型的岩屑图像识别.pdf_第1页
第1页 / 共9页
改进BiSeNetV1实时模型的岩屑图像识别.pdf_第2页
第2页 / 共9页
改进BiSeNetV1实时模型的岩屑图像识别.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、改进 BiSeNetV1 实时模型的岩屑图像识别孙杰1,滕奇志1,罗崇兴1,何海波2,何小海11(四川大学电子信息学院,成都610065)2(成都西图科技有限公司,成都610041)通信作者:何小海,E-mail:摘要:在图像分割识别领域,现有的深度学习方法大多使用高精度语义分割方法来实现,存在着网络推理速度慢、计算量大、难以实际应用等问题.借助于表现较好的 BiSeNetV1 实时网络模型,通过扩展的空间路径卷积结构、空间金字塔注意力机制(SPARM)和简化的注意力特征融合模块(S-iAFF)等改进策略,设计一种用于岩屑图像分割领域的 BiSeNet_SPARM_S-iAFF 实时网络.扩展

2、的空间路径卷积结构可以获取更丰富的岩屑图像空间特征,上下文路径使用优化的空间金字塔注意力机制(SPARM)进一步细化高层语义特征提取,在特征融合阶段使用简化注意力特征融合(S-iAFF)加强低层空间与高层语义特征的融合程度.实验结果表明,BiSeNet_SPARM_S-iAFF 网络在 RockCuttings_Oil 岩屑数据集上的平均交并比(mIoU)为 64.91%,相较于 BiSeNetV1 网络提高了 2.68%;另外改进后的网络在精度上接近大部分高精度语义分割方法,同时参数量大幅度减少、推理速度有着明显的提升.关键词:岩屑图像;语义分割;BiSeNetV1 网络;空间金字塔注意力;

3、迭代注意力特征融合;深度学习;卷积神经网络引用格式:孙杰,滕奇志,罗崇兴,何海波,何小海.改进 BiSeNetV1 实时模型的岩屑图像识别.计算机系统应用,2023,32(10):4553.http:/www.c-s- of Cuttings Images Based on Improved BiSeNetV1 Real-time ModelSUNJie1,TENGQi-Zhi1,LUOChong-Xing1,HEHai-Bo2,HEXiao-Hai11(CollegeofElectronicsandInformationEngineering,SichuanUniversity,Chengd

4、u610065,China)2(ChengduXituTechnologyCo.Ltd.,Chengdu610041,China)Abstract:Inthefieldofimagesegmentationandidentification,theexistingdeeplearningmethodsmostlyperformtasksbyhigh-precisionsemanticsegmentationmethods,whichleadtoaslownetworkinferencespeed,largeamountofcalculation,anddifficultactualapplic

5、ation.Areal-timenetworkmodelwithbetterperformance,namelyBiSeNetV1isused,andtheextendedspatialpathconvolutionstructure,spatialpyramidattentionmechanism(SPARM),simplifiediterativeattentionfeaturefusion(S-iAFF)module,andotheroptimizationstrategiesareapplied.Asaresult,areal-timeBiSeNet_SPARM_S-iAFFnetwo

6、rkisdesignedforrockdebrisimagesegmentation.Theextendedspatialpathconvolutionstructurecanobtainmoreabundantspatialfeaturesofrockdebrisimages.ThecontextpathusestheoptimizedSPARMtofurtherrefinehigh-levelsemanticfeatureextraction.Finally,S-iAFFisusedtoenhancethefusiondegreebetweenlow-levelspatialandhigh

7、-levelsemanticfeaturesinthefeaturefusionstage.Theexperimentalresultsindicatethatthemeanintersectionoverunion(mIoU)oftheBiSeNet_SPARM_S-iAFFnetworkontheRockCuttings_Oildatasetis64.91%,whichis2.68%higherthanthatoftheBiSeNetV1network,andtheprecisionoftheimprovednetworkisclosetothatofthemosthigh-precisi

8、onsemanticsegmentationmethods,whilethenumberofparametersisgreatlyreduced,andtheinferencespeedissignificantlyimproved.Key words:cuttingsimage;semanticsegmentation;BiSeNetV1network;spatialpyramidattention;iterativeattentionfeaturefusion;deeplearning;convolutionalneuralnetwork(CNN)计算机系统应用ISSN1003-3254,

9、CODENCSAOBNE-mail:ComputerSystems&Applications,2023,32(10):4553doi:10.15888/ki.csa.009245http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041基金项目:国家自然科学基金(62071315)收稿时间:2023-03-13;修改时间:2023-04-20;采用时间:2023-04-27;csa 在线出版时间:2023-07-21CNKI 网络首发时间:2023-07-24SpecialIssue专论综述45近年来随着生活水平的提高,人类对能源的需求日益增加,其中石油作

10、为国家经济发展的重要能源,对其进行开发和利用的相关技术也日益重要,石油勘探技术中,通过钻井作业对地质参数分析可以快速判断该地的石油含量,其中岩屑识别技术可作为判断地层岩性的重要手段1,2.工作人员从井口捞取初始岩屑样本,通过清洗等一系列处理过程得到利于识别的岩屑样本,最终通过图像采集得到岩屑颗粒图像用于后续的识别.随着计算机技术的发展,深度学习逐渐代替传统图像算法应用到石油地质研究的分类识别上.特别是通过语义分割算法的应用大大提高了岩屑图像的分类效果,同时减少了人工识别岩屑的时间.语义分割是一种典型的计算机视觉研究方向,其基于像素级的分类方式能够很好地关联不同场景下每个像素的标签类别,最终通过

11、不同标注结果实现像素级的分类任务,如FCN 全卷积网络3、轻量型 ENet 语义分割网络4等均可实现对图像像素级的分类,它们广泛应用于视频监控、医学图像处理、岩屑图像处理等领域.语义分割的发展是逐步进行的,随着各种模型的涌现,在经典的训练场景下分割的精度也越来越高,然而大部分训练精度的提升是以参数量、训练时间的增加为代价的,特别是精度达到一定的高度后,模型精度的微小提升往往会导致训练成本(如计算量、时间、占用内存)成倍地增加.基于这种情况,近年来实时语义分割的发展逐渐得到人们的重视,在某些特定的应用场景下,实时语义分割的研究目标主要是在尽量保持分割精度的情况下简化训练模型的参数量、占用内存等,

12、设计出低延迟、高效率、分割精度表现良好的模型5,6.大部分的高精度方法在语义分割的结果上占据较大优势,如文献 7 的 DANet 模型在不同的应用场景中都有着优秀的表现,但从推理速度的角度来看,实时语义分割的优势较为明显.当处理任务用于移动设备上时更加关注的是模型的实时性,此时就需要在精度和实时性上进行衡量.近年来具有挑战性的实时语义分割任务出现许多实际的应用与研究,如文献 8 提出一种快速实现高质量分割的图像级联网络 ICNet,文献 9 提出一种同时保持效率与准确性的 ERFNet 深层架构,文献 10 中的 BiSeNetV1 和文献 11 中的BiSeNetV2 提出一种实时的双边分割

13、网络架构,文献 12 提出一种基于高效空间金字塔的 ESPNet 实时分割模型,文献 13 提出一种轻量级上下文引导网络CGNet,文献 14 提出一种基于高分辨率图像数据的FastSCNN 超实时语义分割模型.不同网络对特定任务的适应性差异很大,某些应用场景下实时网络识别精度可能会接近甚至高于某些高精度方法,实时分割网络往往就是在这种情况下展现出巨大的优势.1BiSeNetV1 网络BiSeNetV110是一种通过空间路径和上下文路径分别提取图像低级空间特征和高级上下文语义特征的基本架构,其优势在于同时计算两条路径来提高效率.首先空间路径使用 3 层步长为 2 的卷积编码丰富的空间信息,同时

14、上下文路径利用预先训练好的 Xception15等轻量级模型提供了较大的接受域,该接受域编码高级语义上下文信息,上下文路径中使用注意力细化模块 ARM 细化每个阶段的特征,ARM 使用全局平均池来捕获全局上下文,并计算注意向量指导特征学习来轻松地集成全局上下文信息.由于两条路径的输出特征表示级别不同,最后使用 FFM 融合模块融合两条路径的输出特征用于实现像素级的分类.2改进的 BiSeNetV1 网络结构通过初期实验表明 BiSeNetV1 双边分割网络在岩屑场景中表现较好,本文在 BiSeNetV1 网络架构的基础上,在保证网络推理速度基本不变的情况下,得到更适合岩屑图像识别的 BiSeN

15、et_SPARM_S-iAFF 网络结构,其整体结构如图 1 所示.Conv+BN+ReLUConv+BN+ReLUConv+BN+ReLUConvConv+BN+ReLU空间路径特征融合S-iAFF4down8down16down32downSPARMSPARM上下文路径8 倍上采样SPARM图 1BiSeNet_SPARM_S-iAFF 网络整体结构计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期46专论综述SpecialIssue 2.1 空间路径优化为了捕获图像中足够多的空间信息,高精度方法往往通过增大卷积过程中的感受野,如池化操作或空洞卷积16等方法,

16、但增大感受野同时导致训练成本的增加.通过分析发现岩屑数据集中的图像特征与经典的城市场景数据集 Cityscapes17特征不同,城市场景中的全局空间信息是非常重要的特征信息,因为城市场景中类别的形状具有多样性,同一类别内部也存在颜色和形状上的不同,不同种类的对象大小差距较大,需要足够的全局空间信息来辅助判断某区域的像素信息,而岩屑颗粒图像从整体上看相同种类的岩屑在形状上和大小上的差别较小,同一类别的形状、大小、颜色、细节纹理较为相似,且图像中不同岩屑种类相互交叠的边缘信息较为复杂,需要细化卷积结构将空间路径的映射更多地关注到边缘等特征上.基于上述情况,在保持原始输入图像空间大小的同时,将空间结

17、构扩展至 5 层,同时控制各层通道数大小、卷积核大小、步长等减少参数量的增加,卷积过程使用填充操作保持输出特征映射为原始图像的 1/8,扩展的结构可以更多地提取原始图像的空间信息,图 2 显示了 BiSeNetV1 改进后的空间路径上的卷积结构.Input5125126425625677 ConvBNReLUStride=2Channel=6433 ConvBNReLUStride=2Channel=646412812833 ConvBNReLUStride=2Channel=6464646433 ConvStride=1Channel=12811 ConvBNReLUStride=1Chan

18、nel=1281286464Output1286464图 2BiSeNet_SPARM_S-iAFF 网络空间路径结构 2.2 SPARM 空间金字塔注意力注意力机制近年来被广泛应用于深度学习的诸多领域来提高神经网络的训练性能18,19.BiSeNetV1 中的 ARM 注意力细化模块类似于 SENet20的 SE 块,通过全局平均池化 GAP21聚合各个信道中的全局信息,其类似于结构正则化器的行为能够防止过度拟合,但处理结果更倾向于强调正则化的效果,导致中间特征图中结构信息的丢失,特别是对于比较大的中间特征图进行聚合平均值时,会导致特征表示能力的显著损失,这也是原始上下文路径只对 16 倍和

19、 32 倍下采样的中间特征图使用 ARM 注意力细化模块的原因.ARM 对于图像中特征变化简单的稀疏区域有着较好的表现,但对于图像中特征变化复杂的密集区域,考虑到 ARM 使用单独全局平均池化,越密集的情况其特征变化越复杂,提取上下文语义特征效果越差,这导致在最终的分割效果中密集区域某一单独的岩屑颗粒受到周围区域岩屑颗粒较大的影响.基于上述问题,本文借助 SPA-Net22中 3 个自适应全局平均池化的方法,使语义信息能够被更加充分的利用,其中 11 自适应全局平均池化是具有结构正则化的传统全局平均池化,22 自适应全局平均池化用来平衡结构信息和结构正则化之间的关系,44 自适应全局平均池化可

20、以捕获更多的特征表示和结构信息.相比于原始的单独全局平均池化,此池化方式可以兼顾特征图的正则化效果和原始特征的特征表示、结构信息,同时又继承全局平均池化的优点,SPA 模块的具体结构如图 3 所示,其中 AAP(n)表示 nn 的自适应全局平均池化,Resize 操作将经过自适应全局平均池化操作后的输出特征图调整为与输入特征图相同的大小.注意力模块 SPARM 使用图 3 中的 SPS 空间金字塔池化结构代替单独自适应全局平均池化,并保留 ARM注意力细化模块的连接路径,这种 SPARM 注意力模块能够更加全面的捕获包含特征正则化效果和结构信息的全局上下文信息,通过计算注意力向量来指导特征学习

21、,达到细化上下文路径中下采样阶段的输出特征,图 4 显示了 SPARM 注意力模块的连接路径,其中表示逐元素乘法(element-wisemultiplication).2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SpecialIssue专论综述47Conv 11BNReLUAAP(4)AAP(2)AAP(1)ResizeResizeResizeConcatenateFCBNReLUFCBNSigmoid注意力权重特征图SPS:空间金字塔结构多层感知器逐点卷积图 3SPA 空间金字塔注意力模块的结构SPS11 ConvBNSigmoid11 ConvBNRe

22、LU下采样后的图像特征高级上下文语义特征图 4SPARM 空间金字塔注意力细化模块另外使用空间金字塔的注意力模块能够克服对较大中间特征图特征提取能力差的问题,考虑到岩屑场景具有比较复杂的局部边缘信息,上下文路径的几个输出分支需要通过注意力模块捕获通道的依赖性,本文在上下文路径增加 8 倍下采样的注意力特征提取操作来加强网络对边缘信息的提取,且其输出权重设置相比于 16 倍和 32 倍的输出权重小(权重为 0.2),使得上下文路径的输出更多地关注到深层语义特征.2.3 S-iAFF 注意力特征融合模块为了更好地融合提取到的空间和上下文语义信息,借助文献 23 中的迭代注意特征融合模块来代替 Bi

23、Se-NetV1 网络中的 FFM 特征融合模块,可以很好地解决融合不同尺度特征出现的问题,另外 FFM 融合方法结果更倾向于强调分布在全局的大型对象,融合过程会忽略中小对象大部分图像信息,中小对象的检测是目前先进网络的一大技术瓶颈24.FFM 模块首先使用级联操作连接空间路径和上下文路径的输出特征,利用更新的权重值重新加权级联后的特征.假设空间路径输出特征为 X,上下文路径输出特征为 Y,X 和 Y 通过 Concatenation 级联操作后的特征表示为 Cat(X,Y),最终融合后的输出特征表示为F,可以得到 FFM 特征融合模块的计算方法如下:F=G(Cat(X,Y)Cat(X,Y)+

24、Cat(X,Y)(1)其中,G 表示经过全局平均池化 GAP、批标准化 BN、激活函数后的权重向量.为了解决上述问题,引入了多尺度通道注意力模块(MS-CAM)23,将多尺度的特征在注意力模块内聚合来缓解尺度变化和中小对象引起的问题.MS-CAM是在全局上下文的基础上添加局部上下文分支,选择逐点卷积(Point-wiseConv)作为局部分支的聚合器来淡化全局平均池化操作,使聚合更多地关注到局部上下文信息,最终得到的权重向量通过重新加权平衡局部和全局上下文信息.另外通过取消 MS-CAM 中的通道缩减策略降低复杂度.图 5(a)显示了 MS-CAM 的模块结构,其中 r 表示通道缩减比,图 5

25、(b)显示了去除通道缩减后的结构,将其称为 SimplifiedMS-CAM,简称SMS-CAM.假设 SMS-CAM 模块中通过全局分支的输出为G(Xin),通过局部分支的输出为 L(Xin),首先空间路径的输出 X 通过全局平均池化后得到 g(X),其计算结果如下:g(X)=1HWHi=1Wj=1X:,i,j(2)其中,HW 表示特征图的尺寸大小,:,i,j 表示输入张量 X 中所有批次、在高 i 和宽 j 处的切片位置.全局 G(Xin)和局部上下文 L(Xin)输出计算如下:G(Xin)=(B(pwconv(g(X)(3)L(Xin)=(B(pwconv(X)(4)其中,表示线性整流函

26、数 ReLU,B 表示批标准化(BN),pwconv 表示逐点卷积.给定全局上下文和局部上下文,通过 SMS-CAM 模块后可获得如下结果:Xout=XSMS(X)=X(G(Xin)L(Xin)(5)其中,表示 Sigmoid 函数,SMS 为通过 SMS-CAM 模块的输出,表示加法(broadcastingaddition).考虑到空间与上下文路径的特征存在较大语义上的差别,采用两阶段 SMS-CAM 注意力融合方式,称为 S-iAFF.由于一个阶段的 SMS-CAM 不能很好地抵消初始融合的影响,两阶段 SMS-CAM 的 S-iAFF 融合方法很好地降低初始融合对最终的融合权重的影响程

27、计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期48专论综述SpecialIssue度,输入特征 X 和 Y 通过 S-iAFF 的计算过程如下:XY=SMS(XY)X(1SMS(XY)Y(6)F=SMS(XY)X(1SMS(XY)Y(7)其中,XY 表示经过一阶段 SMS-CAM 的输出,F 表示经过两阶段 SMS-CAM 后的输出,图 6 显示了 S-iAFF模块的结构.Point-wise ConvGlobalAvgPoolingReLUPoint-wise ConvPoint-wise ConvReLUPoint-wise ConvC11C/r11C/r

28、HWBNBNSigmoid(a)MS-CAM 结构(b)SMS-CAM 结构CHWCHWC11BNBNXinXoutMS-CAMPoint-wise ConvGlobalAvgPoolingReLUPoint-wise ConvReLUC11C11CHWBNBNSigmoidCHWCHWC11XinXoutSMS-CAMG(Xin)L(Xin)图 5多尺度通道注意力模块SMS-CAMSMS-CAMCHWCHWCHWCHWXYFS-iAFFXY图 6S-iAFF 注意力特征融合模块3实验结果与分析 3.1 实验配置本文基于 Linux 操作系统的 PyTorch 框架进行实验,使用 4 张 GP

29、U 为 NVIDIAGeForceRTX2080Ti 深度学习服务器,代码基于 Python3.8 实现.3.2 实验数据集本文数据集的岩屑初始样本由合作的石油公司提供,是现场采集并经过清洗处理的干净样本,得到的岩屑种类有 15 种,分别为含油斑粉砂岩、含砾粗砂岩、灰色粉砂岩、灰绿色凝灰岩、石灰岩、灰绿色砂岩、紫灰色泥质粉砂岩、褐色粉砂岩、方解石、页岩、灰绿色安山岩、深灰色安山岩、紫红色安山岩、褐色流纹岩和石英,训练测试过程中将背景也作为一类.通过图像采集系统25获取 100 张分辨率为 40003750 的岩屑原始图像,由于高分辨率图像在训练过程中占用GPU 内存大,采集到的高分辨率图像需要

30、按顺序裁剪,岩屑图像裁剪后并不影响最终的分类效果,裁剪的图像分辨率统一为 512512,接着通过随机翻转、缩放、锐化等数据增强操作得到 8540 张分辨率为 512512子图像,数据集中 8210 张图像用于训练,330 张图像用于测试,并将此数据集称为 RockCuttings_Oil 岩屑图像数据集26.图 7 展示了数据集中的图像样本,图 7(a)为通过采集系统得到的分辨率为 40003750 的岩屑图像,图 7(b)为由高分辨图像裁剪为分辨率为 512512岩屑子图像,网络训练时使用的是裁剪后的图像,图 7(c)为对应于图 7(b)的 RGB 彩色标签图.3.3 网络训练细节训练过程使

31、用随机梯度下降(SGD),动量为 0.9,权值衰减为 0.0005,应用类似文献 27 的 poly 学习策略,初始学习率为 1E4,训练网络设置 3 个阶段的特征图输出,主损失函数监控整个网络的输出,同时使用两个辅助损失函数监控上下文路径的输出,三者使用的交叉熵损失函数计算公式如下:l=Ni=1yilog(pi)(8)2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SpecialIssue专论综述49其中,y 和 p 表示期望和真实预测,N 表示类别数.3 个损失函数的损失权重均设置为 1,那么融合损失函数的计算如下:L(X,W)=lm(X,W)+2i=1li

32、(Xi,W)(9)lmliXi其中,表示主损失函数的损耗,表示辅助损失函数的损耗,表示第 i 阶段的输出特征,W 表示模型的训练权重参数.其中第 1 阶段使用主损失函数监控训练损耗,第 2、3 阶段辅助损失函数来监控训练损耗.3.4 对比实验与分析在 RockCuttings_Oil 岩屑数据集上评估相同模型的不同上下文主干网络、不同注意力模块、不同特征融合模块以及不同模型下的分割效果,验证改进方法中相应组件的有效性.(a)未裁剪的岩屑图像(b)裁剪后的岩屑子图像(c)RGB 标签图图 7RockCuttings_Oil 岩屑数据集样本首先对 BiSeNetV1 网络,模块的其他部分均保持原始

33、不变,只改变上下文路径的网络模型,表 1 展示了使用不同上下文路径基础模型的表现情况.表 1BiSeNetV1 下使用不同上下文基础模型的实验比较网络模型上下文基础模型FLOPs(G)Parms(M)mIoU(%)BiSeNetV1ResNet1814.8313.4362.23BiSeNetV1ResNet5098.9559.2462.38BiSeNetV1ResNeXt5098.9559.2462.54BiSeNetV1ResNeSt50105.6761.1762.89表 1 中 FLOPs 表示模型每秒的浮点运算次数,Parms表示模型训练的参数量.通过表 1 发现 BiSeNetV1 网

34、络使用轻量化模型 ResNet1828的参数量较低,虽然使用 ResNeXt5029和 ResNeSt5030后训练精度有所提升,但使用该模型后的参数量甚至超过部分高精度方法,考虑到轻量化的因素,采用 ResNet18 作为上下文路径中的基础模型.本文在上下文路径模型 ResNet18 的基础上对BiSeNetV1 进行改进,主要策略为空间路径使用 5 层扩展的卷积结构,上下文路径使用 SPARM 代替 ARM注意力模块,空间和上下文路径的特征融合使用 S-iAFF代替 FFM 模块.表 2 展示了使用不同模块的比较,其中 SP 表示原始空间路径,SP(5)表示 5 层卷积空间路径,CP 表示

35、原始上下文路径,CP(ARM)表示采用 ARM模块的上下文路径,CP(SPARM)表示采用 SPARM 模块的上下文路径.在实际岩屑分割场景中,分割效果和实时性是同样重要的评判标准,两种指标需要达到一定的平衡性.通过表 2 实验对比发现对 BiSeNetV1 网络不同模块进行细节优化,在参数量较小增加的情况下,参数量由13.43M 增加到 14.17M,平均交并比(mIoU)由 62.23%提升至 64.91%,整体提升了 2.68%.表 2改进策略性能比较网络训练策略FLOPs(G)Parms(M)mIoU(%)SP+CP(ARM)+FFM(BiSeNetV1)14.8313.4362.23

36、SP(5)+CP(ARM)+FFM16.1713.6863.47SP(5)+CP(SPARM)+FFM17.2113.8964.52SP(5)+CP(SPARM)+iAFF21.0214.2364.90SP(5)+CP(SPARM)+S-iAFF(ours)20.3314.1764.91 3.5 分割效果对比对于测试集下的岩屑图像分割效果,图 8 展示了 3 组岩屑测试集图片分别在 BiSeNetV2 网络、BiSeNetV1网络、BiSeNet_SPARM_S-iAFF 网络和高精度方法PSPNet、DANet 网络的分割效果对比.对于岩屑分割效果,一张岩屑图像包含的图像信息非常多.通过图

37、8 分析发现:从整体表现对比来看DANet 分割效果最平滑,PSPNet 和 BiSeNet_SPARM_S-iAFF 次之,表现较差的是 BiSeNetV1 和 BiSeNetV2.从细节对比来看,第 1 排岩屑分割图矩形框标注的区域,通过原图可以发现该岩屑内部局部细节差异很大,这种情况会导致此类石头的识别难度加大,对于此区计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第10期50专论综述SpecialIssue域的分割结果上来看,其他很多网络的识别结果存在很明显的错误,相比较而言 BiSeNet_SPARM_S-iAFF识别结果比较统一,且更具有参考性;第 2 排

38、矩形框标注的区域内,BiSeNet_SPARM_S-iAFF 网络相比于BiSeNetV1、BiSeNetV2 在密集区域对细节的处理更好,误分类区域更少,但相较于高精度方法还存在一定的差距;第 3 排矩形框标注的区域内,BiSeNet_SPARM_S-iAFF 网络在右上侧区域分割效果略优于 DANet 网络,而下侧和左侧区域相比于 DANet 网络有所差距,但分割效果相比较 BiSeNetV1、BiSeNetV2 有明显提升.(a)原图(b)BiSeNetV2(c)BiSeNetV1(d)BiSeNet_SPARM_S-iAFF(ours)(e)PSPNet(f)DANet图 8不同模型的

39、分割效果对比由于最初采集到的岩屑图像的分辨率为 40003750,而训练过程的输入图像为裁剪后分辨率为 512512 的子图集合,训练后最终输出对应输入图像的 512512 子效果图,为了更直观地展示岩屑分割的效果,需要将从神经网络输出的效果图通过拼接的方式合成原始分辨率大小为 40003750 的完整分割效果图,图 9展示了相应的原始图像及对应输出子效果图拼接后的完整分割效果.(a)原始图像(b)拼接后的分割效果图 9完整分割效果展示为了验证 BiSeNet_SPARM_S-iAFF 网络分割的效果,分别在高精度方法和实时分割方法中选取较为经典的网络进行对比实验,高精度方法如 FCN3、DA

40、Net7、PSPNet31、DeepLabV3+32和 UNet33,实时语义分割方法如 ICNet8、ERFNet9、BiSeNetV110、BiSe-NetV211、CGNet13和 FastSCNN14,表 3 展示了不同模型在 RockCuttings_Oil 岩屑数据集、迭代次数为80000 情况下的精度、参数量、单张图像处理时间的比较.表 3不同模型的精度、参数量、单张图像处理时间比较网络模型mIoU(%)Parms(M)时间(s)FCN62.8549.824.90PSPNet65.2748.974.78DeepLabV3+64.1243.585.60UNet62.7829.063

41、.94DANet69.9749.864.98ICNet48.6125.710.97ERFNet43.242.081.01CGNet18.80.4890.92FastSCNN34.291.461.78BiSeNetV257.8414.81.67BiSeNetV162.2313.431.13BiSeNet_SPARM_S-iAFF64.9113.771.19通过对表 3 观察分析可以发现改进后的 BiSeNet_SPARM_S-iAFF 网络的训练精度与大部分高精度方法2023年第32卷第10期http:/www.c-s-计 算 机 系 统 应 用SpecialIssue专论综述51的相近,且参数

42、量和处理时间大大减小,另外相较于其他经典的实时网络精度表现最好.4结束语本文基于 BiSeNetV1 改进设计一种用于岩屑图像分割任务的 BiSeNet_SPARM_S-iAFF 网络模型,改进后的网络依旧通过空间路径和上下文路径来提出特征信息,空间路径首先通过 5 层卷积结构提取足够多的空间信息,上下文路径的使用 SPARM 模块代替 ARM模块来提取更多关注原始图像密集区域的语义信息,最后使用 S-iAFF 代替 FFM 融合模块来加强空间和语义特征的融合程度.整体实验结果表明 BiSeNet_SPARM_S-iAFF 网络相比于 BiSeNetV1 网络,在几乎没有增加网络参数量和推理速

43、度的情况下,实现了更好的分割精度,此分割效果相比于其他实时分割网络具有巨大的优势,甚至优于部分高精度方法的分割效果.另外在中小对象特征信息和图像密集区域及特征融合阶段分别使用了优化策略,并通过相关实验得以验证这些优化策略具有应用上的可行性,但通过分析可知最终对岩屑图像密集区域的分割效果仍存在不足之处,需要后续进一步细化分割模型来进行改善.参考文献陈晓明,杨涛,梁坤,等.不同勘探类别油气发现成本评价方法及应用.中国石油勘探,2021,26(3):8894.doi:10.3969/j.issn.1672-7703.2021.03.0081潘柯宇,卢正东,唐明,等.四川盆地 SYS 构造录井岩屑识别

44、方法探讨及应用.钻采工艺,2020,43(S1):2426,34.2Long J,Shelhamer E,Darrell T.Fully convolutionalnetworksforsemanticsegmentation.Proceedingsofthe2015IEEE Conference on Computer Vision and PatternRecognition.Boston:IEEE,2015.34313440.doi:10.1109/CVPR.2015.72989653PaszkeA,ChaurasiaA,KimS,et al.ENet:Adeepneuralnetwor

45、k architecture for real-time semantic segmentation.arXiv:1606.02147,2016.4LinPW,SunP,ChengGL,et al.Graph-guidedarchitecturesearchforreal-timesemanticsegmentation.Proceedingsofthe 2020 IEEE/CVF Conference on Computer Vision andPatternRecognition.Seattle:IEEE,2020.42024211.doi:10.1109/cvpr42600.2020.0

46、04265FanMY,LaiSQ,HuangJS,et al.RethinkingBiSeNetForreal-time semantic segmentation.Proceedings of the 20216IEEE/CVF Conference on Computer Vision and PatternRecognition.Nashville:IEEE,2021.97119720.doi:10.1109/CVPR46437.2021.00959FuJ,LiuJ,TianH,et al.Dualattentionnetworkforscenesegmentation.Proceedi

47、ngsofthe2019IEEE/CVFConference on Computer Vision and Pattern Recognition.LongBeach:IEEE,2019.31413149.doi:10.1109/CVPR.2019.003267Zhao HS,Qi XJ,Shen XY,et al.ICNet for real-timesemanticsegmentationonhigh-resolutionimages.Proceedingsofthe15thEuropeanConferenceonComputerVision.Munich:Springer,2018.41

48、8434.doi:10.1007/978-3-030-01219-9_258Romera E,lvarez JM,Bergasa LM,et al.ERFNet:EfficientresidualfactorizedConvNetforreal-timesemanticsegmentation.IEEE Transactions on Intelligent Trans-portationSystems,2018,19(1):263272.doi:10.1109/TITS.2017.27500809Yu CQ,Wang JB,Peng C,et al.BiSeNet:Bilateralsegm

49、entationnetworkforreal-timesemanticsegmentation.Proceedingsofthe15thEuropeanConferenceonComputerVision.Munich:Springer,2018.334349.doi:10.1007/978-3-030-01261-8_2010Yu CQ,Gao CX,Wang JB,et al.BiSeNet V2:Bilateralnetwork with guided aggregation for real-time semanticsegmentation.International Journal

50、 of Computer Vision,2021,129(11):30513068.doi:10.1007/s11263-021-01515-211Mehta S,Rastegari M,Caspi A,et al.ESPNet:Efficientspatial pyramid of dilated convolutions for semanticsegmentation.Proceedingsofthe15thEuropeanConferenceComputerVision.Munich:Springer,2018.561580.doi:10.1007/978-3-030-01249-6_

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服