ImageVerifierCode 换一换
格式:PDF , 页数:13 ,大小:14.11MB ,
资源ID:582309      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/582309.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(融合卷积特征的清晰边缘检测研究.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

融合卷积特征的清晰边缘检测研究.pdf

1、计算机科学与探索Journal of Frontiers of Computer Science and Technology1673-9418/2023/17(09)-2148-13doi:10.3778/j.issn.1673-9418.2206085融合卷积特征的清晰边缘检测研究王兵+,黄刚,张兴鹏西南石油大学 计算机科学学院,成都 610500+通信作者 E-mail:摘要:受益于卷积神经网络(CNN),边缘检测性能在多个基准数据集上都已经超过人类水平。但这类算法无法保证边缘的清晰性和定位的准确性。为获取细化清晰、有效抑制背景纹理、定位准确的目标边缘图,提出了一种融合卷积特征的清晰边缘

2、检测算法(FCF)。该算法使用VGG16作为主干网络进行卷积特征提取,将不同阶段的卷积特征上采样后进行特征融合,并通过所设计的细化融合模块(RFB)获得清晰的边缘图。RFB使用多个归一化细化块(GRB)来细化得到的边缘图。此外,为平衡边缘像素和非边缘像素,还提出一个细化骰子损失函数(RD)。在BSDS500数据集上,所提方法将HED、RCF等深度边缘检测器的F-score(ODS)分别提高了 2.8%和 2.1%;当不使用非极大值抑制(NMS)进行边缘检测评估时,F-score(ODS)、F-score(OIS)分别达到0.801和0.816,超过了其他算法。关键词:清晰边缘检测;融合卷积特征

3、(FCF);细化骰子损失(RD);卷积神经网络(CNN)文献标志码:A中图分类号:TP391.41Research on Crisp Edge Detection with Fusion of Convolutional FeaturesWANG Bing+,HUANG Gang,ZHANG XingpengSchool of Computer Science,Southwest Petroleum University,Chengdu 610500,ChinaAbstract:Benefiting from convolutional neural networks(CNN),edge de

4、tection has surpassed human performanceon several benchmark datasets.However,such algorithms cannot guarantee the crispness of edges and the accuracyof positioning.In order to obtain the target edge map that is refined and clear,suppressing background textureeffectively,and locating accurately,a cri

5、sp edge detection algorithm with fusion of convolutional features(FCF)isproposed in this paper.The algorithm uses VGG16 as the backbone network for convolutional feature extraction,fuses the convolutional features at different stages after upsampling,and obtains a crisp edge map through the refinefu

6、sion block(RFB)designed in this paper.RFB uses multiple GroupNorm refine blocks(GRB)to refine theresulting edge map.In addition,to balance edge pixels and non-edge pixels,this paper also proposes a refine diceloss(RD)function.On the BSDS500 dataset,the method proposed in this paper improves the F-sc

7、ore(ODS)ofdeep edge detectors such as HED and RCF by 2.8%and 2.1%,respectively.When edge detection evaluation isperformed without non-maximal suppression(NMS),the F-score(ODS)and F-score(OIS)reach 0.801 and 0.816,respectively,outperforming other algorithms.Key words:crisp edge detection;fusion of co

8、nvolutional features(FCF);refine dice loss(RD);convolutionalneural networks(CNN)基金项目:国家科技重大专项(2016ZX05020-006)。This work was supported by the National Science and Technology Major Project of China(2016ZX05020-006).收稿日期:2022-06-22修回日期:2022-08-26王兵 等:融合卷积特征的清晰边缘检测研究边缘检测在计算机视觉任务中扮演着最基础的角色,在图像和视频处理应用中发挥

9、着重要作用,例如图像检索任务1。边缘检测通常被认为是一种最基础的技术,一些高级图像任务通过边缘检测来获取对象的形状或者边界,从而提高其性能。传统边缘检测研究中,低维特征被广泛研究并用于检测边缘2-4。这些方法虽然能够检测出清晰的对象边缘,但无法抑制背景纹理,且易出现边缘不连续的情况。随着近年深度学习的迅猛发展,众多学者将图像像素分为边缘像素和非边缘像素5-6,并利用卷积神经网络(convolutional neural networks,CNN)来学习图像的高维特征,以获取目标的边缘图。卷积神经网络也被广泛运用于图像分类7-9、目标检测10-13以及语义分割14-15等领域。目前,已有学者基于

10、卷积神经网络提出边缘检测算法,例如HED(holistically-nested edge detection)16、RCF(richer convolutional features)17、CED(crisp edgedetector)18、DeepContour5等。这些算法虽然在 BSDS-50019和 NYUDv220数据集上获得了很好的 F-score,但识别出来的边缘过于宽大,无法获得清晰的目标边界。黄胜等人21提出了基于语义信息的细化边缘检测算法,该算法引入了具有注意力机制和残差结构的特征融合模块,从而获得清晰边缘,但从其预测结果可以看到,识别出来的边缘粗细不均匀,且存在断裂情况

11、,不能准确定位边缘位置。岳欣华等人22使用了BP(back propagation)神经网络与形态学融合的方法进行边缘检测,该方法识别出的边缘图无法有效抑制背景纹理,且出现了边缘断裂不连续的情况。申嘉锡等人23对传统Canny算子进行了改进,结果表明仍然无法有效抑制背景纹理,对椒盐噪声抑制效果较差,无法获得清晰边缘图。为获得细化清晰且定位准确的目标边界,现有的边缘检测器主要存在两个解决思路。第一,在对边缘进行评估时,将非极大值抑制(non-maximal supp-ression,NMS)后处理步骤添加到F-score(ODS)和F-score(OIS)的计算过程中,从而获得细化的边缘。但此方

12、法会将原算法识别出的许多非边缘像素点显示出来,降低了边缘识别的准确性24。此外,其也无法有效抑制纹理像素。第二,通过对网络模型和损失函数进行修改以解决边缘宽大、模糊的问题。例如CED18、Learning to Predict Crisp Boundaries25等 算法,但是其对非边缘纹理的抑制效果也有待提高。上述基于神经网络的边缘检测算法都使用VGG16网络为主干,去除最后一个池化层以及全连接层。经分析可知,造成边缘模糊、边缘定位不准确、无法有效抑制背景纹理的原因(影响算法性能的因素)主要有以下几方面:(1)VGG16网络在每个阶段的卷积操作后使用最大池化层降维,此时由于感受野增大,该层会

13、导致边缘的模糊输出26。(2)上采样操作鼓励相邻像素具有相同的响应,这会导致真实边缘周围的部分非边缘像素也被识别为边缘,最终导致目标边缘宽大、模糊,且定位不准确。此外,网络不同阶段的卷积特征在空间上也是混合的,当使用常规的加权交叉熵或其他损失函数训练网络来获得高层侧边输出时,很难从混合的特征中将不平衡的像素正确分类。因此,卷积层数越深,现有的边缘检测器得到的边缘图越模糊。(3)侧边输出混合。现有的检测器在对其侧边特征图进行分析时,很容易观察到侧边的混合现象,因为它们只是根据学习到的侧边重要性对侧边预测进行加权。一方面,由于最终的边缘预测应该能够抑制图像中复杂的纹理,高维侧边比低维侧边具有更大的

14、重要性;另一方面,这种融合策略平等地对待同一侧输出中的所有像素,因此难以有选择地保留不同侧边的互补优点。上述问题最终会导致识别出的边缘过于宽大模糊,无法有效抑制背景纹理,识别出的边缘定位不准确,从而影响边缘检测器获得细化清晰边缘的性能。为了解决上述问题,即获得定位更加准确、能有效抑制背景纹理且细化清晰的边缘,本文的贡献如下:(1)提出了一个改进的骰子损失函数,命名为细化骰子损失函数(refine dice loss,RD)。改进的损失函数是对多损失融合的简单扩展并提高了边缘检测性能。(2)提出了一个新的细化融合块(refine fusionblock,RFB)。RFB能融合不同阶段的侧边输出。

15、(3)提出了归一化细化模块(groupnorm refineblock,GRB)。该模块包含于 RFB中,用于将融合后的边缘图进行细化,从而获取对象细化清晰边缘。整个方法称之为融合卷积特征法(fusion of convo-lutional features,FCF)。(4)消 融 实 验 表 明 融 合 卷 积 特 征 法 FCF 在BSDS500 数据集中性能优越。在 BSDS500 数据集中,基于本文方法,单尺度下 F-score(ODS)达到了2149Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,

16、17(9)0.810,超过了 HED16的 0.788,RCF17的 0.793 以及近期边缘检测算法 DRC(deep refinement contour)26的0.801,CATS(context-aware tracing strategy)27的 0.805。同时 F-score(OIS)以及平均精度(average precision,AP)都有所升高。1相关工作作为计算机视觉领域最基础的工作,边缘检测算法已经被广泛研究了许多年。按照不同技术特点,大致可以分为两类:第一类是传统的边缘检测算法;第二类是基于深度学习的边缘检测算法。1.1传统边缘检测算法早期边缘检测算法主要有:Cann

17、y算子3-4、Sobel算子2等。这类传统方法是对像素值进行微分计算,从而获得图像的边缘。这些方法在识别边缘时不够准确,且无法抑制图像中的纹理,所得到边缘图也会出现不连续的情况。除了上述方法外,还有基于特征学习的算法,如 Pb(predict the probability of boundary)28、gPb-UCM(global Pb using an ultrametric contour map)19、SE(fast edge detection using structured forests)29等,这些算法通常采用复杂的方式来获取不同的低维特征如强度、梯度等,从而生成对象的边缘。

18、与传统方法相比,这些算法获得了很好的性能,但是只能提取低维边缘特征。1.2基于CNN的边缘检测算法最近先进的边缘检测方法是建立在深度卷积神经网络之上的,例如 HED16、CED18、RCF17以及最近的 CATS27、DRC26等。CNN能自动从训练样本中学习低维到高维的特征。因此,基于 CNN的边缘检测器可以在融合的特征图上而不是原始图像上寻求边缘的高响应,这有助于它们生成语义上有意义的轮廓并取得了显著的性能。HED16是最早使用卷积神经网络进行边缘检测的算法,该算法利用去掉全连接层和最后一个池化层的 VGG16网络,学习不同阶段的特征图从而获得了对象的边缘。这是个全新的进行边缘检测的算法,

19、推动边缘检测任务迈上了新的台阶。基于HED16的高性能,RCF17也利用了跳跃层结构和与 HED16类似的损失函数,但它从 VGG16模型的每个卷积层进行独立预测。RCF17在每个阶段的结果特征图中使用了额外层来获取融合特征。每个额外层都跟着一个卷积层,然后一个反卷积层被用来上采样特征图,一个交叉熵损失函数层连接到上采样层,所有的上采样层都被串联起来,从而获得边缘图。由于HED16网络获取的对象边缘宽大且模糊,CED18加入了一个细化模块(refine module),该模 块 可 以 进 行 特 征 融 合,并 且 采 用 亚 像 素 卷 积(subpixel convolution)替换双

20、线性插值法进行上采样。此外,其还采用一个自上而下的反向细化路径,该路径使用有效的亚像素卷积逐步提高特征图的分辨率。CATS27使用一种通过追踪边界进行特征分解的新型损失函数,用于更好的侧边学习;同时其提出了一种上下文感知融合块,通过聚合已学习侧边的互补优点来解决侧边混合问题。其优点在于不进行任何后处理即可得到清晰的边缘,且对纹理的抑制效果较好。本文参考 CATS27和 DRC26,设计了细化融合模块,旨在获得清晰且有效抑制纹理的边缘图像。2提出的方法本章详细阐述了融合卷积特征法(FCF),该方法通过细化骰子损失函数(RD)、细化融合块(RFB)、归一化边缘细化块(GRB)来解决边缘模糊且定位不

21、准确的问题。在细化骰子损失函数的监督下,RFB可以学习以像素方式选择性地聚合侧边的不同描绘优点,从而解决融合期间的侧边混合问题,同时配合 GRB对边缘进行细化,从而获得清晰的对象边缘图。本文所提方法的主要结构如图 1 所示(其中Refine Dice表示本文提出的 RD;降维层主要用于提取不同阶段特征并压缩图片通道)。2.1主干网络受到 HED16、RCF17、DRC26、FCN(fully convolutionalnetworks)30等方法启发,本文采用剪枝的 VGG16为主干网络,该网络为端到端的边缘检测网络,剪枝后由 13 个卷积层和 4 个池化层构成。具体来说,网络结构分为 5个阶

22、段,每个阶段后连接了一个池化层,每个卷积层都会获得图像的卷积特征,其捕获的有用信息随着感受野的增加变得粗糙模糊。现有的基于卷积神经网络的主流边缘检测器,如HED16、CED18、CATS27、DRC26等,均采用剪枝后的 VGG16 为主干网络,去除了最后一个池化层以及后面的全连接层,主要原因如下16:(1)由于期望具有不同尺度的有意义的侧面输出,步幅为32的层会产生一个太小的输出平面,导致插值预测图太模糊而无法使用。2150王兵 等:融合卷积特征的清晰边缘检测研究(2)全连接层(即使重构为卷积层)是计算密集型的,因此从第五个池化层开始修剪全连接层可以显著降低训练和测试期间的内存或者时间成本。

23、本文使用的网络结构如图1(1)所示。在 VGG16网络中,在每个卷积阶段后都添加了一个额外层,该层中包含11通道数为21的卷积层,该层的主要作用是累积每个阶段的结果特征图,通过求和操作来获得该阶段对应的混合特征。获得每层混合特征后,使用11的卷积层将特征图压缩到1通道。由于卷积操作会对图像进行压缩,每个阶段获取到的特征图大小都不一样。为得到相同大小的特征图,需要在第一阶段后添加上采样层,将图片放大到与第一层相同大小,便于在 RFB 块中进行特征融图1本文模型结构Fig.1Model structure of this paper2151Journal of Frontiers of Compu

24、ter Science and Technology计算机科学与探索2023,17(9)合。在上采样层后添加了 sigmoid层,将该层的输出结果添加到结果集中,同时将融合细化后的特征图也添加到结果中,在进行 sigmoid操作后即可输出边缘图。2.2边缘细化融合块RFB由于 VGG16网络具有分层特性,为充分利用低维边缘图中的边缘细节以及高维边缘图中具有鲁棒纹理抑制的全局上下文,HED16、RCF17和BDCN(bi-directional cascade network for perceptual edge detection)24均采用了加权平均操作,便于从多级侧边边缘图中获得统一的边

25、缘预测。虽然加权平均方法是有效的,但是这种操作会导致不同阶段的侧边输出出现混合问题27。因为侧面边缘图中的所有像素都共享一个固定权重且在融合过程中具有相同的重要性。为避免侧面混合并充分利用不同层级的侧面输出特征,本文设计了一个细化融合模块RFB,通过融合不同侧边输出的特征图来吸收各层特征的优点。RFB结构如图1(2)所示。用sides=side1,side2,side5表 示 VGG16 网 络不同阶段侧边输出图,RFB首先利用fuse层在一维维度上对输入sides进行连接操作,卷积层以及 33-5conv层可以从sides中学习到各阶段输出特征图的权重。卷积层中采用33的卷积核来获取每阶段侧

26、边输出特征图上下文信息,从而推断出权重,并使用GroupNorm 函数将图片通道切分成多个组,并进行归一化,ReLU函数可以将负数像素值变为0,正数像素值不变,从而将边缘像素和非边缘像素区分开,便于更好挖掘边缘特征。为了进一步获取更细化的边缘特征图,在RFB结构中添加了两个边缘细化模块GRB,该模块可以实现获取清晰细化边缘图,下节将详细阐述。随后利用softmax激活函数对每个阶段侧边图的分数图(score map)27进行归一化从而获得侧边输出权重图Wcontext=W1context,W2context,W5context。最终的边缘预测用Pfinal表示,其计算公式如下:RFB(i)=i

27、=1sides(Wicontext*Si)(1)Pfinal=sigmoid(unsqueeze(RFB(i)(2)其中,sides表示侧边输出图总数,Wicontext表示第i个侧边输出图的上下文权重,Si表示第i个侧边输出图。unsqueeze的作用是增加特征图维度,得到的结果再带入到 sigmoid 函数进行运算。Pfinal为模型最终输出的边缘预测图。2.3归一化细化模块归一化细化模块(GRB)主要用于细化特征边缘图,该模块可以更好地对边缘进行细化,鼓励对象产生清晰边缘,其结构如图 1(3)所示。该模块由一个卷积层、sigmoid函数、归一化层和ReLU层构成。由于不同的分辨率会影响最

28、终的输出边缘特征比例,本模块可以自动平衡特征。RFB中的融合特征图在经过鲁棒优化后,会被GRB中33输出通道为64的卷积核卷积得到新的特征图,sigmoid函数用于激活可被训练的参数,得到的新的特征图会被 sigmoid函数自动加权,随后被归一化层和 ReLU 层处理,从而鼓励目标产生清晰边缘。与其他卷积层相比,归一化细化模块可以提高边缘检测性能,并且效率更高。2.4细化骰子损失HED16使用了一个权重交叉熵函数用于边缘预测。权重交叉熵可以高效监督网络来学习合理的边缘图,但它在边缘和非边缘样本之间的注意力高度不平衡,使得难以区分边缘共享特征且始终平滑高频区域的混淆像素,检测到的边缘图通常包含错

29、误分类的混淆像素(真正边缘周围的像素),这些像素会在真正边缘像素周围产生厚边,并获得假正边缘,从而在纹理区域中形成暗阴影。因此,文献25使用了骰子损失函数:L(P,G)=i=1Np2i+i=1Ng2i2i=1Npigi(3)其中,pi是预测图P的第i个像素,gi是标签G的第i个像素,N代表输入图片总数。虽然该损失函数对边缘细化有一定效果,但是并没有考虑多注释问题。为了更好提升目标边缘检测效果,本文提出了一个改进的骰子损失函数,命名为细化骰子损失函数(RD),计算公式如下:RD(P,G)=i=1Np2i+i=1Ng2i+2i=1Npigi+length(P)(4)其中,、为超参数,length(

30、P)为预测图长度。由于网络识别出来的真实对象边缘周围还存在混淆像素,这些像素并不是真正的边缘像素。为了更好地抑制混淆像素来获取细化边缘图,使用了和参数,该参数在抑制混淆像素中有着重要作用。实2152王兵 等:融合卷积特征的清晰边缘检测研究验表明,值越大,对混淆像素的抑制效果越差。消融实验找到了和的最优解,本文将设置为0.01,设置为10-4。3实验与分析为验证本文提出的RFB和改进骰子损失函数的有效性,采用VGG16为主干网络,并在网络中添加了RFB,该网络使用开源的 Pytorch31来实现,数据集为公共数据集BSDS50019。随后,采用消融实验来评估本文提出的融合卷积特征法(FCF)性能

31、,并对其进行了分析。3.1训练设置优 化 器:本 文 所 有 实 验 在 一 张 NVIDIA RTX3090 显卡上进行。本文使用的主干网络为 VGG16网络。在训练过程中,图像迭代数设置为1 000,选择随 机 梯 度 下 降 优 化 器(stochastic gradient descent,SGD)。具体参数如下:批量大小为1,动量为0.9,学习率为 10-6,权重衰减为 2E-4,最大轮次为 30,迭代大小设置为10。现有的优化器主要有:标准梯度下降优化器(gradient descent,GD)、批量梯度下降优化器(batch gra-dient descent,BGD)以及随机梯

32、度下降优化器(SGD)。GD 优化器训练速度太慢,在大型数据集中,每输入一个样本都要更新一次参数,且每次迭代都需要遍历所有样本,会使得训练过程极其缓慢,需要花费很长时间才能得到收敛解。本文使用的数据集有28 800张图片,属于大型数据集,因此不宜采用该优化器。BGD 优化器在一次更新中,会计算整个数据集梯度,因此,当遇到大数据集时,其计算速度非常慢。同时,当投入新数据时,不能实时更新模型,效率低下。SGD优化器对梯度的要求较低,即计算梯度快,而对于引入噪声,SGD都能很好地收敛,应用大型数据集时,训练速度非常快,超过了 BGD,大大提升了模型训练效率。本文使用的数据集为大型数据集,且参考其他边

33、缘检测器(如 CATS27等)使用的优化器,本文采用SGD优化器来训练模型。数据集:本文采用 BSDS500数据集作为训练和测试集。此数据集由伯克利大学(Berkeley Universityof California)计算机视觉团队提供,被广泛应用于图像分割和目标边缘检测。共包含 200张训练图,100张验证图,200张测试图。由于训练样本较少,本文采用了 HED16扩充的数据集 HED-BSDS16。该数据集将原始 BSDS500数据集进行了尺度缩小和放大,尺度分别有 0.5、1.0、1.5。并在每个尺度上分别对图像进行了旋转,一共旋转了 16个不同的角度。最终将原始数据集扩展到了28 8

34、00张图片。3.2评估方法对于边缘检测器来说,最重要的步骤就是在一个允许的误差范围内,将检测出的边缘与原图像标签(ground truth)进行像素匹配,报告基于数据集尺度的固定轮廓阈值(optimal dataset scale,ODS)、基于图片尺度的每个图像最佳阈值(optimal image scale,OIS)的F分数以及平均精度(average precision,AP)26。此外,还需要通过绘制预测图像的准确率和召回率曲线(precision and recall curve,pr-curve)来评估边缘检测器的整体性能。鉴于是否需要后处理步骤,评估方法一般分为两种:(1)标准评

35、估方法(standard evaluation)。该方法通常增加了标准后处理操作,后处理操作主要有非极大值抑制以及数学形态学运算,从而获取细化边缘图,最后将细化后的边缘图与标签进行匹配。(2)清晰性评估法(crispness-emphasized evalua-tion)。与标准评估算法不同,清晰性评估算法不使用非极大值抑制等后处理操作,直接根据边缘检测器得到的边缘图进行评估,这样可以直接评估边缘检测器对图像边缘检测的准确性和细化性,对边缘检测器来说,是一个具有挑战性的评估方法。本文的贡献是提供了一种边缘细化检测算法,即使不使用非极大值抑制也能获取定位准确的清晰边缘图。因此,采用了上述两种评价

36、方法来验证本文提出的FCF的高效性。3.3与其他方法对比本节主要将本文提出的FCF与传统和近期边缘检测算法在BSDS500数据集中进行了对比。表1展示了 FCF 在标准评估法中的 F-score(ODS)、F-score(OIS)以及平均精度AP。表 1为在 BSDS500数据集中,采用标准评估法,使用非极大值抑制后处理操作得到的F-score(ODS)、F-score(OIS)以及AP分数,表1为单尺度结果。本文对比了经典边缘检测算法以及近期的方法 BMRN(bidirectional multiscale refinement network)34、FMLED(fine-grained m

37、ulti-scale feature representation light-2153Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(9)weight network for edge detection)35、AM(anisotropicmulti-scale edge detection)36、BPM(BP neural networkand morphology)22。从表 1 中可以看出本文提出的融合卷积特征法(FCF)超过了近期的边缘检测算法,得到了很高的分数。F-score(ODS)分别

38、高于 HED2.8%、CED 2.0%、CATS 0.6%、DRC 1.1%、BMRN341.0%、FMLED3517.0%、AM367.1%、BPM221.4%,F-score(OIS)高于得分最高的 CATS 0.5%,AP 超过最好的 CED 2.3%。由此可以看出,本文提出的 FCF能有效提升对象边缘检测精度,使得识别出来的边缘更加贴近标签。表 2展示了 FCF在没有非极大值抑制后处理时的评估结果。与近期先进的边缘检测算法对比,FCF在清晰性评估中,F-score(ODS)达到了0.801,超过最好的 CATS 13.6%,F-score(OIS)超过 CATS 13.9%。不进行任何

39、后处理,直接对检测出的边缘进行评估,本文提出的 FCF 获得了高于其他边缘检测器的结果,足以证明FCF不仅能有效检测出边缘,还能对边缘进行细化,从而提高边缘检测性能。同时,在不进行任何后处理的情况下,本文方法在 ODS分数上已经接近人类水平,且OIS分数已经超过了人类水平。表3展示了RCF与FCF的单尺度和多尺度(FCF-MS)测试结果。单尺度 FCF 的 F-score(ODS)、F-score(OIS)、AP分别比单尺度RCF高出2.1%、1.6%、1.9%,多尺度 FCF 的 F-score(ODS)、F-score(OIS)、AP分别比多尺度RCF高出0.5%、0.2%、2.6%。由表

40、 3可知,在单尺度和多尺度测试上,本文所提的FCF方法都取得了超越其他检测器的边缘检测性能。本文还绘制了 pr-curve 来验证 FCF 边缘检测性能,如图 2 所示。图 2(a)为在 BSDS500 数据集中单尺度 FCF与其他边缘检测器对比,图 2(b)为多尺度FCF与其他边缘检测器对比。不难看出,FCF在单尺度和多尺度测试评估时,所得分数都超过了其他边缘检测器,且超过了人类水平,能大幅提升边缘检测效果。定量分析后,为了直观观察 FCF 突出的边缘检测性能,在不使用非极大值抑制后处理条件下,本文对比了单尺度FCF、多尺度FCF-MS与先进边缘检测算法HED16、RCF17、CATS27的

41、边缘识别效果,如图3所示。从图 3中可以明显观察到本文方法能高效检测出定位准确的清晰对象边缘,避免了CATS将边缘像素抑制,导致边缘断裂的情况。检测出的结果更贴合标签,精度更高,即使在不使用非极大值抑制的情况下依然可以检测出细化边缘。3.4消融实验本文主要提出了一个细化骰子损失函数(RD)以及细化融合块(RFB)来获取定位准确且清晰细化的边缘图。本节采用消融实验,分别验证了细化骰子损失函数(RD)和细化融合块(RFB)的性能,同时也表1FCF在BSDS500数据集上的标准评估Table 1Standard evaluation of FCF on BSDS500 datasetMethodsH

42、umanCanny3Sobel2OEF32gPb-UCM19SE29DeepContour5HFL33HED16CED18CATS27DRC26BMRN34FMLED35AM36BPM22FCFODS0.8030.6110.5390.7460.7290.7430.7570.7670.7880.7940.8050.8010.8020.6920.7560.7990.810OIS0.8030.6760.5750.7700.7550.7640.7760.7880.8080.8110.8220.8200.8050.7050.6500.7850.826AP0.5200.4980.8150.7450.800

43、0.7900.7950.8150.8210.8200.6950.8430.5710.6390.840表2FCF在BSDS500数据集上的清晰性评估Table 2Crispness-emphasized evaluation of FCF onBSDS500 datasetMethodsHumanHED16RCF17CATS27FCF-No-NMSODS0.8030.5880.5850.7050.801OIS0.8030.6080.6040.7160.816表3多尺度FCF对比Table 3Comparison of multi-scale FCFMethodsRCF17RCF-MS17FCFF

44、CF-MSODS0.7930.8110.8100.815OIS0.8130.8300.8260.832AP0.8240.8300.8400.8522154王兵 等:融合卷积特征的清晰边缘检测研究验证了FCF(RD+RFB)的整体性能。说明:上述数据中如果没有使用细化骰子损失函数 RD,则表示使用的是原始骰子损失函数,其计算方法如式(3)所示。如果没有使用RFB,则表示使用了CATS27中的上下文感知块。细化骰子损失函数(RD):为了验证本文骰子损图2FCF与其他算法的pr-curveFig.2pr-curve of FCF and other algorithms图3FCF与其他算法效果对比F

45、ig.3Comparison of effects of FCF with other algorithms2155Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(9)失函数对边缘检测的影响,对比结果如表4所示。分析表4中1、2行数据可知,在没使用RFB情况下,本文提出的细化骰子损失函数(RD)比原始骰子损失函数的 F-score(ODS)、F-score(OIS)分别高了1.4%、1.2%;分析表 4 中 3、4 行数据可知,在使用了RFB 模块时,RD 的 F-score(ODS)和 F-scor

46、e(OIS)比原始骰子损失函数分别高了0.4%、0.2%。对比实验说明,本文提出的改进骰子损失函数能在网络训练过程有效提高算法的边缘识别精度和效率。细化骰子损失中存在和参数,这两个参数为常数。在训练过程中为了避免“非数值”错误,本文添加了参数,其值不能影响损失函数的最终收敛,因此参数应该尽可能小,其寻优过程如表 5所示。此外,实验发现,当取值足够小时,参数对实验结果影响较大,越小,对混淆像素的抑制效果越好,获取的边缘图更加细化清晰且定位准确。为了寻找和参数的最优解,本文对比了不同和取值结果,如表5所示。从表5可以看出,当值不变,值逐渐减小时,F-score(ODS)和F-score(OIS)均

47、保持不变,说明当较小时,并不会影响损失函数收敛,符合预期。当值不变,值不断变小时,F-score(ODS)和 F-score(OIS)在逐渐变大,最终分别稳定在0.810和0.826,说明损失函数此时已经收敛,且和已经获得最优值。结合表 5 可知,和的最优值可以取 F-score(ODS)=0.810 和 F-score(OIS)=0.826 对应的和值,因此本文取=0.01,=10-4。当=10-4时,不同取值对应最终预测结果如图4所示。从图4中可以直观看出,当的取值小于等于0.1时,获取的边缘达到最细,清晰度最高,定位最准确,说明此时和已经取得最优解,且细化骰子损失函数收敛,其反映的结果与

48、表5中数据保持一致。细化融合块(RFB):首先对 RFB 进行量化分析。从表4中第1、3行分析可知,在不使用RD时,使用RFB的F-score(ODS)、F-score(OIS)比不使用RFB分别高了1.1%、1.4%;从表4中第2、4行可知,在使用了 RD 情况下,使用 RFB 的 F-score(ODS)、F-score(OIS)比不使用RFB分别高了0.1%、0.4%。为了验证本文提出的细化融合块的高效性,在使用RD情况下,分别输出了使用RFB和不使用的情况下,网络侧边层的输出特征图,如图 5所示。从侧边图可以看出,本文提出的细化融合块(RFB)具有很好的边缘识别细化效果,它很好融合了不

49、同尺度下的侧边输出特征,更多地关注精细平滑的非边缘区域上的高级别输出,能有效抑制非边缘像素,并且对边界处的边缘像素给予更高的权重,让其根据不同侧边图的特征,吸收其不同的优点,更加关注于边缘的描绘,同时 RFB 也解决了不同侧边融合过程中的像素混合问题。RFB 将不同侧边进行融合后,通过本文提出的归一化细化模块GRB对融合特征图进行边缘细化,GRB使用卷积层对融合特征图进行处理,并使用了 Sigmoid 自动更新权重,通过归一化和ReLU处理,鼓励融合特征图产生清晰且细化的边缘预测图,从而提高边缘检测性能。表4FCF改进部分数据对比Table 4Data comparison of improv

50、ed part of FCFNumber1234RDRFBODS0.7980.8090.8070.810OIS0.8130.8230.8240.826表5不同、取值对比Table 5Comparison of different values ofand1 0001 0001 0001 0001 0001 00010010010010010010010101010101011110-110-210-310-410-510-610-110-210-310-410-510-610-110-210-310-410-510-610-110-210-3ODS0.7940.7940.7940.7940.7

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服