收藏 分销(赏)

融合残差Inception与双向ConvGRU的皮肤病变智能分割.pdf

上传人:自信****多点 文档编号:712790 上传时间:2024-02-19 格式:PDF 页数:10 大小:1.94MB
下载 相关 举报
融合残差Inception与双向ConvGRU的皮肤病变智能分割.pdf_第1页
第1页 / 共10页
融合残差Inception与双向ConvGRU的皮肤病变智能分割.pdf_第2页
第2页 / 共10页
融合残差Inception与双向ConvGRU的皮肤病变智能分割.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、ISSN 10049037,CODEN SCYCE4Journal of Data Acquisition and Processing Vol.38,No.4,Jul.2023,pp.937-946DOI:10.16337/j.10049037.2023.04.016 2023 by Journal of Data Acquisition and Processinghttp:/Email:sjcj Tel/Fax:+8602584892742融合残差 Inception与双向 ConvGRU的皮肤病变智能分割顾敏杰1,李雪2,陈思光1(1.南京邮电大学物联网学院,南京 210003;2.南

2、京医科大学附属妇产医院(南京市妇幼保健院)皮肤科,南京 210004)摘要:由于皮肤病病灶的形状、颜色以及纹理差异极大,且边界不明确,使得传统深度学习方法很难对其进行准确分割。因此本文提出了一种融合残差 Inception与双向卷积门控循环单元(Convolutional gated recurrent unit,ConvGRU)的皮肤病变智能分割模型。首先设计了一种云边协同的皮肤病变智能分割服务网络模型,通过该网络模型,用户可以获得快速、准确的分割服务;其次,构建了一种新的皮肤病变智能分割模型,通过融合残差 Inception 与双向 ConvGRU,该模型能融合不同尺度特征,提高模型特征提

3、取能力,并能充分利用底层特征与语义特征之间的关系,捕获更丰富的全局上下文信息,取得更好的分割性能;最后,在 ISIC 2018 数据集上的实验结果表明,所提出的智能分割模型与近期提出的几种 UNet扩展模型相比,取得了更高的准确率与 Jaccard系数。关键词:皮肤病;图像分割;残差网络;U型卷积神经网络;卷积门控循环单元中图分类号:TP391 文献标志码:AResidual Inception and Bidirectional ConvGRU Empowered Intelligent Segmentation for Skin LesionGU Minjie1,LI Xue2,CHEN

4、Siguang1(1.School of Internet of Things,Nanjing University of Posts and Telecommunications,Nanjing 210003,China;2.Department of Dermatology,Women s Hospital of Nanjing Medical University(Nanjing Maternity and Child Health Care Hospital),Nanjing 210004,China)Abstract:The shape,color and texture of sk

5、in lesions are very different,and the boundaries are not clear,which makes it difficult for the traditional deep learning methods to segment them accurately.Based on the above challenge,this paper proposes a residual Inception and bidirectional convolutional gated recurrent unit(ConvGRU)empowered in

6、telligent segmentation model for skin lesion.Specifically,a cloud-edge collaboration intelligent segmentation service network model for skin lesion is firstly designed.By this network model,users can obtain quick and accurate segmentation services.Furthermore,a novel intelligent segmentation model f

7、or skin lesion is developed.By integrating residual Inception and bidirectional ConvGRU,this model can fuse multi-scale features and make full use of the relationship between low-level features and semantic features.It improves the ability of the model to extract features 基金项目:国家自然科学基金(61971235);中国博

8、士后科学基金(2018M630590);江苏省“333高层次人才培养工程”;江苏省博士后科研资助计划(2021K501C);南京市妇幼保健院青年人才和南京邮电大学“1311”人才计划资助。收稿日期:20220121;修订日期:20220916数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.4,2023and capture global context information,and leads to better segmentation performance.Finally,experimental results

9、 on ISIC 2018 dataset show that the proposed intelligent segmentation model achieves higher accuracy and Jaccard coefficient than several recently proposed UNet extended models.Key words:skin lesion;image segmentation;residual network;UNet;convolutional gated recurrent unit(ConvGRU)引 言皮肤病是人类最普遍的疾病之一

10、,而恶性皮肤病,如皮肤癌,是造成全世界人类死亡的重要原因之一,其中黑色素瘤是最致命的皮肤癌。2021年美国癌症协会的年度报告称,2021年美国将会有大约 10万名新确诊的黑色素瘤患者1,如果不及早发现,黑色素瘤会深入皮肤,并攻击附近健康细胞。一旦黑色素瘤扩散到身体的其他部位,就变得难以治疗,其 5年生存率低于 15%2。Siegel等3研究发现,如果黑色素瘤能在早期阶段被诊断,5年生存率可达到 92%,因此,恶性皮肤病的早期诊断至关重要。然而,良性皮肤病与恶性皮肤病在视觉上极其相似,这给皮肤病鉴别带来了极大困难。当前,皮肤病诊断需求急剧增加,主要依赖临床医生视觉评估来进行诊断,这种方法耗时烦琐

11、,且易出错。针对上述诊断需求量大与人工诊断易出错的问题,计算机辅助诊断(Computeraided diagnosis,CAD)系统已普及于皮肤病的初步诊断。皮肤病 CAD 系统的执行过程分为 4个步骤:预处理、分割、特征提取与分类。其中,分割是对皮肤病图像进行分析的基础工作,且分割结果对皮肤病诊断的影响最大4。分割可通过检查病灶的大小、形状、颜色与纹理来完成。然而,由于皮肤病种类繁多,且病灶的形状、大小和颜色各不相同,有些病灶边界不规则,有些病灶与皮肤之间的过渡很平滑,因此很难进行精确的分割。随着近年来机器学习与深度学习的快速发展,它们在许多领域取得了良好的效果。与此同时,众多研究者开始将机

12、器学习与深度学习应用于医学图像领域。目前,在图像分割领域,具有代表性的方法大概有 3类:基于机器学习的方法、基于全卷积神经网络的方法和基于编码器解码器架构的方法5。基于机器学习的方法。Aljanabi等6利用人工蜂群算法寻找黑色素瘤分割的最优阈值,然后将得出的最优阈值用于黑色素瘤分割;Khan等7提出了用于检测与区分黑素瘤与良性痣的智能系统,首先使用高斯滤波器对皮肤病图像进行去噪,然后使用改进的 k均值聚类算法对病灶进行分割,最后应用支持向量机对皮肤病进行分类;Devi等8提出了一种基于模糊 C 均值聚类(Fuzzy Cmeans,FCM)的非皮肤镜图像病变分割方法,该方法利用局部极大值与欧氏

13、距离检测图像直方图的二项分布特性,并使用直方图属性对 FCM 进行自动聚类选择,从正常皮肤中分割出病灶区域;文献 9 结合基于像素的马尔可夫随机场与随机区域合并算法,将似然函数分解为像素似然函数与随机区域合并似然函数的乘积,该方法提高了对边界不规则病变的分割精度。以上方法大多基于传统的机器学习算法,通常只能提取底层特征信息,而无法提取高级语义特征,因此,传统方法难以对复杂皮肤镜图像进行精确的分割。基于全卷积神经网络的方法。为了克服传统机器学习方法在图像分割方面存在的问题,Long等10提出了全卷积神经网络(Fully convolutional network,FCN)。FCN 是最早用于语义

14、分割的深度学习方法,该网络将 CNN 中的所有全连接层都替换为卷积层,这使得它能接收任意大小的图像并输出相同大小的分割图。FCN 经常被用于医学图像分割任务。Kaymak 等11使用 4 种不同的 FCN 结构来对皮肤病图像进行分割,包括 FCNAlexNet、FCN8s、FCN16s 与 FCN32s。AlMasni 等12提出一种新的FCN 架构 FrCN(Full resolution convolutional network),它直接学习输入数据每个像素的完整分辨率特征,实现了更精确的逐像素分割;Yang 等13提出了一种随机森林与 FCN 相结合的皮肤病图像分割方938顾敏杰 等:

15、融合残差 Inception与双向 ConvGRU 的皮肤病变智能分割法,将随机森林与 FCN 的分割结果融合成最终的图像分割结果;文献 14 提出了一种基于对比度信息融合的 FCN 用于皮肤病变分割,该网络充分利用了架构中每个卷积块的对比度信息。尽管以上基于FCN 的方法提升了皮肤病图像分割的准确率,但也存在一定的局限性,比如,没有考虑全局上下文信息,对图像细节敏感度较低等。基于编码器解码器架构的方法。基于深度学习的编码器解码器体系结构被广泛应用于医学图像分割,其中 UNet15是目前最流行的用于医学图像分割的神经网络之一。UNet由捕获上下文信息的编码器与提供精确分割定位的编码器组成。与

16、FCN 相比,UNet的优势在于可以更多地感知到全局上下文信息,并且能够在训练样本缺少的情况下取得良好的分割性能。文献 16 使用空洞空间卷积池化金字塔(Atrous spatial pyramid pooling,ASPP)生成多尺度特征,并且使用 Dense 连接来组合编码器与解码器的特征图;文献 17 在 UNet的每一步编码步骤与解码步骤之间加入残差连接,保留了编码器阶段由于各层最大池化操作而丢失的信息;Iranpoor等18在 UNet编码器部分融合预先训练的 ResNet网络进行特征提取,并将编码器部分的池化层替换成步长更大的卷积操作;Nazi等19使用 UNet从周围皮肤中分割出

17、病灶区域,并通过融入 dropout模块、数据增强与迁移学习,克服了神经网络应用于小样本医疗数据集的局限性;文献 20 使用 10个标准卷积层、金字塔池模块与扩展卷积块代替 UNet中的编码路径,这使得模型能够学习更具有代表性的图像特征。尽管 UNet在医学图像分割领域取得了很大成功,但在特征提取与特征拼接方面存在一定提升空间。例如,原始 UNet使用 33卷积进行特征提取,无法获得多尺度感受野;虽然 UNet编码器提取的特征具有丰富的图像细节信息,解码器提取的特征包含更多的高级语义特征,但是原始 UNet中的特征拼接操作无法充分利用细节信息与语义特征的依赖关系。为了进一步提升分割模型特征提取

18、与感知上下文信息能力,本文提出了一种融合残差 Inception与双向卷积门控循环单元(Convolutional gated recureent unit,ConvGRU)的皮肤病变智能分割模型。主要贡献包括:(1)设计了一种云边协同的皮肤病变智能分割服务网络模型,通过该网络,用户可以获得快速、准确的分割服务;(2)提出了一种基于 UNet的皮肤病变智能分割模型,通过融合设计的残差 Inception模块以及双向 ConvGRU 模块,所设计出的编码器与解码器能够提取多尺度特征,并充分利用底层特征与语义特征的关系,以更好地感知全局上下文信息;(3)实验结果表明,提出的模型训练效率高,和现有模

19、型相比具有更好的分割性能。1 网络模型 本节构建了云边协同的皮肤病变智能分割服务网络,其网络架构如图 1所示,由用户、边缘服务器、云服务器与医疗机构 4部分组成。图 1皮肤病变智能分割服务网络模型Fig.1Intelligent segmentation network model for skin lesion939数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.4,2023(1)用户。由几种类型的用户终端组成,如平板电脑、智能手机、笔记本电脑与个人电脑等。主要考虑两类用户,包括普通患者与皮肤科医生。具体来说,普通患者

20、可使用相机或手机拍摄皮肤病照片,通过将照片上传至客户端来生成分割服务请求;然后,客户端会把该请求发送给边缘服务器;最后,患者会接收到边缘服务器的服务响应,即获得相应的分割结果。相类似地,当皮肤科医生有辅助分割需求时,可将皮肤镜图片上传至客户端,获得由边缘服务器返回的分割结果,作为准确诊断的基础,反馈的分割结果可提高最终诊断的准确率。(2)边缘服务器。边缘服务器的主要功能是在接收到云服务器的分割模型参数后,为用户提供分割服务。当边缘服务器接收到用户的服务请求时,将图片输入至分割模型,然后把分割结果发送至用户。此外,边缘服务器会存储诊断业务中的相关样本。对于置信度高的分割结果,服务器会存储该结果及

21、其原始图片;对于置信度低的结果,服务器会将其与原始图像发送至医疗机构校正,经过校正的样本将发送至边缘服务器进行存储。最后,边缘服务器中的新样本会作为扩充的训练样本用于后续的模型训练。(3)云服务器。由于模型训练对计算资源的高度依赖,因此其被部署在云端。模型在云服务器中基于医疗机构提供的数据集进行训练,并将训练参数上传到边缘服务器。同时,基于边缘服务器在提供服务过程中涉及到的新样本,模型能够进一步获得精度提升。(4)医疗机构。医疗机构主要有两个功能:为云服务器中的模型训练模块提供训练样本,样本主要由两部分来源构成,包括国际皮肤成像合作组织(International skin imaging c

22、ollaboration,ISIC)提供的公开数据集与医疗机构在提供诊断服务过程中收集的相关数据;将边缘服务器中分割结果置信度较低的样本进行校正,然后将校正好的样本反馈给边缘服务器。2 融合残差 Inception与双向 ConvGRU的皮肤病变分割模型 为了提高模型特征提取的准确度以及感知全局上下文的能力,本节融合残差 Inception与双向 ConvGRU21,基于 UNet提出了一种新的皮肤病变智能分割模型。2.1分割模型架构图 2 展示了本节所设计的融合残差 Inception 与双向 ConvGRU 的分割网络架构。与经典的 UNet类似,该模型整体架构由左侧的编码器与右侧的解码器

23、组成,基于提升模型特征提取与捕获上下文信息能力,本部分重新设计了编码器与解码器,具体的设计如下:(1)编码器。编码器为典型的卷积神经网络结构,它包括两个卷积操作与一个用于下采样的 22 最大池化。在每个下采样操作后,特征通道的数量将增加一倍。与原始 UNet 不同的是,为了更好地提取空间特征,卷积操作使用了残差 Inception 模块,并且该设计没有对输入特征图的尺寸带来改变。(2)解码器。解码器包括一个用于上采样的 22的转置卷积、一个批标准化(Batch normalization,BN)操作、一个特征拼接操作与两个残差 Inception模块。解码器将进行 4次上采样操作,在每次上采样

24、操作后,特征图的尺寸将增大一倍,特征通道的数量将减少一半。为了使网络能够更加有效地利用浅层特征与深层特征的关系,在原始 UNet的拼接操作中应用了双向 ConvGRU 模块。此外,本文在上采样后添加的一个批标准化操作用来提高神经网络的稳定性与训练速度。在最后一层,使用 11卷积核生成与原始输入图像大小相同的特征图。2.2残差 Inception模块基于 GoogLeNet的 Inception 模块与 ResNet的残差思想,本节设计了一种残差 Inception 模块代替940顾敏杰 等:融合残差 Inception与双向 ConvGRU 的皮肤病变智能分割传统 UNet中的 33卷积操作。

25、一般来说,增加模型深度与宽度是提高其性能最直接的方法,但增加深度与宽度意味着参数的增加,具有大量参数的模型训练极其耗费计算资源,并且容易产生过拟合问题。为了解决这些问题,将 Inception 模块引入 UNet中。通过增加网络的深度与宽度以及减少参数,Inception模块可提高计算资源的利用率与图像特征提取的效率。Inception模块采用不同大小的卷积核来获得不同的感受野,最后对不同的特征图进行拼接,融合不同尺度的特征。特别地,为了解决随着网络加深而出现的网络退化问题,如梯度消失与梯度爆炸,本文在 Inception 模块中添加了残差连接。设计的残差 Inception 模块如图 3 所

26、示,包括 3 个 11 卷积核与 3 个 33 卷积核。它采用 11 卷积来减少输出特征图的通道数,这相当于减少参数的数量。与原始的 Inception模块不同,设计的模块使用了两个 33 卷积核,而不是一个55卷积。两个 33的卷积核与一个 55的卷积核获得的感受野是等价的,但参数量会少 25%左右,可极大减少计算量。前层的输出经过 3组不同的卷积操作后,得到具有 3组不同感受野的特征图。3 组特征图进行拼接后,前层输出的特征图将会经过残差连接与之相加。残差连接的实现定义为m=F(n,ci)+n(1)式中:n与m分别表示残差 Inception模块的输入与输出;F函数由上述 Inceptio

27、n操作组成;c表示其中的卷积操作。最后,每个残差 Inception 模块后面都有一个线性整流函数(Rectified linear units,ReLU)的激活函数。2.3双向 ConvGRU模块为了充分联系图像的低级特征信息与高级语义特征,设计的分割模型在原始 UNet的特征拼接操图 2皮肤病变分割模型架构Fig.2Model architecture for skin lesion segmentation图 3残差 Inception模块Fig.3Residual Inception module941数据采集与处理 Journal of Data Acquisition and Pr

28、ocessing Vol.38,No.4,2023作中应用双向 ConvGRU 模块。传统的 GRU 在状态转换中采用了全连接操作,它在处理序列数据时效果显著。但是由于它没有对空间数据进行编码,包含了太多的空间数据冗余,因此在处理图像数据时很难获得令人满意的效果。使用传统GRU 处理图像数据主要存在两个问题:(1)参数数量太大;(2)可能会忽略像素间的空间相关性。为了解决这个问题,设计的模型引入了 ConvGRU 结构,该结构使用卷积计算代替原始 GRU的全连接层,这使其既可提取时序信息,又可有效提取空间特征,ConvGRU 的结构如图 4所示。ConvGRU 中的各部分作用如下:(1)更新门

29、zt。zt判断前一个时刻隐藏状态ht-1对当前输入xt的重要程度。ht-1越重要,其被带入至当前时刻隐藏状态ht的信息就越多。zt的计算公式为zt=(wxzxt+whzht-1)(2)式中:wxz与whz分别对应更新门zt中xt与ht-1的权重;xt为当前时刻的输入;为卷积操作;为 sigmoid激活函数,用于将zt映射至 0 1。(2)重置门rt。rt控制遗忘前一时刻状态信息的程度。rt越大,表示遗忘得越少。rt的计算公式为rt=(wxrxt+whrht-1)(3)式中wxr与whr分别对应重置门rt中xt与ht-1的权重。(3)候选隐藏状态ht。完成zt与rt的计算后,ConvGRU 将计

30、算候选隐藏状态ht来用于最终隐藏状态ht的计算。ht的计算公式为ht=tanh(wxhxt+rt(whhht-1)(4)式中:wxh与whh分别对应候选状态计算中xt与ht-1的权重;“”为哈达玛积;tanh为双曲正切激活函数,用于将数放缩至-1 1。(4)最终隐藏状态ht。ht保存当前时刻的信息,并将信息传递给下一个时刻。ht计算公式为ht=(1-zt)ht+ztht-1(5)式中更新门zt决定从ht与ht-1内容中保留多少信息。传统的 ConvGRU 只处理正向的依赖关系,对历史信息的记忆不足,不能充分学习两个方向的数据依赖关系。为了使网络能够更好地考虑图像中时间序列中的所有信息,本文在

31、UNet中加入双向 ConvGRU 模块。如图 5 所示,双向 ConvGRU 包括一个前向 ConvGRU 与一个后向 ConvGRU。前向 ConvGRU 从左至右控制序列,后向 ConvGRU 从右至左控制序列。图 5 中的xe与xd分别为编码器输出的特征图以及对应解码器输出的特征图。前向隐藏状态ht与后向隐藏状态ht分别与对应权重相乘,并将结果相加即可得到最终的隐藏状态ht,即双向 ConvGRU 的最终输出结果yt为yt=tanh(w yht+w yht)(6)式中w y与w y分别对应输出层中前向 ConvGRU 与后向ConvGRU 的权重。图 4ConvGRU 结构Fig.4C

32、onvGRU structure图 5双向 ConvGRU 模块Fig.5Bidirectional ConvGRU module942顾敏杰 等:融合残差 Inception与双向 ConvGRU 的皮肤病变智能分割3 实验结果与分析 首先介绍使用的数据集与评价指标,然后通过与其他方法的比较,验证所设计的皮肤病变分割模型的优越性。3.1数据集与超参数采用 ISIC 201822对模型进行训练与评估。ISIC 2018是国际皮肤成像合作组织发布的大型皮肤镜图像数据集,它由 2 594张红绿蓝颜色系统(Red green blue,RGB)三通道皮肤镜病变图像构成,包括 7种类别皮肤病:恶性黑色

33、素瘤、黑色素细胞痣、基底细胞癌、光化性角化病、良性角化病、皮肤纤维瘤与血管病变。数据集按 7 1 2的比例随机划分为训练集、验证集与测试集。训练数据由原始图像与相应的真实标签(Ground truth)组成,真实标签为二值 PNG 格式图像,像素值分别为 0 与 255。像素值 0 与像素值255分别表示目标病灶外与目标病灶内的区域。由于原始图像分辨率过高并且大小不一,因此所有图像的尺寸调整为 256256。在模型训练过程中,使用自适应矩估计(Adaptive moment estimation,Adam)优化算法与二元交叉熵(Binary crossentropy)来求解模型的最优参数。训练

34、迭代数(Epoch)设置为 60,批大小设置为 8。此外,还应用了学习率动态调整策略。具体地,每当模型训练了 6个 Epoch而其性能提升未超过最小阈值1e-4,学习率将会变为当前的 0.1倍。当模型经过 60轮迭代时训练结束,并保存性能最优的模型。3.2评价指标为了对模型进行准确评估,使用像素准确率(Pixel accuracy)与 Jaccard系数作为模型分割性能的评判标准。Jaccard系数是图像分割任务中最常用的性能评价指标之一,它表示真实标签A与预测分割图B的交集面积,除以真实标签A与预测分割图B的并集面积。Jaccard系数与像素准确率的计算公式分别为Jaccard=|A B|A

35、 B|(7)Accuracy=TP+TNTP+TN+FP+FN(8)式中:TP、TN、FP和FN分别表示真阳性、真阴性、假阳性和假阴性。3.3实验结果对比图 6显示了所设计模型在 ISIC 2018训练数据集上准确率(Accuracy)与损失(Loss)随 Epoch的变化曲线。从图中可看出,模型收敛速度非常快。网络在第一个 Epoch结束就获得了 0.8以上的准确率,并且随着 Epoch 的增加,Loss逐渐降低,Accuracy 逐渐提高。在训练 30 个 Epoch 后,模型几乎全部收敛,这表明模型不仅分割性能优秀,而且训练效率高。图 7显示了设计模型与一些图像分割基准模型在 ISIC

36、2018数据集上的性能对比。如图 7所示,与基准模型相比,本文模型取得了最高的分割性能,主要有以下几点原因。虽然 ResNet50特征提取能力非常强,但是图像分割需要进行像素级的分类,这使得 ResNet50只能将每个像素周围的一个小区域作为输入,进行训练与预测。因此,ResNet50 在训练时需要大量的计算资源,并且由于输入区域的大小限制,网络只能提取局部特征信息。FCN 对每个像素进行分类,这使得它无法有效地学习全局上下文信息。UNet是 FCN 的一个扩展版本,它将网络编码器部分的特征拼接至解码器部分,避免了有效特征信息的丢失。而设计的模型在 UNet的基础上,使用了残差 Incepti

37、on模块来提取特征,并且在特征拼接操作中应用双向 ConvGRU 模块,使得网络能融合多种不同尺度的感受野,以及能够更好地感知图像943数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.4,2023的全局上下文信息,这使其在 4种模型中分割性能最强,进一步验证了设计的残差 Inception模块与在模型中添加双向 ConvGRU 的作用。为验证本文模型中不同模块的有效性,本文进行了消融实验,原始 UNet、仅添加残差 Inception的UNet、仅添加双向 ConvGRU 的 UNet以及添加残差 Inception 和

38、双向 ConvGRU 的 UNet的对比实验结果如图 8所示。从图中可以看出,与原始 UNet相比,融合了本文提出模块的模型性能更好,这证明了残差 Inception和双向 ConvGRU 的重大作用。为更加形象地展现所提出模型的分割性能,图 9显示了模型在 ISIC 2018上的分割结果样例。对于图 9中的所有皮肤病例,模型输出的分割结果与真实标签形状几乎一致,充分验证了模型具备对病灶区域进行精确分割的能力。为进一步评估设计模型的分割性能,本文还与近期提出的几种 UNet扩展方案 ResUnet23、Dense UNet24与 R2UNet25进行了对比,结果如表 1所示。从表 1可以看出,

39、本文模型取得了最高的准确率与 Jaccard 系数,分别为 0.934 与 0.831。为了增加模型的深度,从而提高模型的准确性,ResUnet 在UNet中加入残差连接,取得了 0.919 的准确率和 0.818 的 Jaccard 系数。Dense UNet在 UNet中加入Dense模块,取得了 0.921的准确率和 0.822的 Jaccard系数。上述两个模型虽然缓解了训练过程中出现图 8原始 UNet与添加本文提出模块 UNet的准确率与 Jaccard系数对比Fig.8Comparison of accuracy and Jaccard coefficients of origi

40、nal UNet and UNet with the proposed module图 9测试图片样例Fig.9Examples of test images图 6准确率与损失随迭代次数的变化Fig.6Changes of accuracy and loss with iterations图 7不同模型的准确率与 Jaccard系数对比Fig.7Comparison of accuracy and Jaccard coefficients of different models944顾敏杰 等:融合残差 Inception与双向 ConvGRU 的皮肤病变智能分割的梯度消失问题,但在特征提取方

41、面还有提升空间。R2UNet 的 准 确 率 与 Jaccard 系 数 分 别 为0.929 与 0.827,该模型在 UNet 中加入循环残差卷积模块,增加了网络深度,从而提高了模型的特征提取能力,但是其利用上下文信息的能力依旧欠缺。与上述方法相比,本文模型不仅加入残差Inception 模块提高了模型的特征提取能力,还使用双向 ConvGRU 使得网络能够更好地学习图像的时空上下文信息,因此取得了最高的性能指标,体现了本文模型的优势。4 结束语 本文提出了一种新的皮肤病变智能分割模型。设计了一种残差 Inception 模块,融合多尺度特征,使模型能学习更丰富的特征信息;在上采样阶段,通

42、过融入双向 ConvGRU 模块,充分利用浅层特征与语义特征之间的关系,可提高模型感知全局上下文信息的能力,从而达到提高模型分割精度的目的。实验结果表明,与其他现有方法相比,所提模型显示了显著的性能优势。参考文献:1SIEGEL R L,MILLER K D,FUCHS H E,et al.Cancer statistics,2021J.CA Cancer Journal for Clinicians,2021,71(1):7-33.2WANG Y,LI Y,ZHANG Z,et al.Effect of doping microcapsules on typical electrical p

43、erformances of self-healing polyethylene insulating compositeJ.Applied Sciences,2019,9(15):3039.3SIEGEL R,MILLER K D,JEMAL A.Cancer statistics,2018J.CA Cancer Journal for Clinicians,2018,68(1):730.4FAN H,XIE F,LI Y,et al.Automatic segmentation of dermoscopy images using saliency combined with Otsu t

44、hresholdJ.Computers in Biology and Medicine,2017,85:75-85.5MINAEE S,BOYKOV Y Y,PORIKLI F,et al.Image segmentation using deep learning:A surveyJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,44(7):35233542.6ALJANABI M,ZOK Y E,RAHEBI J,et al.Skin lesion segmentation method for de

45、rmoscopy images using artificial bee colony algorithmJ.Symmetry,2018,10(8):347.7KHAN M Q,HUSSAIN A,REHMAN S U,et al.Classification of melanoma and nevus in digital images for diagnosis of skin cancerJ.IEEE Access,2019,7:90132-90144.8DEVI S S,SINGH N H,LASKAR R H.Fuzzy C-means clustering with histogr

46、am based cluster selection for skin lesion segmentation using non-dermoscopic imagesJ.International Journal of Interactive Multimedia&Artificial Intelligence,2020,6(1):26-31.9SALIH O,VIRIRI S.Skin lesion segmentation using stochastic region-merging and pixel-based Markov random fieldJ.Symmetry,2020,

47、12(8):1224.10LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentationC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Boston,USA:IEEE,2015:34313440.11KAYMAK R,KAYMAK,UCAR A.Skin lesion segmentation using fully convolutional networks:A c

48、omparative experimental studyJ.Expert Systems with Applications,2020,161:1-13.12AL-MASNI M A,AL-ANTARI M A,CHOI M T,et.al.Skin lesion segmentation in dermoscopy images via deep full resolution convolutional networksJ.Computer Methods and Programs in Biomedicine,2018,162:221-231.13YANG T,PENG S,HU P,

49、et al.Pigmented skin lesion segmentation based on random forest and full convolutional neural networksC/Proceedings of SPIE Conference on Optics in Health Care and Biomedical Optics.Guilin,China:SPIE,2018:表 1不同UNet扩展版本的准确率与Jaccard系数对比Table 1Comparison of accuracy and Jaccard coefficients of differen

50、t UNet extension versions分割模型ResUnetDense UNetR2UNet本文模型Accuracy0.9190.9210.9290.934Jaccard0.8180.8220.8270.831945数据采集与处理 Journal of Data Acquisition and Processing Vol.38,No.4,2023514520.14CHEN S,JI C,WANG R,et al.Fully convolutional network based on contrast information integration for dermoscopic

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服