收藏 分销(赏)

MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络.pdf

上传人:自信****多点 文档编号:3008605 上传时间:2024-06-13 格式:PDF 页数:7 大小:6.46MB
下载 相关 举报
MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络.pdf_第1页
第1页 / 共7页
MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络.pdf_第2页
第2页 / 共7页
MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、DOI:10.11991/yykj.202303002网络出版地址:https:/ 型分割网络进行动静脉分类,抑制了倾向于背景的特征并增强了血管的边缘、交点和末端特征,解决了段内动静脉错误分类问题。此外,在 U 型网络的解码器部分加入 3 层深度监督,使浅层信息得到充分训练,避免梯度消失,优化训练过程。在 2 个公开的眼底图像数据集(DRIVE-AV,LES-AV)上,与 3 种现有网络进行方法对比,该模型的 F1 评分分别提高了2.86、1.92、0.81 个百分点,灵敏度分别提高了 4.27、2.43、1.21 个百分点,结果表明所提出的模型能够很好地解决动静脉分类错误的问题。关键词:多类

2、分割;动静脉分类;视网膜图像;多尺度特征提取;血管分割;全局信息融合;卷积神经网络;深度监督中图分类号:TP183文献标志码:A文章编号:1009671X(2024)02010507MCFNet:Multi-scale retinal artery and vein classification network fusedwith context informationCUIYing1,ZHUJia1,GAOShan1,CHENLiwei1,ZHANGGuang21.CollegeofInformationandCommunicationEngineering,HarbinEngineerin

3、gUniversity,Harbin150001,China2.DepartmentofNeurosurgery,FirstAffiliatedHospitalofHarbinMedicalUniversity,Harbin150001,ChinaAbstract:Aimingattheproblemofwrongclassificationofarteriesandveinsduetothestrongsimilaritybetweenbloodvessels,thispaperproposesanewmulti-scaleretinalarteryandveinclassification

4、network(MCFNet)thatintegratescontextinformation.IncombinationwiththeU-shapedsegmentationnetwork,thenetworkusesmulti-scalefeature(MSF)extractionmoduleandhigh-efficiencyglobalcontextualinformationaggregation(EGCA)moduletoclassifythearteriesandveins,whichsuppressesthefeaturesthattendtothebackground,enh

5、ancestheedge,intersectionandendfeatures of the blood vessels,solvingthe problem of wrong classification of arteriesand veinsin the segment.Inaddition,thedecoderpartoftheU-shapednetworkisaddedwiththreelayersofdepthsupervisiontofullytraintheshallowinformation,soastoavoidthedisappearanceofgradientandop

6、timizethetrainingprocess.Ontwoopenretinaimagedatasets(DRIVE-AV,LES-AV),comparedwiththreeexistingnetworkmethods,theF1scoreofthismodelhasincreasedby2.86,1.92,and0.81percentagepoints,respectively,andthesensitivityincreasedby4.27,2.43,and1.21percentage points,respectively.The results show that the propo

7、sed model can well solve the problem of error inclassificationofarteriesandveins.Keywords:multi-class segmentation;arteries and veins classification;retina image;multi-scale feature extraction;vascularsegmentation;globalinformationfusion;convolutionneuralnetwork;in-depthsupervision视网膜成像技术提供了一种无创观察视网

8、膜血管的方法,因其成本低、可重复性好而被广泛应用于临床。研究表明,细微的视网膜血管变化和异常可能是许多系统性疾病的重要生物标志。视网膜血管的变化可从视网膜图像上直接进行量化和测量,然而,手动动静脉分类既耗时又耗力,收稿日期:20230301.网络出版日期:20231208.基金项目:国家自然科学基金项目(81901190).作者简介:崔颖,女,副教授,博士.朱佳,女,硕士研究生.通信作者:崔颖,E-mail:.第51卷第2期应用科技Vol.51No.22024年3月AppliedScienceandTechnologyMar.2024因此,自动动静脉分类是血管异常分析的重要研究方向。当处理具有

9、不同结构和功能的视网膜动脉和静脉图像时,针对视网膜动静脉尺度单一且边界模糊、在分类任务中会导致血管边缘和末端分类错误等问题,现阶段所提出的分类方法仍存在一定局限性。因此,在具有很强相似性的场景中,精确的多类分割是医学成像领域长期存在的一个难题。动脉和静脉在描述性特征上具有很高的相似性,在靠近视神经盘处,小静脉比小动脉具有更清晰和更宽阔的中心光反射点,颜色也更深一些。此外,小动脉不与视网膜血管结构树内的其他小动脉交叉,小静脉不与视网膜血管结构树内的其他小静脉交叉,并且在视网膜间和视网膜内图像中可能存在大的对比度和亮度,分割视网膜图像中的动静脉需要识别动脉和静脉并将它们彼此区分开,同时也要与背景区

10、分开,这使得动静脉分类成为一项困难的任务。在一般的语义分割问题中,目标是将图像划分为一组不重叠的区域,这需要对不同类别像素进行精确划分1,准确的语义分割可以广泛地应用于现实场景中。在医学图像的背景下,通常是要区分病变以及临床应用的部分区域,例如肿瘤区域、器官区域等。张淑军等2运用经典分割网络添加自注意力机制对医学图像进行分割。常见的编解码结构通过融合低级别和高级别特征,显著提高了许多视觉任务的性能。然而,这种方法很难提取足够的动静脉分类所需的特征信息,并且对多尺度特征信息的融合阶段存在明显缺陷。近年来,已经提出了几种用于视网膜动静脉分类的自动化技术,即从视网膜眼底图像中分割出静脉和动脉,主要有

11、基于图的方法、基于特征的方法和基于深度学习的方法这 3 类。基于图的方法是利用血管拓扑和结构知识来为单个血管重建图树结构,然后利用拓扑连接/交叉关系搜索血管树结构进一步细化动静脉分类结果,这已被证明可有效提高动静脉分类的性能35,但在基于图形的方法中,其分割的效果严重依赖人工标记的准确性。基于特征的方法是利用动脉和静脉的不同形态、纹理和颜色特征,例如,动脉通常比静脉窄,并且由于对含氧血红蛋白和脱氧血红蛋白的不同吸收特性,动静脉通常具有不同的颜色,从而设计了各种特征提取工具来区分血管类别67。最近的研究大多使用两阶段处理方法进行视网膜动静脉分类:第一阶段是将目标血管与背景进行分割,第二阶段是利用

12、医生标注制作的目标数据或者基于图形的方法合并出的边缘信息,将分割的脉管分类为动脉和静脉。然而,两阶段方法的缺点是动静脉分类结果严重依赖于血管的分割精度。基于深度学习的方法在语义分割技术表现出了显著的性能,并被引入到动静脉分类任务中,这使得基于特征的端到端的动静脉分类成为可能。现有的基于神经网络的方法通常由层叠的卷积层和下采样层构成。受这种网络结构的启发,许多方法遵循基于全卷积网络(fullyconvolutionalnetworks,FCN)8的结构来执行动静脉分类任务。Girard 等9提出了一种语义分割方法对血管进行联合分割,并将血管区分为动脉和静脉,由网络产生的初始分数通过似然分数传播算

13、法传播。Xu 等10采用改进的 FCN 架构同时进行小动脉和小静脉分割。Wang 等11提出了一种多任务连体网络,可联合学习血管树解缠和动脉静脉分类,连体网络使用视觉和几何特征将血管分类为动脉或静脉。但是 FCN 网络结构难以捕获远程特征信息依赖关系以及融合全局上下文信息,这会导致动静脉边界模糊、末端分类不准确等问题。当前,U-Net 已经成为医学成像中引人注目且最流行的深度网络架构,其设计采用对称的 U 形编解码结构。在编码阶段,通过收缩路径捕获上下文信息,该路径采用卷积网络的经典结构;解码阶段则通过扩展路径将信息还原为输出,每一步骤都包括特征图的上采样。U-Net 架构中没有使用全连接层,

14、仅使用每个卷积的有效部分,这种结构在不同的医学图像分割应用中具有良好的性能。针对不同模态的医学图像分割分类任务,学者们已经对经典的 U 型网络结构进行了多次改良,分割结构取得了显著进展。Hu 等12应用基于 U-net13架构的变体同时分割动脉和静脉,并提出了一种血管约束网络(vascularconstraintnetwork,VC-Net),利用血管分布和边缘信息增强进行动静脉分类。但改良后的 U 型网络仍存在一些问题。首先是对全局多尺度复杂特征信息的提取能力较弱,在对深层次的信息进行编码时编码的信息可能会有缺失;并且在解码阶段无法全部还原。而利用多尺度上下文信息可以显著提高语义切分的性能。

15、刘云等14提出轻量级的具有多尺度特征提取的医学图像分割网络,用于提升医学图像的分割精准度。多尺度信息有助于分类网络对不同尺度信息结构的感知和理解,有效地提取多尺度信息能够使网络模型关注目标特征在不同层106应用科技第51卷次和尺度上的特点,有助于网络捕捉复杂图像细节。更重要的是,在处理分类任务时,网络模型要有效地提取多尺度特征信息,正确地融合上下文多尺度特征信息,精确地分割目标特征与背景,才可以更加具体地感知特征表示,减少错误分类。为了解决上述问题,本文提出了一种多尺度视网膜动静脉分类网络(multi-scaleretinalarteryandveinclassificationnetwork

16、,MCFNet),首先采用多尺度特征(multiplescalefeature,MSF)模块提取不同尺度的血管信息,提高了模型的特征提取能力和鲁棒性;同时采用高效的全局上下文信息融合模块(efficientglobalcontextualinformationaggre-gation,EGCA),通过融合多层次的全局上下文特征信息来获取区别性特征;最后,在合并多尺度特征时,对每个尺度的输出添加额外的深度监督来避免梯度在深层消失,从而增强信息区分度。通过实验验证,以上网络结构结合构建的多尺度特征信息融合网络具有提取微血管多尺度特征、融合全局多层次信息、增强动静脉交点及边缘处特征、提高相似类别区分

17、度的特点,可以进一步提高视网膜动静脉自动分类的整体精度。1多尺度信息融合动静脉分类网络视网膜眼底图像中血管的尺度变化很大,主血管直径大于微血管直径,动脉直径大于静脉直径。所提出模型中的 MSF 模块采用分层残差学习分支替换原始 U-net 方法编码器中的典型卷积块分层分支,将特征映射分解为几个子通道特征,扩大了每层网络的感受域范围。模型中的EGCA 模块利用通道重排操作来融合互补的全局特征信息,该模型整体结构如图 1 所示。深度监督 1深度监督 2深度监督 3MSFEGCA11卷积11卷积U 型网络解码器U 型网络编码器上下文信息融合多尺度特征提取EGCA双线性上采样图1模型整体结构示意1.1

18、多尺度特征提取眼底视网膜动静脉尺度变化较大,提取的特征信息进行互补,便于边缘结构清晰分割。所以在 U 型分类网络编码器部分插入带有多尺度特征提取结构的MSF 模块,MSF 模块主要采用Res2Net15结构来学习和理解不同尺度下的视网膜动静脉特征,能够更好地捕获动静脉特征信息并实现信息互补。MSF 模块主要利用 Res2Net 多条支路处理特征信息的结构特点扩大网络感受野,通过在更细粒度的层次上学习来增强多尺度特征提取能力,有助于网络更好地理解输入图像的结构解决动静脉分类边缘模糊、末端分类错误问题。1.2全局上下文信息融合EGCA 可以显著提高深度语义切分网络的性能,精确的动静脉分割总是需要来

19、自不同尺度和大区域的上下文信息来释放局部区域引起的歧义。在本文中使用了 EGCA 结构16如图 2 所示,将来自编码器的不同级别的多尺度特征作为EGCA 的输入特征,表示为 Fka(FkaRHWC),k 为输出多尺度特征的编码器层级;H 和 W 为特征信息空间中的 2 种维度,H 对应图像高度,W 对应图第2期崔颖,等:MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络107像宽度;C 为通道数。由于深浅层特征包含不同尺度特征信息,所以在恢复深浅层特征信息原始分 辨 率 之 前 使 用 EGCA 处 理 模 块,将 通 过EGCA 输出的带有全局上下文信息的多尺度特征与解码器的反卷积输出

20、特征进行级联,形成最终输出的分类预测图。最大池化最大池化FakChunk 函数Fk,2Fk,133 卷积33 卷积33 卷积11 卷积FukAk,2Ak,1Ak11 卷积归一化像素逐点相乘信道混洗算子FskFkEGCA11 卷积+图2全局上下文信息融合结构首先输入特征 Fka被传递到 EGCA 中的 3 条支路进行处理,3 条支路分别为左侧支路、Chunk函数支路、右侧支路。在右侧支路中,Fka经深度可分离卷积得到特征 Fku:Fuk=f1(f3(Fak)式中:f3()、f1()分别表示核为 33、11 的深度卷积,FkuRHWC。Chunk 函数支路利用 Chunk 函数将输入的Fka根 据

21、 信 道 维 数 随 机 分 为 Fk,1RHWC/2和Fk,2RHWC/2这 2 个子特征,将这 2 个子特征经过卷 积 核 为 33、11 的 深 度 卷 积 运 算 得 到Ak,1RHWC和 Ak,2RHWC子特征,从而进一步提取多尺度特征信息。具体计算过程为Ak,1=f1(MP(f3(Fk,1)Ak,2=f1(MP(f3(Fk,2)式中 MP 为最大池化操作。Ak,1和 Ak,2这 2 个子特征通过相同的运算,以形成每个子组的注意力图 Ak,用以捕获长距离依赖关系,从而能够建模上下文信息。Ak=softmax(Ak,1 Ak,2)式中 softmax 为归一化函数。输出 Fks为Fsk

22、=shuffle(AkFak)Fak)式中:shuffleNet 为信道混洗算子,为像素逐点相乘。全局上下文融合输出特征表示为 FkEGCA:FEGCAk=FskFuk2 个子特征 Ak,1、Ak,2输出通过函数归一化得出注意力图 Ak,注意力图 Ak与输入特征 Fka应用逐元素乘法后再求和,采用信道混洗算子实现跨组信息交互,输出的 Fks与最右侧分支加和形成EGCA。该模块保持输入输出的特征信息大小相同,有效利用局部和全局特征信息,将多尺度特征与上下文信息进行融合进而提高分类精度。1.3损失函数采用端到端深度学习方案作为底层框架,包括深度监督损失 Ldes和输出损失 Lseg,目标损失函数

23、L 是这 2 个损失之和。本文中动静脉分类使用交叉熵损失(crossentropy,CE)函数 LCE和均方误差损失(mean-squareerror,MSE)函数LMSE进行量化。LCE=1nni=1(yilog(yi)+(1yi)log(1yi)式中:n 为输入图像中的像素数,yi*为像素的预测输出概率,yi为真值像素分类标签。LMSE=1nni=1(yiYi)2式中 Yi*为预测像素分类标签。CE 和 MSE 与权重超参数 和 相结合测量网络最终输出预测值 G(x)和真值 y 之间的距离,输出损失函数为Lseg=LCE+LMSE(1)每个上采样层输出的特征被定义为 fi(i=1,2,3)

24、,fi通过所在上采样层的深度监督结构由计算得出深度监督损失 Ldes。上采样阶段利用深度监督来避免深层梯度消失,从而增强网络区分特征信息的能力。深度监督损失 Ldes由损失函数计算得到:Ldes=3i=112i(LCEi+LMSEi)(2)式中 1/2i作为权重参与计算。因为上采样中层级越深,梯度消失的风险越108应用科技第51卷大,所以将较大的权重分配给上采样中较深层。最后将式(1)、(2)进行求和运算得出目标损失函数:L=Lseg+Ldes2实验与结果在本节中将介绍使用的数据集、训练过程中的参数设置、评价指标、消融实验以及与其他经典分类方法的对比试验,以充分评估 MCFNet 在分类任务中

25、的有效性。实验结果表明,MCFNet在 DRIVE-AV17和 LES-AV18数据集上都获得了有竞争力的分类结果。2.1数据集MCFNet 主要用于眼底图像的动静脉分类。实 验 中 涉 及 的 数 据 集 包 括 DRIVE-AV 和 LES-AV。DRIVE-AV 数据集包含 40 幅像素值大小为584565 的视网膜眼底图像,包含标签的动脉、静脉、交叉点和不确定性区域。其中 20 幅用于训练,20 幅用于测试,为血管分割和动静脉分类提供像素标记。LES-AV 数据集包含像素值大小为16201444 的 22 幅 图 像,测 试 集 训 练 集 各 占50%。该数据集提供了相应数量的血管手

26、动注释标签,与 DRIVE-AV 相同,血管像素用 4 种颜色标记,分为 4 类分割区域。以上 2 个数据集的验证图像占训练集的 10%。2.2训练设置出于计算效率考虑,将图像像素值大小缩放为 256256,训练批次可以设置为 9,设定学习率为0.0008,超参数 和 分别设置为 1.1 和 0.5。所有数据集迭代次数为 1500 次,整体使用了自适应优化器 Adam,其中动量和权重衰减分别为 0.5 和0.999。该网络在 Python3.8 上实现,使用 Pytorch框架,计算机处理器的主频为 2.8GHz,在 RTX3090GPU 上对网络进行了训练和测试。2.3评价指标Rsensit

27、ivity视网膜血管多任务分割是一个不平衡的任务,其准确性和特异性指标总是很高,失去了实用价值。为了评估动静脉分类性能,本文采用灵敏度、F1 评分 F1、概率曲线下面积接受者操作特性(receiveroperatingcharacteristic,ROC)曲线 RROC、概 率 曲 线 下 面 积 精 确 率(precision)Pprecision召回率(recall)Rrecall和 MSE 对这些方法进行综合评价。将动脉视为阳性,静脉视为阴性,以上评价指标被定义如下。灵敏度、召回率:Rsensitivity=Rrecall=NTPNTP+NFNF1 评分:F1=2RprecisionRr

28、ecallRprecision+Rrecall精确率:Rprecision=NTPNTP+NFP式中:NTP为正确分类的动脉像素的数目,NTN为正确分类的静脉像素的数目,NFP为错误分类为动脉像素的静脉像素的数目,NFN为错误分类为静脉像素的动脉像素的数目。2.4消融实验本文采用 EGCA 融合多层次特征信息加强动静脉特征区分度,引入 MSF 提高多尺度特征提取能力,解码器部分加入深度监督优化训练过程。为验证 3 个模块的性能,在 DRIVE-AV 数据集上设计了以下消融实验进行验证。定义未嵌入MSF、EGCA 及 3 层深度监督的 MCFNet 为基础(Base)网络,实验结果见表 1。表

29、1消融实验结果%方法RsensitivityF1RROCRprecision-RrecallRMSEBase63.9568.1481.4270.092.75Base+MSF65.3468.5182.0870.342.76Base+MSF+EGCA67.1168.9082.8970.322.81MCFNet68.2271.0083.5472.392.57由表 1 实验结果可知,在 Base 网络的基础上逐一添加 MSF 模块、EGCA 模块和 3 层深度监督会使网络性能逐步提升,同时具有 3 种结构的MCFNet 结 构 性 能 达 到 最 佳。该 实 验 验 证 了EGCA、MSF 及深度监督

30、对解决视网膜动静脉分类的有效性。2.5对比实验实验对所提出的网络进行定量和定性评估。首先,将本文提出的方法与现有方法进行比较,如表 2 所示。由表 2 中提供的多类别血管分割性能可以看到,与现有方法相比,所提出的方法增强了动静脉分类性能,在 DRIVE-AV、LES-AV 数据集上分别具有 71.00%、61.71%的最高 F1 评分,在 DRIVE-AV 数据集上与经典的分类网络相比灵敏度提升了 4.27 个百分点,ROC 增加了 2.12 个百分点。在 LES-AV 数据集上与 AttUnet 网络相比Rprecision-Rrecall提 升 了 1.80 个 百 分 点,ROC 提 升

31、 了2.58 个百分点。第2期崔颖,等:MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络109图 3 给出了从 DRIVE-AV 测试集中随机选择的可视化预测图,预测图包括所提出的方法和比较方法的全局及局部动静脉分类预测结果。通过观察图 3 中的局部放大图,可以看出本文所提方法 MCFNet 改善了动静脉混淆和段内误分类的问题,从而获得了更好的动静脉分类结果。(a)眼底图像(b)U-Net 结构(c)U-Net+结构(d)Att U-Net 结构(e)MCFNet 结构(f)分类标签图3多方法比较的动静脉整体/局部可视化结果3结束语针对眼部视网膜动静脉分类问题,本文提出了一种融合多尺度

32、上下文信息的视网膜动静脉分类网络 MCFNet,该网络为采用 EGCA 和 MSF 模块的深度监督 U 型分割网络,可以很好地提升动静脉分类性能。通过在 DRIVE-AV、LES-AV 眼部数据集上的对比实验和消融实验证明本文提出网络的良好性能和设计改进的有效性,并通过可视化结果更直观地体现该网络在细节分割方面优于其他对比算法。后续研究可进一步提高并完善分类模型,并针对模型的计算速度和参数量进行轻量化网络构建,提升模型的时效性及精准性。参考文献:龙建武,栗童,朱江洲,等.基于超像素和随机游走的交互 式 分 割 算 法 J.计 算 机 应 用 研 究,2022,39(6):18911896.1张

33、淑军,彭中,李辉.SAU-Net:基于 U-Net 和自注意力机制的医学图像分割方法 J.电子学报,2022,50(10):224332442.黄立勤,陈柳清,潘林,等.结合血管拓扑和 Non-localCNN-GCN 的肺动静脉分离方法 J.福州大学学报(自然科学版),2022,50(1):2430.3ZHAOYitian,XIEJianyang,ZHANGHuaizhong,etal.Retinal vascular network topology reconstruction andartery/vein classification via dominant set clusteri

34、ngJ.IEEE transactions on medical imaging,2020,39(2):341356.4丁茹,崔世钢,黄家祥,等.血管树拓扑描述及匹配方法的研究 J.生物医学工程学杂志,2007,24(2):275279.5REMESEIRO B,MENDONA A M,CAMPILHO A.Automaticclassificationofretinalbloodvesselsbasedonmultilevel thresholding and graph propagationJ.Thevisualcomputer,2021,37(6):12471261.6SHELHAME

35、R E,LONG J,DARRELL T.FullyconvolutionalnetworksforsemanticsegmentationJ.IEEEtransactionsonpatternanalysisandmachineintelligence,2017,39(4):640651.7MORANO J,HERVELLA S,NOVO J,et al.Simultaneoussegmentationandclassificationoftheretinal8表2MCFNet 与其他分类网络在 DRIVE-AV、LES-AV 数据集上性能对比结果%方法RsensitivityF1RROCR

36、precision-RrecallRMSEDRIVE-AVLES-AVDRIVE-AVLES-AVDRIVE-AVLES-AVDRIVE-AVLES-AVDRIVE-AVLES-AVU-Net63.9555.5368.1460.5481.4276.7470.0963.342.752.58U-Net+65.7957.5969.0861.6382.3276.5770.7464.112.712.44AttU-Net67.0155.0570.1959.6782.9775.1372.9962.782.492.57MCFNet68.2256.6571.0061.7183.5477.7172.3964.58

37、2.572.48110应用科技第51卷arteriesandveinsfromcolorfundusimagesJ.Artificialintelligenceinmedicine,2021,118:102116.GIRARDF,KAVALECC,CHERIETF.Jointsegmentation and classification of retinal arteries/veinsfromfundusimagesJ.Artificialintelligenceinmedicine,2019,94:96109.9XU Xiayu,TAN Tao,XU Feng.An improved U-

38、netarchitecture for simultaneous arteriole and venulesegmentationinfundusimageC/NIXONM,MAHMOODIS,ZWIGGELAARR.AnnualConferenceon Medical Image Understanding and Analysis.Cham:Springer,2018:333340.10WANGZhiwei,JIANGXixi,LIUJingen,etal.Multi-taskSiamese network for retinal artery/vein separation viadee

39、p convolution along vesselJ.IEEE transactions onmedicalimaging,2020,39(9):29042919.11HUJingfei,WANGHua,CAOZhaohui,etal.Automaticartery/veinclassificationusingavessel-constraintnetworkfor multicenter fundus imagesJ.Frontiers in cell anddevelopmentalbiology,2021,9:659941.12RONNEBERGER O,FISCHER P,BROX

40、 T.U-net:convolutionalnetworksforbiomedicalimage13segmentationM/Lecture Notes in Computer Science.Cham:SpringerInternationalPublishing,2015:234241.刘云,陆承泽,李仕杰,等.基于高效的多尺度特征提取的 轻 量 级 语 义 分 割 J.计 算 机 学 报,2022,45(7):15171528.14GAOShanghua,CHENGMingming,ZHAOKai,etal.Res2Net:a new multi-scale backbone arch

41、itectureJ.IEEE transactions on pattern analysis and machineintelligence,2021,43(2):652662.15ELHASSANMAM,YANGChenhui,HUANGChenxi,et al.SPFNet:subspace pyramid fusion network forsemantic segmentationEB/OL.(20220404)20221011.https:/doi.org/10.48550/arXiv.2204.01278.16ODSTRCILIK J,KOLAR R,BUDAI A,et al.

42、Retinalvessel segmentation by improved matched filtering:evaluation on a new high-resolution fundus imagedatabaseJ.IETimageprocessing,2013,7(4):373383.17ORLANDOJI,BARBOSABREDAJ,VANKEERK,etal.Towards a glaucoma risk index based on simulatedhemodynamics from fundus imagesC/InternationalConferenceonMed

43、icalImageComputingandComputer-AssistedIntervention.Cham:Springer,2018:6573.18本文引用格式:崔颖,朱佳,高山,等.MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络 J.应用科技,2024,51(2):105111.CUI Ying,ZHU Jia,GAO Shan,et al.MCFNet:Multi-scale retinal artery and vein classification network fused with contextinformationJ.Appliedscienceandtechnology,2024,51(2):105111.第2期崔颖,等:MCFNet:融合上下文信息的多尺度视网膜动静脉分类网络111

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服