ImageVerifierCode 换一换
格式:DOCX , 页数:18 ,大小:744.72KB ,
资源ID:10247066      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/10247066.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(基于CNN和Transformer耦合网络的低剂量CT图像重建方法.docx)为本站上传会员【鱼**】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于CNN和Transformer耦合网络的低剂量CT图像重建方法.docx

1、 基于 CNN 和 Transformer 耦合网络的 低剂量 CT 图像重建方法 摘要:在投影角度个数不变的情况下,降低每个角度下的射线剂量,是一种有效的低剂量 CT 实现方式,然而,这会使得重建图像的噪声较大。当前,以卷积神经网络(CNN)为代表的深 度学习图像去噪方法已经成为低剂量 CT 图像去噪的经典方法。受 Transformer 在计算机视 觉任务中展现的良好性能的启发,本文提出一种CNN 和Transformer 耦合的网络(CTC),以 进一步提高 CT 图像去噪的性能。CTC 网络综合运用 CNN 的局部信息关联能力和 Transformer 的全局信息捕

2、捉能力,构建 8 个由CNN 部件和一种改进的Transformer 部件构成的核心网络 块,并基于残差连接机制和信息复用机制将之互联。与现有 4 种去噪网络比较,CTC 网络去 噪能力更强,可以实现高精度低剂量 CT 图像重建。 关键词:低剂量CT;自注意力机制;卷积神经网络;残差连接 计算机断层成像(computed tomography,CT)技术[1]是基于不同物质对X 射线的衰减 不同,使用X 射线源和探测器阵列,对物体进行多个不同角度的扫描,再经过重建算法获 得被检物体各个断层图像的影像技术[2] 。但较大的 X 射线剂量会引起一定的辐射危害,人 们通过降低辐射剂量

3、获取低剂量 CT 图像[3] ,减小辐射危害风险。但随着 X 射线剂量的降低, 重建出的 CT 图像噪声较大,严重劣化图像质量,影响后续的医学诊断[4] 。近年来,为了解 决这一问题,人们提出了许多算法来改善低剂量 CT 图像质量,其中,卷积神经网络 (convolutional neural networks,CNN)[5] 已被证明在解决图像去噪任务方面具有很好的 潜力,并能取得比传统方法更好的性能[6]。 对于现有的 CNN 图像去噪网络,研究人员设计了多种不同的模型结构,包括全连接卷 积神经网络、具有残差连接[7]的卷积编码解码网络、以及一些使用 3D 信息的网络变体[8] 等,所以

4、 CNN 已成为解决低剂量 CT 图像去噪问题的重要方法之一[9]。 卷积神经网络凭借其强大的非线性映射能力在图像去噪领域的应用越来越广泛。2016 年 Zhang等[10]提出了DNCNN 网络,一种利用残差学习和批归一化进行端到端可训练的深度 卷积来进行高斯去噪;2017 年 Chen 等[11]提出了RED-CNN 网络,将残差连接运用于编码器和 解码器之间以弥补上采样造成的信息失真等问题;2018 年 Zhang 等[12]提出了FFDNet 网络, 将高斯噪声泛化为更加复杂的真实噪声,并将噪声水平图作为网络输入的一部分,通过调 整噪声水平进行更加灵活的去噪;2

5、019 年 Anwar 等[13]提出了RIDNet 网络,使用特征注意力 机制加强了网络的通道依赖性,并采用模块化结构实现了对真实图像的盲去噪能力;2020 年 Tian 等[14]提出BRDNet 网络,使用两个并行的网络模型,并通过扩张卷积提升感受也获 取更多细节信息。 卷积神经网络对处理低剂量 CT 图像的复杂噪声具有很大的优势,能在保证去噪效果的 同时更好地保留图像的细节和边缘信息[15] ,但同时也存在来自基本卷积层的两个问题。首 先,图像和卷积内核之间的交互作用是与内容无关的,使用相同的卷积核来恢复不同的图 像区域可能不是最好的选择;其次,在局部处理的原理下,卷积对于长期依赖建

6、模是无效的[16]。 针对以上问题,最近 Transformer 以一种自注意机制的方式来捕获上下文之间的全局 交互[17] ,并利用其对数据中远程依赖进行建模使其在计算机视觉领域大放光彩[18] 。其中, 2020 年 Google 团队提出 Vit Transformer,该网络模型首次将 Transformer 应用于图像分 类任务,将整幅图像拆分成小图像块,然后把这些小图像块的线性序列作为 Transformer 的输入,使用监督学习的方式进行训练[19];2021 年 Liu 等[20]提出了Swin Transformer 网络 架构,利用滑动窗口和分层结构,将注意力的计算限制在

7、一个窗口中,在更好的利用细节 信息的同时减少了计算量;2021 年 Wang 等[21]提出了一种Uformer 网络模型,设计了具有局部 增强能力的 Transformer 模块,使用跳跃连接机制更有效的将编码器的信息传递到解码器。 受上述启发 ,本文提 出一种 CNN 和 Transformer 耦合 的 网络( CNN-transformer- coupling network,CTC),利用多残差机制和信息复用机制,实现高精度低剂量 CT 图 像重建。 1 方法 低剂量 CT 图像去噪对临床医学诊断具有重要意义,深度学习法可以从大量的数据集中 学习到难以被数学建模的图像特征和先

8、验信息,具有很大的优势。近几年来,随着 Vit Transformer 的开创,Transformer 在计算机视觉领域表现出巨大的应用潜力[22]。 受 Swin Transformer 的启发,本文将具有全局建模能力的 Transformer 和具有捕获局 部特征的 CNN 有机的耦合,提出以 CNN 部件和一种改进的 Transformer 部件构成的核心网 络块,即 CNN 和 Transformer 耦合模块(CNN-transformer-coupling block,CTCB)[23] ,且 为更好的提取图像中的边缘轮廓信息,我们使用多方向的索贝尔算法作为图像边缘增强模 块(

9、image edge enhancement block,IEEB)的主要构成,实现有效去噪的同时保留了更 完整的图像细节信息。 1.1 CNN 和 Transformer 耦合模块(CTCB) 本文中提出的 CNN 和 Transformer 耦合模块(CTCB)由 3 部分组成,第 1 部分是 3 × 3 的卷积层(conv);第 2 部分是归一化层(layer normalization),多头自注意力(W-MSA) 和 GRLU 激活函数;第 3 部分是归一化层(layer normalization),具有滑动窗口的多头自 注意力(SW-MSA)和 GELU

10、激活函数,且采用了多残差机制。 CNN 和 Transformer 耦合模块(图 1),实现了 CNN 和 Transformer 优势的融合。这样 设计的网络,一方面具有 CNN 的局部感知和参数共享特性,将原始图像作为输入,直接从 大量样本中学习相应特征,避免使用复杂的特征提取过程捕获局部结构;另一方面又具有 Transformer 的动态注意全局特征和更好的泛化能力,且运用了滑动窗口机制,能在参数 较少的情况下提取有效信息实现去噪。 图 1 CNN 和 Transformer 耦合模块示意图 Fig.1 CNN-Transformer-Coupling block 具体过程

11、是将 H × W ×C 的矩阵作为输入,其中 H × W 为输入图像的大小, C 为输入 通道数。通过卷积变换,将输入划分为不重叠的 M × M 局部窗口,窗口总数为 HW/M2 , 则输入转化 为 (HW/M2 ) × M2 ×C 对每个 窗 口分别进行注意力 A 计算 ,对于 窗 口特征 X ∈ RM2 ×C 对应的 Query,Key,Value 矩阵计算为: Q = XPQ ,K = XPK ,V = XPV , (1) 其中 PQ

12、 PK , PV,是跨不同窗口共享的投影矩阵,且 Q , K , V ∈ RM2 ×d ,其中 d 为 Q/K 的维度,则注意力矩阵在对应窗口中自注意力机制计算为: 其中B 是可学习的相对位置编码。本文实现两次自注意力计算,并将结果串联起来构成多 头自注意力(W-MSA),之后连接 GELU 非线性激活层完成第 2 部分。第 3 部分通过移动窗口, 再次进行多头自主注意力机制(SW-MSA),并连接 GELU 非线性激活层。 1.2 图像边缘增强模块(IEEB) 常用于边缘检测的索贝尔算子使用简单、处理速度快且对噪声具有平滑抑制作用,所 得图像边缘光滑且连续[24

13、] 。为更好的提取图像信息,本文中的图像边缘增强模块利用 0。、 45。、90。、135。、180。、225。、270。、315。这 8 个方向的索贝尔算子矩阵模板(3 × 3)与对 应的图像进行卷积,每个模板对相应方向的边缘影响最大,如图 2(a)所示。且该模块中 加入可学习参数 α , 可以在训练过程中进行自适应调整,提取不同强度的细节信息,以更 好的适用于肺部、腹部和头部的边缘提取。 -α -2α -α 0 0 0 α 2α α -α 0 α -2α 0 2α -α 0 α 0 α 2α -α 0 α -2α -α

14、 0 具体流程图如图 2(b)所示,索贝尔算子的中心与要检测的像素点相对应,进行卷积 运算后,得到一组用于提取边缘信息的特征图。该模块将其与输入的低剂量 CT 图像在通道 维度上叠加在一起,得到一幅边缘增强图像。 -2α -α 0 -α 0 α 0 α 2α α 2α α 0 0 0 -α -2α -α α 0 -α 2α 0 -2α α 0 -α 0 -α -2α α 0 -α 2α α 0 0。 45。 90。

15、 135。 2α α 0 α 0 -α 0 -α -2α 180。 225。 270。 315。 (a)索贝尔算子矩阵模板示意图 (b)图像边缘增强模块流程图 图 2 图像边缘增强模块示意图 Fig.2 Image edge enhancement block 1.3 网络结构整体设计 本文提出的 CTC 网络结构如图 3 所示,用于低剂量 CT 图像去噪。整个网络模型共有 9 层,其中前 8 层结构一致,每

16、一层由 CNN 和 Transformer 耦合模块(CTCB)、图像边缘增 强模块(IEEB)和 3 × 3 卷积层组成。输入的图像经过图像边缘增强之后,得到的特征图像 通过残差连接与 CNN 和 Transformer 耦合模块以叠加通道数的方式进行融合。之后运用 3 × 3 的卷积使通道数转换为 32,以保证传播过程中通道数不发生变化, 目的是尽可能地保 留图像的细节信息,充分利用提取的边缘信息和原始输入。运用多残差机制有效避免了因 网络过深而带来的梯度消失和梯度爆炸问题,更合理的利用图像信息。 nt block ling block Fig.3 Th

17、e architecture diagram of the CTC network 采用图像边缘增强的信息复用机制,在每一个单元与核心模块融合再利用,使图像的 轮廓更加突出,保留更加完整的细节信息。网络中通道数为 32, 自注意力头数为 2。最后 一层为 1 × 1 的卷积层,将通道数转换为输出通道数,并输出图像。 受 Swin Transformer 的启发,我们在多头自注意力计算后采用多层感知器(MLP)[25]进行 特征变换作为实验对比分析。该感知器具有两个全连接的层,层之间具有 GELU 非线性。为 探索更优性能且考虑模型大小与时间复杂度问题,加快模型的收敛性,简化模型的主要结 构

18、的任务,本文中的Transformer 部件未加入多层感知器。后续加入多层感知器后的网络 模型作为对比实验,我们标记为 CTC + ,在第 3 章第 1 节中具体说明。 2 实验设计 2.1 数据集的构建 实验中所用数据集来自癌症成像档案(TCIA)提供的 AAPMMayo 诊所 2016 年低剂量 CT 挑战大赛更新后的数据集。该数据集包含从 140 例患者中收集的 3 种 CT 扫描类型,分别为 腹部(C 系列)、胸部(L 系列)和头部(N 系列),收集自 48、49 和 42 例患者。每个患者 的数据包括 1/4 剂量 CT 图像(LDCT)和相应的正常剂量 CT 图像(NDC

19、T)。 本文从中选取了 5000 对数据,图像大小为 256 × 256,其中 90% 作为训练集,10% 作 为测试集,C 系列选取 2400 对,L 系列选取 2400 对,N 系列选取 200 对。 2.2 网络训练环境和超参数设定 在网络训练过程中,使用的 CPU 是 Inter(R)Xeon(R)CPU E5-2620 v4 @ 2.10GHz, GPU 是 NVIDIA Geforce GTX 1080Ti。本实验在 Windows 操作系统下,使用 python 语言 Pytorch 深度学习框架实现。 在实验中,本网络的损失函数使用均方误差(MSE)函数,

20、采用Adam 优化器对损失函 数进行优化,训练次数为 100 个 epoch,初始学习率为 2 × 10-3 ,下降到 2 × 10-4 ,训练过程 中 batch size 为 6。 2.3 图像质量评价标准 本文使用 3 种图像质量评价标准,分别为均方根误差(RMSE)E、峰值信噪比(PSNR) R 和结构相似度(SSIM)S,对实验中的网络进行定量描述。E 跟踪两幅图像之间的绝对像 素到像素的损失;R 以降噪为目标,是衡量重建图像质量的一种指标;S 是一种关注于图像 中可见结构的感知度量,是对视觉质量的度量,由亮度、对比度、结构 3 个模块组成。E, R ,S 的定义为:

21、 (3) R = 10lg (5) 其中,公式(3)和公式(4)中 x 表示低剂量CT 图像,y 表示高质量图像, N2 是图像像素 总数;公式(5)中 E2 为均方根误差的平方,max(I) 为图片可能的最大像素值;公式(4) 中 μx

22、是 x 的平均值, μy 是y 的平均值, σx(2)是 x 的方差, σy(2)是y 的方差, σxy 是 x 和y 的协 方差, c1 ,c2 是常数。 3 实验结果与分析 3.1 低剂量 CT 图像重建方法比较 实验采用随机选取的 5000 对数据集,将 DNCNN、RED-CNN、BRDNet、Uformer 4 个经典 网络与 CTC 网络及 CTC + 网络进行比较,使用峰值信噪比 R 、结构相似度 S 和均方根误差 E 评估算法的去噪性能和重建的低剂量 CT 图像的质量。 表 1 给出了不同网络结构对低剂量 CT 图像去噪结果的定量比较。图 4~图 6 分别为

23、 5 种网络结构的定性比较,其中图 4 选择了 C 系列(肺部)的去噪效果图,图 5 为图 4 的局 部放大图,图 6 选择了L 系列(腹部)的去噪效果图,图 7 为图 6 的局部放大图。 表 1 低剂量 CT 图像重建实验对比结果 Table 1 Experimental comparison of low dose CT image reconstruction 指标 DNCNN RED-CNN BRDNet Uformer CTC CTC+ R 31.518 32.325 33.232 33.223 33.574 33.695 S 0.941

24、 0.944 0.954 0.947 0.957 0.958 E 0.028 0.025 0.023 0.023 0.022 0.022 训练时长/h 3.51 9.00 10.12 14.43 13.33 21.66 参数量/G 4.32 6.14 7.83 10.63 9.98 11.62 (a)低剂量CT图像 (b)DNCNN (c)RED-CNN (d)BRDNet (e)Uformer

25、f)CTC (g)CTC+ (h)高质量图像 图 4 肺部去噪效果图(显示窗口为 [0,1]) Fig.4 Lung denoising results (display window: [0,1]) (a)低质量 (b)DNCNN (c)RED-CNN (d)BRDNet (e)Uformer (f)CTC (g)CTC+ (h)高质量 图 5 肺部去噪效果局部放大图(显示窗口为 [0,1]) Fig.5 Local amplification of lung deno

26、ising effect (display window: [0,1]) (a)低剂量CT图像 (b)DNCNN (c)RED-CNN (d)BRDNet (e)Uformer (f)CTC (g)CTC+ (h) 高质量图像 图 6 腹部去噪效果图(显示窗口为 [0,1]) Fig.6 Abdomen denoising results (display window: [0,1])

27、 由表 1 可见,我们提出的 CTC 网络模型在 R 、S 和 E 指标上都优于其他 4 种网络模型, 表明该模型可以在有效去噪的同时保留更多的细节信息。如图4 所示,对于肺部 CT 图像的 处理,CTC 网络模型效果最佳。图中红色框区域中该网络肺泡数量最多,且边界最为明 显,更有利于医学诊断,详细细节信息可在图 5 中观察到。如图 6 所示,对于腹部 CT 图像 的处理,DNCNN 和 RED-CNN 网络去噪效果图过于平滑,细节信息较少。如图中红色框区域 所示,CTC 网络模型在细节方面显示最为明显,器官的轮廓也最为清晰。详细细节信息可 在图 7 中观察到。CTC 与 CT

28、C + 在数值分析上差值较小,在实验中 CTC + 用时较长,且二者 去噪效果图视觉上难于区分优劣。综合考虑时间与性能,我们选取 CTC 网络模型实现低剂 量 CT 图像去噪。 (a)低质量 (b)DNCNN (c)RED-CNN (d)BRDNet (e)Uformer (f)CTC (g)CTC+ (h)高质量 图 7 腹部去噪效果局部放大图(显示窗口为 [0,1]) Fig.7 Local amplification of abdomen denoising effect (display window: [0,1]) 3.2 内部结构

29、规律探索 在其他参数一致的情况下,使用峰值信噪比和结构相似度两项客观指标评估 CNN 和 Transformer 耦合模块(CTCB)的数量对网络结构的影响。不同 CTCB 数量下 R 和 S 值的折 线图如图 8(a)和图如图 8(b)所示。从中可以看出,网络性能与 CTCB 数量成正比,且 随着层数的增多,网络性能逐渐达到饱和。综合考虑网络复杂性、网络性能与训练时长等 因素,我们将该网络的 CTCB 数量设置为 8。 R S (a)CTCB 数量 (b)CTCB 数量 图 8 CTCB 数量

30、对实验结果的影响示意图 Fig.8 Influence of CTCB quantity on experimental results 3.3 消融实验 为了讨论 CTC 网络中图像边缘增强模块对其性能的影响,我们去除 CTC 网络中的图像 边缘增强模块,将其标记为 CTC-,并与 CTC 网络进行定量和定性分析,其结果如表 2 和图 9 所示。 由表 2 可见,CTC 网络模型的 3 项评估指标均优于 CTC-,其中 PSNR 指标提升最为 明显,表明 CTC 网络去噪效果更优。图 9(e)与图 9(d)对应的黄色区域显示 CTC 网络具 有更好的性能,更完备

31、的信息,更适合医学 诊断。 CTC 网络模型中的图像边缘增强模块使 用 8 个方向的索贝尔算子,我们对 0。、90。、 180。、270。4 个方向的索贝尔算子进行实验 与比较。实验结果如图 9 所示,对于腹部低 剂量 CT 图像,图 9(c)中 8 个方向的索贝 尔算子比图 9(b)中 4 个方向的索贝尔算子  表 2 图像边缘增强优化器的影响实验结果 Table 2 Effect of image edge enhancement block on experimental results 网络模型 评估指标 R S E CTC- 33.310

32、 0.954 0.023 CTC 33.574 0.957 0.022 呈现更多的细节信息,所以我们使用8 个方向的索贝尔算子作为图像边缘增强模块。 (a)低剂量 CT 图像 (b)4 个方向检测结果图 (c)8 个方向检测结果图 (d)CTC- (e)CTC (f)高质量图像 图 9 对比实验效果图 Fig.9 Ablation Study results 4 总结 本文提出的 CTC 网络综

33、合运用了 CNN 的局部信息关联能力和 Transformer 的全局信息 捕捉能力,使网络具有 CNN 的局部感知和参数共享特性的同时具有 Transformer 的泛化能 力。运用滑动窗口机制,更好地利用图像信息且减少了计算量。使用多残差机制有效避免 因网络过深而带来的梯度消失和梯度爆炸等问题。网络中的图像边缘增强模块对不同部位 的低剂量 CT 图像中的边缘信息进行提取利用,使得更多的细节信息得以保留。 与现有的4 种经典网络对比,本文提出的 CTC 网络在低剂量 CT 图像去噪任务中,表现 出更优的性能。该网络可以有效去噪的同时保留更完整的图像细节信息,具有一定的医学 应用价值。 未

34、来,我们计划基于提出的 CTC 网络模型进一步探索更优的网络结构,引入多损失机 制并将其扩展到其他图像处理任务中。 参考文献 [1] BRENNER D J, HALL E J. Computed tomography: An increasing source of radiation exposure[J]. New England Journal of Medicine, 2013, 357(22): 2277−2284. [2] KOLTAI P J, WOOD G W. Three dimensional CT reconstruction fo

35、r the evaluation and surgical planning of facial fractures[J]. Otolaryngology-Head and Neck Surgery, 1986, 95(1): 10−15. [3] MING C, LI L, CHEN Z, et al. A few-view reweighted sparsity hunting (FRESH) method for CT image reconstruction[J]. Journal of X-ray Science and Technology, 2013, 21(2): 161−1

36、76. [4] KANG E, MIN J, YE J C. A deep convolutional neural network using directional wavelets for low-dose X-ray CT reconstruction[J]. Medical Physics, 2017, 44(10): e360−e375. [5] PRASOON A, PETERSON K, IGEL C, et al. Deep feature learning for knee cartilage segmentation using a triplanar con

37、volutional neural network[C]//International Conference on Medical Image Computing and Computer-assisted Intervention. Springer, Berlin, Heidelberg, 2013: 246-253. [6] YANG Q, YAN P, ZHANG Y, et al. Low-dose CT image denoising using a generative adversarial network with wasserstein distance and p

38、erceptual loss[J]. IEEE Transactions on Medical Imaging, 2018: 1348−1357. [7] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 770-778. [8] YANG D, SUN J. BM3 D-Net: A convolu

39、tional neural network for transform-domain collaborative filtering[J]. IEEE Signal Processing Letters, 2017, 25(1): 55−59. [9] SINGH R, WU W, WANG G, et al. Artificial intelligence in image reconstruction: The change is here[J]. Physica Medica, 2020, 79: 113−125. [10] ZHANG K, ZUO W, CHEN Y, e

40、t al. Beyond a gaussian denoiser: Residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2016, 26(7): 3142−3155. [11] CHEN H, ZHANG Y, KALRA M K, et al. Low-dose CT with a residual encoder-decoder convolutional neural network (RED-CNN)[J]. IEEE Transa

41、ctions on Medical Imaging, 2017, 36(99): 2524−2535. [12] ZHANG K, ZUO W, ZHANG L. FFDNet: Toward a fast and flexible solution for CNN based image denoising[J]. IEEE Transactions on Image Processing, 2018. [13] ANWAR S, BARNES N. Real image denoising with feature attention[C]//Proceedings of the IE

42、EE/CVF International Conference on Computer Vision. 2019: 3155-3164. [14] TIAN C, XU Y, ZUO W. Image denoising using deep CNN with batch renormalization[J]. Neural Networks, 2020, 121: 461−473. [15] MA Y, WEI B, FENG P, et al. Low-dose CT image denoising using a generative adversarial network with

43、 a hybrid loss function for noise learning[J]. IEEE Access, 2020, 8. DOI:10.1109/ACCESS.2020.2986388. [16] LIANG J, CAO J, SUN G, et al. Swinir: Image restoration using swin transformer[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 1833-1844. [17] YUAN K, GU

44、O S, LIU Z, et al. Incorporating convolution designs into visual transformers[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 579-588. [18] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[J]. Advances in Neural Information Process

45、ing Systems, 2017. https://doi.org/10.48550/arXiv.1706.03762. [19] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16 × 16 words: Transformers for image recognition at scale[J]. arXiv Preprint arXiv: 2010.11929, 2020. [20] LIU Z, LIN Y, CAO Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//Proceedings of the IEEE/CVF International Conference on Computer

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服