收藏 分销(赏)

基于全局与局部感知网络的超高清图像去雾方法.pdf

上传人:自信****多点 文档编号:2414822 上传时间:2024-05-29 格式:PDF 页数:8 大小:14.22MB
下载 相关 举报
基于全局与局部感知网络的超高清图像去雾方法.pdf_第1页
第1页 / 共8页
基于全局与局部感知网络的超高清图像去雾方法.pdf_第2页
第2页 / 共8页
基于全局与局部感知网络的超高清图像去雾方法.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、DOI:10.11992/tis.202304013网络出版地址:https:/ 计算机科学与工程学院,江苏 南京 210094)摘 要:当前,为实现图像全局建模的目的,基于多层感知机(multi-layer perceptron,MLP)的模型通常需要将图像上的像素进行平铺,之后实施一个自注意力机制或“混合”增强方案以获得图像的长范围依赖。然而,这些方法通常消耗大量的计算资源来弥补图像重建丢失的空间拓扑信息。特别是对于超高清图像去雾任务,大量堆积 MLP 的模型在资源受限的设备上执行一张超高清带雾图像时会出现内存溢出的问题。为了解决这个问题,本文提出了一种可以在单个 GPU 上对分辨率为 4

2、 k 的图像进行实时去雾(110 f/s)的模型,该模型的建模过程中保持了图像空间结构信息,同时具有低计算复杂度的优点。关键词:图像去雾;超高清图像;多层感知机;空间拓扑信息;局部特征提取;全局特征提取;深度学习;实时去雾中图分类号:TP181 文献标志码:A 文章编号:16734785(2024)01008908中文引用格式:郑卓然,魏绎汶,贾修一.基于全局与局部感知网络的超高清图像去雾方法 J.智能系统学报,2024,19(1):8996.英文引用格式:ZHENG Zhuoran,WEI Yiwen,JIA Xiuyi.UHD image dehazing method based on

3、global and local awarenetworksJ.CAAI transactions on intelligent systems,2024,19(1):8996.UHD image dehazing method based on global and local aware networksZHENG Zhuoran,WEI Yiwen,JIA Xiuyi(School of Computer Science and Engineering,Nanjing University of Science and Technology,Nanjing 210094,China)Ab

4、stract:Current multilayer perceptron(MLP)-based models usually require flattening pixels on an image and sub-sequently enforce a self-attention mechanism or“Mix”enhancement scheme to achieve global modeling of images andobtain long-range dependence of the image.However,these approaches generally con

5、sume considerable computing re-sources to bridge the loss of spatial topological information in image reconstruction.Particularly for UHD image dehaz-ing tasks,numerous stacked MLP models suffer from memory overflow when running a UHD-hazed image on a re-source-constrained device.A novel model for r

6、eal-time dehazing of 4 K images on a single GPU(110 fps)is proposedhere to address this issue.This model is advantageous because it maintains spatial information of the raw image and haslow computational complexity.Keywords:image dehazing;UHD image;multilayer perceptron;spatial topology information;

7、local feature extraction;global feature extraction;deep learning;real-time image dehazing 带有雾霾的图像具有低对比度和模糊的特性,这会严重影响下游图像处理模型的表现,例如行人检测、图像分割等。对此,大量的单幅图像去雾方法被开发出来,它们的目的在于把输入的带有雾霾的图像转换成一张清晰图像。然而,伴随着移动设备和边缘设备对分辨率为 4 k 图像处理方法的需求的不断增长,现存的图像去雾的方法很少能高效地处理一张带雾的超高清图像1。对于传统算法来说,大量的研究人员专注于雾霾和环境的物理性质,他们采用各种清晰的图像

8、先验来规范解空间,但这些方法通常需要复杂的迭代优化方案才能找到最佳解。而且,这些手工制作的图像先验知识的复杂性远远不能满足实际应用的要求。例如 Tan2开创了在没有任何额外信息的情况下在单图像实现去雾的可能性。He等3使用暗通道先验(dark channel prior,DCP)借助统计学来估计图像的雾霾以实现图像去雾。Zhu 等4提出了颜色衰减先验,通过估计场景深收稿日期:20230407.网络出版日期:20230801.基金项目:国家自然科学基金项目(62176123).通信作者:贾修一.E-mail:.第 19 卷第 1 期智能系统学报Vol.19 No.12024 年 1 月CAAI

9、Transactions on Intelligent SystemsJan.2024智能系统学报编辑部版权所有度来消除雾霾。Berman 等5观察到,无雾图像的颜色可以很好地近似为 RGB 空间中形成紧密簇的数百种不同颜色,然后基于这一先验知识提出了一种去雾算法。Chen等6提出了一种改进的评价彩色图像去雾效果的方法。该方法考虑了对图像边缘信息的评估以及对颜色失真的评估。最近,基于 CNN 的方法已被应用于图像去雾,并且与传统方法相比取得了显著的性能改进。早期的算法7-9使用可学习的参数代替传统框架中的某些模块或步骤(例如估计透射图或大气光),并使用外部数据来学习参数。从那时起,更多的研究使

10、用端到端的数据驱动的方法来消除图像雾化10-14。例如,Cai 等7提出了 DehazeN-et 来生成端到端的传输图。Zhang 等15将大气散射模型嵌入到网络中,允许 CNNs 同时输出传输图、大气光和去雾图像。GandelSman 等11借助于图像先验知识提出了一种无监督的图像去雾方法。Chen 等16在合成数据集中预先训练了去雾模型,之后使用无监督学习方法使用各种物理先验微调网络参数,以提高其在真实雾霾图像上的去雾性能。还有一系列研究放弃了传统的物理模型,并使用直接的端到端方法来生成去雾图像。Li 等8设计了一个 AOD 网络,通过重新制定的大气散射模型直接生成去雾图像。Qu 等14将

11、去雾任务转换为图像到图像的转换任务,并增强了网络以进一步生成更逼真的无雾图像。尽管基于 CNN 的方法已经取得了最先进的结果,但它们通常需要堆叠更多的卷积层才能获得更好的性能,从而导致在资源受限的设备上计算成本过高。360360除此之外,基于 MLP 的方法已被应用于图像增强任务,例如图像超分辨率17-18、图像去噪19和图像去雨20-21。与 CNN 相比,这些方法在低运算量的基础上取得了更好的视觉效果。不幸的是,目前基于 MLP 的方法有 2 个主要限制。首先,上述方法将图像划分为多个块,以捕获图像上的全局感受野,导致图像像素之间的空间拓扑信息丢失;其次,图像去雾是一个高度不适定的问题,因

12、此需要大量的 MLP 层或一些注意力机制来重建更好的高频细节。为此,这些结构和模块的大量堆叠会严重增加计算负担。例如,Uformer结构22只能使用 24 GB RAM 处理一张分辨率的图像。针对上述存在的问题,本文提出了一种不带有图像补丁的全局和局部感知网络。其中,全局感知网络基于 MLP-Mixer 的设计原则,在多尺度框架中捕获图像的全局特征。此外,局部信息的抽取使用 U-Net 来捕捉图像的局部特征以弥补全局信息建模的不足。最后,通过融合全局和局部特征图生成一个高质量的系数张量,它用于输入图像的仿射变换。值得注意的是系数张量可以看作是一种注意力机制,它表示了带雾图像的局部区域应该有相似

13、的变换。经过大量的实验分析表明,所提出的用于 UHD 图像去雾任务的全局感知网络具有两个优点:1)该模型能够有效地建模出图像的全局特性,同时保留了图像上的元素之间空间拓扑信息。2)全局特征和局部特征相辅相成,协同产生一张高质量的超高清去雾图像。本文算法有能力在单个 24 GB RAM 的 RTX 3 090 上以 110 f/s 的速度处理一张 4 k 分辨率的图像,并实现最佳性能。值得注意的是该模型在 4KID数据集中的峰值信噪比指标达到了 26.99 dB。1 全局和局部感知网络的结构图 1 给出了 4 k 分辨率图像去雾网络的架构,该网络主要由两个分支网络组成,一个全局信息提取网络和另一

14、个是局部信息提取网络。1.1 全局信息提取XXHWCX R(CHW)XRW7 RWXXTRH7 RHXRC7 RC传统的基于 MLP 的图像重构模型需要将图像分割成若干个块再进行特征抽取,这无疑会丢失图像的空间拓扑信息。灵感来自于 MLP-Mix-er 的设计原则,本文设计了一个空间 MLP 混合器(spatial-MLP-mixer,SMM)。具体来说,SMM 将完整的特征图作为输入,其中特征图 的长度域,宽度域和通道域分别为、和,。然后分别使用相同的投影矩阵和激活函数以“滚动的方式”对一张图像的宽度域、长度域和通道域进行非线性的投影。混合器块由尺寸相等的多层 MLP 组成,每层由 3 个

15、MLP 块组成。第 1 个块是图像的宽度混合 MLP,它作用于的行,映射,并在所有行之间共享。第 2 个块是图像的长度混合 MLP,它作用于的列(即它应用于转置的输入),映射,并在所有列之间共享。第 3 个块是图像的通道混合 MLP:它作用于的通道维度,映射,并在所有通道之间共享。每个 MLP 块包含两个完全连接层和一个独立应用于输入数据张量每个维度的非线性层。具体如下:Y,i=X,i+2S(1L(X),i),i=1,2,WZ,j,=Y,j,+4S(3L(Y),j,),j=1,2,HUk,=Zk,+6S(5L(Z)k,),k=1,2,CLS其中:表示层归一化,是 Sigmoid 函数,表示全连

16、接层参数。该结构的整体复杂性在图像中的像第 19 卷智能系统学报90 素数上是线性的,这与 ViT(vision transformer)不同,ViT 的复杂性是二次的。SMM 可以通过“滚动”提取图像的空间域信息进行长范围依赖建模以更好地恢复图像的颜色与纹理信息。除此之外,多尺度特性也被考虑。多尺度特性是空间 MLP 学习高分辨率(high resolution,HR)图像的高质量特征的关键。为了实现更多的跨分辨率特征交互,在 SMM 开始时以不同的尺度插入交叉分辨率特征信息。为了帮助低分辨率(low resolution,LR)特征保持更多图像细节和准确的位置信息,该算法把低分辨率特征与高

17、分辨率特征融合。HR 路径在 LR 路径中增加了更多的图像信息以减少信息损失,并增强了反向传播过程中的梯度流,以促进 LR 变换模块的训练。另一方面,将 LR 特征合并到 HR 路径中,以帮助模型获得具有更大感受野的抽象层次的特征。具体来说,该网络有 3 种规模(256、128 和64)的多尺度 SMM,框架与 HRNet 相同。它始终保持高分辨率表示,以获得空间准确的全局特征图。通过迭代融合由 HR 和 LR 子网络生成的特征来合成可靠的高分辨率特征。所有的图像下采样和上采样的方式都使用了双线性插值。图像带有256256 分辨率下采样输入图像带有 4k分辨率全局信息抽取仿射变换上采样到原始分

18、辨率AL特征融合真值绝对平方误差输出的干净图像RCHWRCHWRCHWRCHWMLPs(C)MLPs(H)MLPs(W)特征图通道增强空间增强空间增强空间 MLP 混合器块TT局部信息抽取+图 1 全局和局部感知网络框架Fig.1 Framework of global and local aware network 1.2 局部信息提取25625633为了进一步增强模型生成一张清晰的超高清去雾图像的能力,该模型引入了图像的局部信息提取网络。该网络首先将 4 k 分辨率带雾输入降低到的固定分辨率(双线性插值的方法),然后由 U-Net 获取其局部特征图。U-Net 添加了一个卷积层,将解码器最

19、后一层的通道数从 64 映射到 3。局部提取模块通过堆叠卷积层和池化层,可以更好地关注图像中的局部信息关系以消除冗余的特征信息。此外,图像局部信息的抽取可以用于恢复清晰的边缘特征,这些特征可以通过依赖图像的短距离依赖进行恢复。如图 2(b)所示,本地信息提取模块的输出图像具有更清晰的边缘。相比之下,图像的色彩信息不能仅根据该像素及其附近像素的色彩信息进行恢复,还需要考虑全局的长距离依赖才能正确恢复图像颜色。因此,通过SMM 来提取图像的长距离依赖色彩空间信息,以更好地恢复图像颜色。如图 2(a)所示,全局信息提取模块更侧重于图像的颜色特征。(a)全局(b)局部 图 2 全局和局部分支归一化特征

20、结果Fig.2 Results of normalized output feature maps of theglobal and the local branches 91郑卓然,等:基于全局与局部感知网络的超高清图像去雾方法第 1 期 2 实验与结果分析在本节中,通过对合成数据集和真实世界图像进行实验来评估所提出的方法。将所有结果与 9 种先进的去雾方法进行比较:AOD17、PSD16、DCP3、CAP4、NL5、GCANet23、MGBL1、FDM-HN24和 PFFNet25。此外,还进行消融研究,以表明该网络在图像去雾任务上每个模块的有效性。2.1 评价指标为定量的评估去雾算法的表

21、现,本文使用了峰值信噪比 P 和结构相似性 H 作为评估指标,其中 K 表示最大值,E 表示方差。P=10lgK2EH 表示干净图像与噪音图像之间的均方差。H(x,y)=(2xy+c)(2xy+c)(2x+2y+c)(2x+2y+c)2.2 数据集训练数据集总共包含 13 136 张雾化/真实图像。它包括来自 4KID 的 12 861 张包含建筑物、人物、车辆、道路等的图像和来自 I-HAZE 的25 张室内场景图像和来自 O-HAZE 的 40 张室外场景图像进一步扩充了数据的多样性。相应地,实验对来自 4Kdehaze 的 200 张图像,来自 I-HAZE的 5 张图像和来自 O-HA

22、ZE 的 5 张图像进行测试。2.3 实验细节512512该模型是使用 PyTorch 1.7 实现的,网络是使用 AdamW 优化器训练的。在这种情况下,一张分辨率为的图像作为输入(输入到模型后会借助双线性插值被强行下采样到 256256 的分辨率),并使用 8 的批量大小来训练网络。初始学习率设置为 0.001。整个模型的使用了 50 轮次的训练。6060对于 DCP,将窗口大小设置为用于测试。对于去雾模型 PSD,GCANet 和 FDMHN,它们分别在 4KID、I-HAZE 和 O-HAZE 数据集上进行微调。网络使用 AdmaW 优化器进行训练,学习率为 0.000 1。特别是对于

23、 PSD,本文使用作者提供的 PSD-MSDBN 模型系数进行微调。此外,对于 AOD、PFFNet 和 MGBL,应用 Adam 优化器并将学习率设置为 0.001 以训练网络。对于去雾算法 NL,灰度系数 设置为 1 进行测试。2.4 实验结果所有方法都在 3 个数据集上进行评估,即4KID、O-HAZE 和 I-HAZE 数据集。图 3 和图 4 中给出了在 4KID 数据集中的一张分辨率为 4 k 的图像和 I-HAZE 数据集中的一张图像的对比结果。可以观察到,传统的基于物理的方法(NL、DCP、CAP)倾向于过度增强结果,导致颜色失真。最近的深度模型(GCANet、FDMHN、AO

24、D、PFFNet、MGBL)由于缺乏全局建模能力,结果中仍然存在一些模糊。虽然 PSD 的结构相似性优于本文算法,但局部与全局感知网络可以更快地处理分辨率为 4 k 的图像并获得更好的色彩结果。图 3(k)、4(k)中局部与全局感知网络法生成的去雾结果接近图 3(l)、4(l)中的真实无雾图像。表 1 表明了本文方法的有效性。同时,在同一台具有 NVIDIA 24GB RAM RTX 3 090 GPU 的机器上评估所有深度模型。运行时只是 GPU 的处理时间,不考虑 I/O 操作。4KID、I-HAZE 和 O-HAZE 数据集的平均运行时间如表 1所示。传统方法(NL、DCP、CAP)需要

25、解决复杂的函数,这不可避免地增加了计算成本。虽然一些轻量级网络(FDMHN、AOD、PFFNet、MGBL)可以实时消除分辨率为 4 k 的图像的雾霾,但它们的性能不如本文模型。此外,虽然一些大型网络(GCANet、PSD)实现了更好的性能,但它们无法实时去除单个分辨率为 4 k 的图像的雾霾。(a)输入(PSNR dB/SSIM)(b)AOD(13.87 dB/0.788 1)(c)CAP(14.96 dB/0.749 1)(d)DCP(16.79 dB/0.890 3)(e)FDMHN(18.23 dB/0.911 2)(f)GCANet(17.83 dB/0.890 4)(g)MGBL(

26、17.28 dB/0.848 0)(h)NL(18.15 dB/0.915 2)(i)PFFNet(16.06 dB/0.882 2)(j)PSD(21.69 dB/0.934 0)(k)本文算法(24.90 dB/0.901 1)(l)真值(+/1)图 3 4KID 数据集上的测试结果Fig.3 Dehazed results on the 4KID test dataset 第 19 卷智能系统学报92(a)输入(PSNR dB/SSIM)(b)AOD(13.87 dB/0.788 1)(c)CAP(14.96 dB/0.749 1)(d)DCP(16.79 dB/0.890 3)(e)F

27、DMHN(18.23 dB/0.911 2)(f)GCANet(17.83 dB/0.890 4)(g)MGBL(17.28 dB/0.848 0)(h)NL(18.15 dB/0.915 2)(i)PFFNet(16.06 dB/0.882 2)(j)PSD(21.69 dB/0.934 0)(k)本文算法(24.90 dB/0.901 1)(l)真值(+/1)图 4 在 I-HAZE 数据集上的测试结果Fig.4 Dehazed results on the I-HAZE dataset 表 1 4KID、I-HAZE 和 O-HAZE 数据集上的定量评估Table 1 Quantitat

28、ive evaluation of the 4KID,I-HAZE and O-HAZE datasets 数据集指标输入AODCAPDCPFDMHNGCANetMGBLNLPFFNetPSD本文算法4KID峰值信噪比/dB10.8714.3412.3815.2117.8315.3822.9713.8315.6923.1926.99结构相似性0.750 60.805 90.726 90.840 00.887 80.849 80.895 50.808 40.858 00.939 10.900 0时间1 ms6 s3 s20 ms1 s9 ms22 s13 ms382 ms9 msO-HAZE峰值

29、信噪比/dB13.3618.0915.2016.5718.5516.3519.2614.6517.6619.7720.54结构相似性0.710 90.772 00.624 10.771 20.773 00.725 30.817 90.666 20.745 30.823 80.810 8时间5 ms9 s5 s20 ms2 s16 ms38 s19 ms2 s13 msI-HAZE峰值信噪比/dB15.5015.5511.7411.5515.4912.2516.7512.1815.1316.4119.32结构相似性0.818 10.827 10.541 30.671 00.713 50.744

30、70.801 60.678 80.770 20.835 20.884 8时间2 ms9 s4 s19 ms2 s17 ms55 s16 ms602 ms14 ms 然后,在真实世界的带雾图像上评估所提出的算法。首先,在真实捕获的 4 k 分辨率带雾图像上与不同的先进方法进行比较。图 5 给出了两张具有挑战性的真实世界图像的结果的定性比较。如图所示,DCP 使去雾结果中的某些区域变暗,CAP 和 PSD 遭受颜色失真,而 AOD、GCANet、MGBL、FDMHN 和 PFFNet 生成的结果有一些残留的雾霾。相比之下,本文算法能够生成逼真的颜色,同时更好地消除雾霾,如图 5(j)所示。(a)输

31、入 (b)CAP (c)DCP(d)FDMHN(e)GCANet(f)MGBL(g)NL(h)PFFNet(i)PSD(j)本文算法 图 5 在真实 4 k 分辨率图像上的去雾结果Fig.5 Dehazed results on real-world 4 k resolution images 除了 4 k 分辨率图像,在其他公共数据库下载的几个低分辨率带雾图像上评估了超高清去雾算法与其他的对比方法。去雾结果如图 6 所示。可以看出,除本文之外的所有型号都存在颜色失真。相反,本文方法可以更好地消除雾霾并有效地产生逼真的色彩。93郑卓然,等:基于全局与局部感知网络的超高清图像去雾方法第 1 期(

32、a)输入 (b)CAP (c)DCP(d)FDMHN(e)GCANet(f)MGBL(g)NL(h)PFFNet(i)PSD(j)本文算法 图 6 在低分辨率图像上的去雾结果Fig.6 Dehazed results on low-resolution hazy images of real-world 为了检验 SMM 的有效性,全局与局部网络还与 SwinIR19和 MLP-Mixer26进行了比较。所有 3 个模型应用大致相同数量的参数。SwinIR和 MLP-Mixer 都需要将图像分割成块,导致空间拓扑信息的丢失和模型的图像增强能力的降低。此外,SwinIR 对 Transforme

33、r 的使用增加了其计算能力但减慢了模型的速度。如图 7 所示,MLP 混合器产生了模糊的结果,图像中存在可见的斑块,而 SwinIR 的输出不能完全消除雾霾,并且存在颜色失真。但是,本文提出的 SMM 能够更好恢复纹理和颜色。值得注意的是,对于大致相同数量的参数,SMM 是最快的,而 SwinIR 是最慢的。(a)输入(b)SMM(c)MLP-Mixer(d)SwinIR 图 7 空间 MLP 混合器、MLP 混合器以及 SwinIR 效果对比Fig.7 The results of spatial MLP-mixer,MLP-mixer andSwinIR 2.5 消融实验为了表明所提出的网

34、络中引入的每个模块的有效性,进行了一项消融研究,涉及以下 3 个实验:全局分支的有效性,该模型移除了全局特征提取分支并直接回归图像以获得最终输出;局部分支的有效性,该模型移除 UNet,直接将图像回归到多尺度空间 MLP 混合器中,以获得最终结果;多尺度的有效性,比较了分别使用单一尺度和两个尺度的效果,同时保持相同数量的参数。如表 2 和图 8 所示,局部分支依靠图像的局部特征,在两个指标上取得了较好的结果,但其颜色恢复能力仍然不足。仅使用全局分支并不能给出令人满意的结果,但其更好地提取全局信息的能力可以增强局部分支对图像颜色的恢复。值得注意的是,对不同尺度的 SMM 进行消融实验时,该模型为

35、单尺度和双尺度 SMM 堆叠了更多的 MLP 层,以达到与多尺度 SMM 相似数量的参数。显然,出色的多尺度性能是由于多分辨率图像提供的丰富细节。表 2 全局分支、局部分支以及多尺度的消融实验Table 2 Ablation studies of global branch,local branchand multi-scale 方法峰值信噪比/dB结构相似性全局分支18.610.802 2局部分支22.820.844 5单尺度SMM25.770.849 8双尺度SMM26.030.897 7本文26.990.900 0 (a)输入图像(b)全局分支 (c)局部分支(d)单尺度 SMM(e)双

36、尺度 SMM(f)本文算法(g)GT 图 8 在低分辨率图像上的消融结果Fig.8 Dehazed results on low-resolution hazy images第 19 卷智能系统学报94 3 结束语本文提出了一种具有全局和局部感知的超高清分辨率图像去雾的新模型。该模型的关键是使用全局特征提取分支的空间 MLP 混合器。空间MLP 混合器可以帮助模型从超高清分辨率的(4 k)图像中恢复颜色特征。使用局部特征分支来恢复高质量的细节特征,为图像去雾提供丰富的纹理信息。定量和定性结果表明,该网络在准确性和推理速度方面与先进的去雾方法相比更好,并在真实世界的 4 k 雾霾图像上产生了视觉

37、上令人满意的结果。参考文献:ZHENG Zhuoran,REN Wenqi,CAO Xiaochun,et al.Ul-tra-high-definition image dehazing via multi-guided bilat-eral learningC/2021 IEEE/CVF Conference on Com-puter Vision and Pattern Recognition.Nashville:IEEE,2021:1618016189.1TAN R T.Visibility in bad weather from a single imageC/2008 IEEE C

38、onference on Computer Vision and PatternRecognition.Anchorage:IEEE,2008:18.2HE Kaiming,SUN Jian,TANG Xiaoou.Single imagehaze removal using dark channel priorJ.IEEE transac-tions on pattern analysis and machine intelligence,2011,33(12):23412353.3ZHU Qingsong,MAI Jiaming,SHAO Ling.A fast singleimage h

39、aze removal algorithm using color attenuation pri-orJ.IEEE transactions on image processing:a publica-tion of the IEEE signal processing society,2015,24(11):35223533.4BERMAN D,TREIBITZ T,AVIDAN S.Non-local im-age dehazingC/2016 IEEE Conference on ComputerVision and Pattern Recognition.Las Vegas:IEEE

40、,2016:16741682.5陈珂,柯文德,许波,等.改进的彩色图像去雾效果评价方法 J.智能系统学报,2015,10(5):803809.CHEN Ke,KE Wende,XU Bo,et al.An improved as-sessment method for the color image defogging effectJ.CAAI transactions on intelligent systems,2015,10(5):803809.6CAI Bolun,XU Xiangmin,JIA Kui,et al.DehazeNet:anend-to-end system for s

41、ingle image haze removalJ.IEEE transactions on image processing:a publication ofthe IEEE signal processing society,2016,25(11):51875198.7LI Boyi,PENG Xiulian,WANG Zhangyang,et al.AOD-net:all-in-one dehazing networkC/2017 IEEE Interna-tional Conference on Computer Vision.Venice:IEEE,2017:47804788.8RE

42、N Wenqi,PAN Jinshan,ZHANG Hua,et al.Singleimage dehazing via multi-scale convolutional neural net-works with holistic edgesJ.International journal of com-puter vision,2020,128(1):240259.9DENG Zijun,ZHU Lei,HU Xiaowei,et al.Deep multi-model fusion for single-image dehazingC/2019 IEEE/CVF Internationa

43、l Conference on Computer Vision.Seoul:IEEE,2020:24532462.10GANDELSMAN Y,SHOCHER A,IRANI M.“double-DIP”:unsupervised image decomposition via coupleddeep-image-priorsC/2019 IEEE/CVF Conference onComputer Vision and Pattern Recognition.Long Beach:IEEE,2020:1101811027.11HONG Ming,XIE Yuan,LI Cuihua,et a

44、l.Distilling im-age dehazing with heterogeneous task imitationC/2020IEEE/CVF Conference on Computer Vision and PatternRecognition.Seattle:IEEE,2020:34593468.12LI Runde,PAN Jinshan,LI Zechao,et al.Single imagedehazing via conditional generative adversarial networkC/2018 IEEE/CVF Conference on Compute

45、r Vision andPattern Recognition.Salt Lake City:IEEE,2018:82028211.13QU Yanyun,CHEN Yizi,HUANG Jingying,et al.En-hanced Pix2pix dehazing networkC/2019 IEEE/CVFConference on Computer Vision and Pattern Recognition.Long Beach:IEEE,2020:81528160.14ZHANG He,PATEL V M.Densely connected pyramiddehazing net

46、workC/2018 IEEE/CVF Conference onComputer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:31943203.15CHEN Zeyuan,WANG Yangchao,YANG Yang,et al.PSD:principled synthetic-to-real dehazing guided byphysical priorsC/2021 IEEE/CVF Conference on Com-puter Vision and Pattern Recognition.Nashville:IE

47、EE,2021:71767185.16LIANG Jingyun,CAO Jiezhang,SUN Guolei,et al.SwinIR:image restoration using swin transformerC/2021 IEEE/CVF International Conference on ComputerVision Workshops.Montreal:IEEE,2021:18331844.17YANG Fuzhi,YANG Huan,FU Jianlong,et al.Learningtexture transformer network for image super-

48、resolutionC/2020 IEEE/CVF Conference on Computer Vision andPattern Recognition.Seattle:IEEE,2020:57905799.1895郑卓然,等:基于全局与局部感知网络的超高清图像去雾方法第 1 期 LUTHRA A,SULAKHE H,MITTAL T,et al.Eformer:edge enhancement based transformer for medical imagedenoisingEB/OL.(20210906)20230407.https:/arxiv.org/abs/2109.080

49、44.19CHEN Hanting,WANG Yunhe,GUO Tianyu,et al.Pre-trained image processing transformerC/2021 IEEE/CVF Conference on Computer Vision and Pattern Recog-nition.Nashville:IEEE,2021:1229412305.20CHEN Xiang,LI Hao,LI Mingqiang,et al.Learning Asparse transformer network for effective image derainingC/2023

50、IEEE/CVF Conference on Computer Vision andPattern Recognition.Vancouver:IEEE,2023:58965905.21WANG Zhendong,CUN Xiaodong,BAO Jianmin,et al.Uformer:a general U-shaped transformer for image res-torationC/2022 IEEE/CVF Conference on ComputerVision and Pattern Recognition.New Orleans:IEEE,2022:1766217672

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服