1、2023 年 10 月 图 学 学 报 October2023第 44 卷 第5期 JOURNAL OF GRAPHICS Vol.44No.5 收稿日期:2023-04-23;定稿日期:2023-06-18 Received:23 April,2023;Finalized:18 June,2023 基金项目:国家自然科学基金项目(61502297)Foundation items:National Natural Science Foundation of China(61502297)第一作者:徐祯东(1999),男,硕士研究生。主要研究方向为数字图像处理和图像三维重建。E-mail: F
2、irst author:XU Zhen-dong(1999),master student.His main research interests coverdigital image processing and image reconstruction in 3D.E-mail: 通信作者:王道累(1981),男,教授,博士。主要研究方向为机器学习、机器视觉和图像处理等。E-mail: Corresponding author:WANG Dao-lei(1981),professor,Ph.D.His main research interests cover machine learni
3、ng,machine vision and image processing,etc.E-mail: 基于 YUV 颜色空间 GAN 网络的 图像去雾算法研究 徐祯东,张天宇,张世恒,姚从荣,王道累(上海电力大学能源与机械工程学院,上海 201306)摘要:针对目前单幅图像去雾算法存在有色差,去雾效果不理想等问题,提出了一种基于 YUV 颜色空间的单幅图像去雾算法。该方法应用了 GAN 图像着色任务的思想,从正向的角度对雾霾图像实现重新上色。将雾霾图像转换至 YUV 颜色空间,在 Y 通道采用密集残差模块采集图片的亮度特征,根据特征对雾霾图像的亮度信息进行调整,降低雾霾对图像的影响。在 UV
4、通道上采用 4 个残差模块对图像颜色信息进行多次提取,根据提取的颜色信息通过模型预测对图像进行重上色。采用包含跳跃连接结构的特征融合网络将底层特征与高层特征进行融合,在融合过程中加入注意力模块以实现更加精细的去雾。实验结果表明,该算法在合成雾霾图像数据集上,RMSE,SSIM 和 PSNR 3 种指标均达到了较高的水平,在真实雾霾图像上,对浓雾和薄雾图像均表现出了优异的去雾效果,具有良好的稳定性。关键词:生成对抗网络;图像去雾;重上色;YUV 颜色空间;跳跃连接 中 图 分 类 号:TP 391 DOI:10.11996/JG.j.2095-302X.2023050928 文 献 标 识 码:
5、A 文 章 编 号:2095-302X(2023)05-0928-09 Image defogging algorithm based on YUV color space GAN network XU Zhen-dong,ZHANG Tian-yu,ZHANG Shi-heng,YAO Cong-rong,WANG Dao-lei(College of Energy and Mechanical Engineering,Shanghai University of Electric Power,Shanghai 201306,China)Abstract:To address the cur
6、rent problems of chromatic aberration and unsatisfactory defogging effects in the single-image defogging algorithm,we proposed a single-image defogging algorithm based on YUV color space.This method applied the idea of GAN image coloring task to recolor haze images from a positive perspective.The ha
7、ze image was converted to the YUV color space,and the dense residual module was employed to collect the brightness features of the image from the Y channel.Additionally,the brightness information of the haze image was adjusted according to the characteristics,mitigating the impact of haze on the ima
8、ge.Four residual modules were used on the UV channel to extract image color information multiple times,and recolored the image through model prediction based on the extracted color information.A feature fusion network,including a skip connection structure,was utilized to fuse low-level features with
9、 high-level ones.Furthermore,the addition of an attention module during the fusion process led to more refined dehazing.The experimental results demonstrated the algorithms efficacy,showcasing remarkable performance in terms of RMSE,SSIM,and PSNR on the synthetic haze image datasets.On the real haze
10、 第 5 期 徐祯东,等:基于 YUV 颜色空间 GAN 网络的图像去雾算法研究 929 1 image,the algorithm displayed excellent performance on dense fog and thin fog images,ultimately leading to an outstanding defogging effect and ensuring a high level of stability.Keywords:GAN;image dehazing;recolor;YUV color space;jump connection 雾霾作为当前自
11、然环境中一种常见的极端天气,给人们的生活带来极大的影响1-2。在雾霾环境下,空气中存在大量的悬浮颗粒物会使光线发生散射,导致物体反射的光线发生衰减,进而造成相机等成像设备获取的图像出现模糊,致使对比度和清晰度受到影响,难以获取到有效信息。因此图像去雾问题具有重要的研究价值3。随着近年来计算机视觉技术的发展,图像去雾研究取得了极大地进步,出现了众多优秀的去雾算法,如:颜色衰减先验算法4、优化对比度增强算法5、暗通道先验去雾算法6、AOD-Net 去雾算法7和 DehazeNet8去雾算法等。除此之外,备受 关 注 的 生 成 对 抗 网 络(generative adversarial netw
12、orks,GAN)也被广泛应用在图像去雾领域。其中ZHU等9提出的DehazeGAN算法创新性地探究了图像去雾、GAN 和可微设计的联系,为图像去雾领域的研究提供了另一种思路。YANG 等10提出了一种端到端的去雾网络,其使用非配对监督生成真实感的无雾图像,同时使用多尺度对抗性训练生成感知无雾图像,从而克服了实验中训练数据不足的约束。ENGIN 等11提出了 Cycle Dehaze 去雾网络,将循环一致性损失和感知损失同循环生成对抗网络(cycle GAN,CycleGAN)的相结合,从而生成视觉上更好的无雾图像。在图像通道去雾方面,赵建堂12通过卷积神经网络(convolutional n
13、eural networks,CNN)来学习雾天图像与清晰图像 YUV 各个通道之间的映射关系,从而实现去雾的效果。上述算法大多基于大气散射模型,通过研究雾霾图像的形成过程,用先验或深度学习的方式得出模型中的某些参数,通过逆向运算还原出原始的清晰图像。经实验验证13,上述方法在雾霾较薄时有一定的去雾效果,针对浓雾图像,由于雾霾遮挡图像严重,难以通过上述的逆向方法进行还原。综上所述,本文提出了一种基于 YUV 颜色空间(其中,Y 代表亮度,U 和 V 代表色差)的单幅图像去雾算法,本文算法抛弃按照大气散射模型进行逆向去雾的理论思路,将雾霾对图像的影响视作色彩的丢失,通过正向重上色的方法实现雾霾图
14、像的修复。在常见GAN图像重上色任务中,RGB颜色空间中色彩均匀分布在 3 个通道上,因此模型在训练时需要同时生成 3 个通道的数据,为了能够更加高效地生成彩色图像,通常会将图像转换至 YUV 颜色空间进行降维操作。在 YUV 颜色空间14中,只需要针对 UV 通道进行学习和预测,再将预测出的 UV 通道与原始的 Y 通道进行合并即可得到新生成的彩色图像。本文借鉴图像着色任务的研究思路,提出了一种新型的 GAN 网络模型,在 Y 通道上对图像亮度进行调整,在 UV 通道上对图像进行重上色,同时针对网络层数加深导致的图像细节丢失问题,提出了跳跃连接的方法将图像底层特征与高层特征进行融合。经实验验
15、证,该算法在真实雾霾图像数据集上实现了优秀的去雾效果,为图像去雾任务提供了一种新的解决思路。1 YUV 通道去雾效果分析 YUV 颜色空间是被电视系统所采用的一种颜色编码方法,其重要性在于其亮度信号 Y 和色度信号 U 和 V 是分离的,如果只有亮度信号 Y 而没有色度信号 UV,那么得到的将是黑白灰度图像。电视系统采用YUV颜色空间进行传输以解决彩色电视机与黑白电视机相融的问题,使黑白电视机也能接收到彩色电视信号。在 GAN 图像重上色任务中,采用 YUV 颜色空间能够降低预测难度,仅需要根据 Y 通道的黑白图像预测出 UV 通道即可。为了验证在 YUV 颜色空间下 GAN 网络对雾霾图像的
16、去雾效果,本文搭建了基于 Pix2Pix 模型的GAN 网络进行消融试验,采用 U-Net15模型作为生成器(generator,G),PatchGAN 作为判别器(discriminator,D),将输入图像 x 与经过生成器去雾后的图像(Gr(x)为去雾明显,Gf(x)为去雾不明显)共同输出判别器 D,当去雾效果明显时,则判别为真,否则判别为假。试验模型如图 1 所示。本文进行了以下 3 组对照试验:采用 YUV 3 个通道进行学习和预测;采用 Y 单通道进行学习和预测,再将预测出的 Y 通道与原始的 UV 通道合并;采用 UV 双通道进行学习和预测,再将预测出的 UV通道与原始的 Y通道
17、进行合并。YUV 930 图像处理与计算机视觉 2023 年 颜色空间与 RGB 颜色空间的互相转换式16为 0.2980.6120.1170.1680.3300.4981280.4490.)4350.0831281.40751280.34551280.71(691281.()()(779128YRGBURGBVRGBRYVGYUVBYU (1)使用 RESIDE 数据集17中的 OTS 数据集作为训练集,SOTS 数据集作为测试集,实验结果如图 2 所示。根据实验可以看出,单独对 Y 通道进行处理时,能够在一定程度上减少雾霾对图像的影响。处理后的图像整体色彩相对原始清晰图像偏暗,说明雾霾对图
18、像的影响虽然主要集中在 Y通道上,但是 UV 通道上的色度也受到了一定的影响,单独处理 Y 通道无法完全还原。而单独对 UV通道进行处理后,图像的色彩得到了较大地提升,但是仍然有雾霾的存在。将 YUV 3 个通道同时进行处理虽然能够实现一定的去雾效果,但存在细节丢失的情况,效果无法达到预期。同时,由于U-Net 的解码器部分采用了反卷积层,易导致模型中出现不均匀重叠的现象,因此恢复后的图像出现了方块状的棋盘格效应。图 1 消融试验模型 Fig.1 Ablation test model (a)(b)(c)(d)(e)图 2 消融试验结果(a)清晰图;(b)雾霾图;(c)Y 通道;(d)UV 通
19、道;(e)YUV 通道)Fig.2 Ablation test results(a)Clear diagram;(b)Foggy diagram;(c)Brightness channel;(d)Colour difference channel;(e)Full channel)2 本文算法 2.1 基于 YUV 颜色空间的 GAN 网络模型 综合上述消融实验的结果,本文提出了一种将 Y 通道和 UV 通道分开处理的 GAN 模型。首先将图像由 RGB 颜色空间转换成 YUV 颜色空间,并将 Y 通道和 UV 通道分离,采用 2 个特征提取模块分别对 Y 和 UV 通道进行特征的提取,由于在
20、Y 通道上只对图像的亮度进行调整,从而削弱雾霾对图像的影响,因此可以大大提升模型训练的速度,在 UV 通道上通过模型预测对图像色彩进行重上色,突出颜色信息,提升去雾效果。为了能够得到雾霾图像中更加底层的信息以区分其中不同的特征,对图像进行了多次下采样。而在特征融合时通过跳跃连接将底层特征与高层特征融合,可以得到更加精细的图像恢复效果。同时为了避免图像出现棋盘效应,在模型的特征融合模块使用了上采样加卷积的结构,GAN 模型结构如图 3 所示,其中每个模块后的数字代表特征图的通道数、宽和高。第 5 期 徐祯东,等:基于 YUV 颜色空间 GAN 网络的图像去雾算法研究 931 图 3 GAN 模型
21、结构 Fig.3 GAN model structure 2.2 特征提取网络 由消融试验的结果可知,在YUV颜色空间中,雾霾对于图像的影响主要集中在 Y 通道上,UV 通道上受到的影响相对较小,因此本文在特征提取部分将 Y 通道和 UV 通道分开进行处理。为了有效提取出 UV 通道中的颜色信息,采用了 4 个残差模块18(ResBlock)对 UV 特征进行多次特征提取。残差模块主要由 2 个 33 的卷积和 ReLu 激活函数构成,如图 4 所示。残差连接将模块的输入和输出线性叠加,能够最大程度上保留 UV 通道上的颜色和纹理信息。图 4 ResBlock 结构图 Fig.4 ResBlo
22、ck structure diagram 模块中 33 的卷积核能够在减小计算量的同时保留图像上的细节特征,避免图像出现细节模糊。2 个卷积层后均加入了归一化层(instance normalization,IN),IN 层不同于 BN 层(batch normalization,BN),IN 层对每个 feature map 的每个通道进行归一化,能够保持每个实例之间的独立性,提高 GAN 网络的鲁棒性能。由于 Y 通道上同时存在雾霾特征和图像的亮度特征,而深层网络的感受野相对于浅层网络更大,为了能有效保留全局亮度特征,采用集合了密集连接和残差连接的密集残差模块19(residual den
23、se block,RDB)。在 RDN(residual dense network)网络中,RDB 模块被用于解决图像超分辨的问题,由于网络的深度增加,每层的特征会被分开,部分特征可能存在丢失的情况,而 RDB 模块通过密集连接和残差连接,能够更好地实现对不同层次特征的有效提取和保留,对于 Y 通道上的雾霾和亮度特征而言,这是十分重要的。密集残差模块由4个卷积层和4个ReLu激活函数构成,如图 5 所示,前 3 个卷积层的卷积核大小为 33,通过密集连接的方式将各层的特征进行拼接,在减轻梯度消散的同时使用少量卷积核以生成大量特征。此外,在每个密集残差模块的初始位置加入了一个卷积核大小为 33
24、,步长为 2 的卷积层,实现对特征图的降维和压缩,也便于与特征融合网络的跳跃连接。最后用一个卷积核大小为 11 的卷积层对之前的特征进行融合。经多次试验可得,采用 3 个密集残差模块时,该网络的去雾能力最佳。图 5 加入了卷积层的 Residual dense block 结构图 Fig.5 Residual dense block structure diagram with convolutional layers 2.3 特征融合网络 本节将对 Y 通道和 UV 通道的特征融合进行 932 图像处理与计算机视觉 2023 年 介绍。特征融合网络的主要结构包含了多个卷积层的 ConvBlo
25、ck 和跳跃连接结构。在基于 GAN 的图像去雾任务中,通常情况下不会将特征图压缩的太小,因为这样会导致高层特征的丢失,生成的图像将会出现细节模糊,难以实现去雾的效果,但是经实验发现,多次压缩有利于底层特征的提取以及融合。为此,本文设计了跳跃连接的方式将特征提取网络与特征融合网络进行连接,相较于单一的通过上采样加卷积结构从底层特征中进行反传,跳跃连接的方式能够使恢复出来的特征图融合更多的高层特征,也使得不同尺寸的特征得到了融合,从而使预测出的图像的轮廓边缘等细节信息更加精细。在特征融合网络中,通过Concat 方法将上一层的特征图进行拼接,拼接后的特征图传给下一层的 ConvBlock。Con
26、vBlock主要由 2 个 33 卷积层构成,每个卷积层后带有一个 ReLu 激活函数,ReLu 激活函数能够为特征融合网络加入非线性因素。同时,为了解决棋盘效应,采用上采样加卷积的方法代替原来的反卷积层。在整个特征融合网络中共有 5 个 ConvBlock,其中前 3 个 ConvBlock 前加入了通道注意力模块20(channel attention,CA)和 空 间 注 意 力 模 块21(spatial attention,SA),如图 6 所示。通道注意力模块对输入特征进行平均池化(AvgPooling),随后将输出送入 2 个全连接层进行通道的压缩和解压操作,再将其输出特征图与原
27、始输入相乘后即能得到通道注意力模块的输出特征图,其表达式为 ()(AvgPool()CMFMLPFF(2)其中,F为输入特征图;MLP()为共享权值的双层神经网络处理;AvgPool()为平均池化处理。经过CA处理后的特征图会被送入SA中,SA在通道上计算出特征图的平均池化和最大池化,将结果使用Concat方法 拼 接 起 来 后 经 过 一 次 卷 积 核Sigmoid函数后即得到使用SA进行处理后的空间注意力特征图。空间注意力模块式为 7 7()AvgPool();MaxPool()SMFfFF(3)其中,f77为卷积核大小为77的卷积层;()为Sigmoid函数处理;MaxPool()为
28、最大池化处理。CA能够选择特征图中的聚焦位置,以解决图上存在的不均匀雾霾;SA则关注于YUV通道之间的特征融合,使模型更关注于颜色和亮度信息,提高去雾能力。经过实验验证,在特征融合网络的后层加入注意力模块加大了计算量但对模型性能并无太大的提升,因此只在底层位置采用注意力模块。在特征网络的最后一层采用了一个卷积核大小为11的卷积层将通道降至3维,得到最终的去雾图像。图 6 带有注意力机制的 ConvBlock 结构图 Fig.6 ConvBlock structure diagram with attention mechanism 综上所述,本文所提出的算法基于GAN网络,生成器部分(G)采用
29、双模块进行特征提取,判别器部分(D)采用PatchGAN网络。对抗损失函数为 GAN,(,)ln(,)ln(1(,()x yx zLG DED x yED x G x(4)其中,x为有雾图像;y为无雾图像;z为噪声;D(x,y)为判别器对真实数据的判别概率;Ex,y()为x和y分布的联合期望函数。为了保证输入图像和输出图像之间的相似度,加入L1损失来重构损失函数 1,1()()Lx yLGEyG x(5)汇总的损失函数为 GAN1*argminmax(,)()LGDGLG DLG(6)其中,为LL1损失函数的权重系数,值取10。3 实验与结果分析 将本文算法与基于大气散射模型的去雾算法:Deh
30、azeNet算法9以及基于深度学习直接端到端去雾的算法:FFA-Net算法22、GCANet算法23、MSBDN-DFF24、PSD25、gUNet26算法进行对比,从主观和客观2个角度说明本文方法的优越性。3.1 实验设置与数据集 本文方法在Ubuntu系统下采用Pytorch框架进行搭建,训练GPU为NVIDIA 1080Ti,GAN模型的判别器采用的是如图1中所示的PatchGAN判别器。训练时的初始学习率设置为0.000 1,Batchsize设置为2,优化器采用动量衰减指数1=0.5,2=0.999的Adam(adaptive moment estimation)优化器,其每次参数更
31、新的差值为 tttMG(7)第 5 期 徐祯东,等:基于 YUV 颜色空间 GAN 网络的图像去雾算法研究 933 11tttMM(8)21tttGG(9)其中,t为更新差值;为学习率;Mt为梯度的均值;Gt为梯度未减去均值的方差;为修正参数是为了保持数值稳定性而设置的小数值。从公共数据集RESIDE中的OTS(outdoor training set)数据集筛选出89702张图像作为训练集,同时使用COCO验证集的清晰图像根据大气散射模型合成出4 938张雾霾图像作为训练集的补充,合成式为 255(1)HazyI tAt(10)其中,Hazy为合成雾霾图像;I为原始的清晰图像;A 为大气光成
32、分;t 为透射率;A 和 t 为矢量。t 的计算式为 det(11)其中,为大气的散射系数;d为场景深度。大气光成分A的获取需要从暗通道图中按照亮度大小取前0.1%的像素,并在原始图像中寻找对应具有最高亮度点的值,作为A值。暗通道的计算式为 (),()minmin()cyxcr g bdark xIy(12)其中,Ic(y)为原始图像的某一个通道;(x)表示以x为中心的一块方形区域。使用SOTS(synthetic objective testing set)数据集作为合成图像的测试集,并从OTS数据集中筛选出训练集未使用的200张图像作为测试集的补充。为了验证算法在真实雾霾图像上的效果,本文
33、使用了天气图像分类论文中公开的天气图像分类数据集MWI(multi-class weather image)dataset 2015,从中筛选出1 000张真实的雾霾图像作为真实图像的测试集。3.2 在合成数据集上的实验结果 采用SOTS数据集与OTS数据集作为合成图像的测试数据集,其中包含500张合成的户外雾霾图像和对应的清晰图像,为了定量的评价在SOTS数据集上的恢复效果,使用结构相似度(structural similarity,SSIM)27、峰值信噪比(peak signal to noise ratio,PSNR)28和均方根误差(root mean square error,RM
34、SE)29作为评价标准来评价在合成数据集上的去雾效果,即 21()(,)miyxRMSE x ym(13)其中,y为去雾后的图像;x为原始的清晰图像;m为图像的像素数量。RMSE能够衡量观测值与真实值之间的偏差,值越小,说明去雾后的图像与原始的清晰图像之间的差异越小,去雾的效果则越好。210(21)10lognPSNRMSE(14)111(,)(,)HWijMSEx i jy i jHW(15)其中,MSE为原始的清晰图像x与去雾后的图像y之间的均方误差;H和W分别为图像的高度和宽度;n为像素的比特数,通常取8(即像素的灰阶数256);PSNR的单位为dB。PSNR是基于对应像素点之间的误差,
35、其值越大,则图像与原图之间的差距就越小,去雾效果就越好。12222212(2c)(2c)(,)ccxyxyxyxySSIM x y (16)其中,x和y为需进行对比的样本图像;x和y 分别为x,y的均值;2x和2y分别为x,y的方差;xy为x,y的协方差;c1和c2为2个常数,避免除零。SSIM通过图像构成的角度将图像结构信息独立于亮度和对比度之外,能够体现出图像中物体的结构属性。取值范围为1,1,当2张图像完全一样时,SSIM的值为1。对SOTS数据集中的500张图像进行上述3种评价指标的数据统计,取其平均值作为客观评价结果见表1。根据表1和图7与图8可以看出,本文算法在3种评价指标上要优于
36、大部分算法,由于MSBDN-DFF算法是将RESIDE数据集整体数据进行了训练,并在SOTS数据集上进行了调优测试,表 1 SOTS 数据集的评价结果 Table 1 Evaluation results of SOTS dataset Method PSNR(dB)SSIM RMSE Ours 28.130 0.958 7.706 GCANet 23.049 0.927 8.831 FFA-Net 21.976 0.913 9.056 MSBDN-DFF 32.631 0.976 5.615 gUNet 25.412 0.934 8.326 DehazeNet 22.376 0.877 9.
37、574 PSD 26.742 0.947 7.923 934 图像处理与计算机视觉 2023 年 (a)(b)(c)(d)(e)(f)(g)(h)(i)图 7 SOTS 数据集部分实验结果(a)清晰图;(b)雾霾图;(c)Ours;(d)GCANet;(e)FFA-Net;(f)MSBDN-DFF;(g)gUNet;(h)DehazeNet;(i)PSD)Fig.7 Evaluation results of SOTS dataset(a)Clear diagram;(b)Foggy diagram;(c)Ours;(d)GCANet;(e)FFA-Net;(f)MSBDN-DFF;(g)gU
38、Net;(h)DehazeNet;(i)PSD)(a)(b)(c)(d)(e)(f)(g)(h)图 8 OTS 数据集部分实验结果(a)雾霾图;(b)Ours;(c)GCANet;(d)FFA-Net;(e)MSBDN-DFF;(f)gUNet;(g)DehazeNet;(h)PSD)Fig.8 Evaluation results of OTS dataset(a)Foggy diagram;(b)Ours;(c)GCANet;(d)FFA-Net;(e)MSBDN-DFF;(f)gUNet;(g)DehazeNet;(h)PSD)而本文算法只选择了部分RESIDE数据集中的图像作为训练集的
39、组成,因此MSBDN-DFF算法取得了较高的效果,但是在后续的真实雾霾图像测试上其取得的效果并不理想。GCANet算法虽然能够在一定程度上去除图像上的雾霾影响,但是对于天空区域加大的图像仍然存在着色差,并不能均匀的去除图像上的所有雾霾,处理后的部分图像仍然有雾霾存在。DehazeNet能够有效地均匀去除图像上的雾霾,但是部分处理后的图像仍然存在着一定的色彩偏差。gUNet与PSD方法虽然较好地减轻了雾霾对图像的影响,但是还原后的图像相较于原图像在色彩上出现了过饱和的现象,致使图像失真。3.3 在真实雾霾图像数据集上的实验结果 由于很难在自然界中拍摄到同一组真实的有雾和无雾图像,在对真实雾霾图像
40、进行去雾时,第 5 期 徐祯东,等:基于 YUV 颜色空间 GAN 网络的图像去雾算法研究 935 去雾效果无法进行度量,因此目前部分基于深度学习的去雾算法在真实雾霾图像上表现的并不理想。本文从天气图像分类数据集30-31中收集整理出了1 000张真实的雾霾图像,并采用上述几种算法对这些样本的真实去雾效果进行验证。效果如图9所示,选择了几张具有代表性的图片进行效果展示,其中前2行为薄雾图像,后3行为浓雾图像,可以明显地看出本文算法在处理真实雾霾图像去雾时,在色彩还原方面要优于DehazeNet,在亮度处理方面效果好于GCANet与FFA-Net,在真实性还原方面优于gUNet与PSD,综合去雾
41、效果都优于其他常用去雾算法。(a)(b)(c)(d)(e)(f)(g)(h)图 9 真实数据集部分实验结果(a)雾霾图;(b)Ours;(c)GCANet;(d)FFA-Net;(e)MSBDN-DFF;(f)gUNet;(g)DehazeNet;(h)PSD)Fig.9 Partial experimental results of real datasets(a)Foggy diagram;(b)Ours;(c)GCANet;(d)FFA-Net;(e)MSBDN-DFF;(f)gUNet;(g)DehazeNet;(h)PSD)4 结论 本文针对现有的各类去雾算法只能处理薄雾图像的情况,
42、提出了一种基于YUV颜色空间的单幅图像去雾算法,通过将雾霾图像转换至YUV颜色空间,在Y通道上调整雾霾对图像的影响,在UV通道上对图像的色彩进行重上色,以正向的角度对雾霾图像进行重绘。经过实验验证,本文方法在面对真实的浓雾和薄雾图像时均表现了优秀且稳定的去雾效果。后续研究可以考虑结合深度可分离卷积对模型进行轻量化处理,提高模型的去雾效率。参考文献(References)1 陈清江,张雪.基于并联卷积神经网络的图像去雾J.自动化学报,2021,47(7):1739-1748.CHEN Q J,ZHANG X.Single image dehazing based on multiple conv
43、olutional neural networksJ.Acta Automatica Sinica,2021,47(7):1739-1748(in Chinese).2 杨爱萍,刘瑾,邢金娜,等.基于内容特征和风格特征融合的单幅图像去雾网络J.自动化学报,2023,49(4):769-777.YANG A P,LIU J,XING J N,et al.Content feature and style feature fusion network for single image dehazingJ.Acta Automatica Sinica,2023,49(4):769-777(in Ch
44、inese).3 王道累,张天宇.图像去雾算法的综述及分析J.图学学报,2020,41(6):861-870.WANG D L,ZHANG T Y.Review and analysis of image defogging algorithmJ.Journal of Graphics,2020,41(6):861-870(in Chinese).4 ZHU Q S,MAI J M,SHAO L.A fast single image haze removal algorithm using color attenuation priorJ.IEEE Transactions on Image
45、 Processing:a Publication of the IEEE Signal Processing Society,2015,24(11):3522-3533.5 KIM J H,JANG W D,SIM J Y,et al.Optimized contrast enhancement for real-time image and video dehazingJ.Journal of Visual Communication and Image Representation,2013,24(3):410-425.936 图像处理与计算机视觉 2023 年 6 HE K M,SUN
46、 J,TANG X O.Single image haze removal using dark channel priorJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341-2353.7 LI B Y,PENG X L,WANG Z Y,et al.An all-in-one network for dehazing and beyondEB/OL.2023-03-09.https:/arxiv.org/abs/1707.06543 8 CAI B L,XU X M,JIA K,e
47、t al.DehazeNet:an end-to-end system for single image haze removalJ.IEEE Transactions on Image Processing:a Publication of the IEEE Signal Processing Society,2016,25(11):5187-5198.9 ZHU H Y,PENG X,CHANDRASEKHAR V,et al.DehazeGAN:when image dehazing meets differential programmingC/The 27th Internation
48、al Joint Conference on Artificial Intelligence.New York:ACM,2018:1234-1240.10 YANG X T,XU Z,LUO J B.Towards perceptual image dehazing by physics-based disentanglement and adversarial trainingJ.Proceedings of the AAAI Conference on Artificial Intelligence,2018,32(1):7485-7492.11 ENGIN D,GENC A,EKENEL
49、 H K.Cycle-dehaze:enhanced CycleGAN for single image dehazingC/2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.New York:IEEE Press,2018:938-946.12 赵建堂.基于深度学习的单幅图像去雾算法J.激光与光电子学进展,2019,56(11):146-153.ZHAO J T.Single-image defogging algorithm based on deep learningJ.Laser&
50、Optoelectronics Progress,2019,56(11):146-153(in Chinese).13 SHAO Y J,LI L,REN W Q,et al.Domain adaptation for image dehazingC/2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2020:2805-2814.14 SHIMOBABA T,NAGAHAMA Y,KAKUE T,et al.Calculation reduction method fo