收藏 分销(赏)

基于预检机制的偏振图像去烟研究_阎庆.pdf

上传人:自信****多点 文档编号:368560 上传时间:2023-09-06 格式:PDF 页数:11 大小:1.46MB
下载 相关 举报
基于预检机制的偏振图像去烟研究_阎庆.pdf_第1页
第1页 / 共11页
基于预检机制的偏振图像去烟研究_阎庆.pdf_第2页
第2页 / 共11页
基于预检机制的偏振图像去烟研究_阎庆.pdf_第3页
第3页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 18 卷 第 2 期2023 年 3 月大 气 与 环 境 光 学 学 报JOURNAL OF ATMOSPHERIC AND ENVIRONMENTAL OPTICSVol.18 No.2Mar.2023基于预检机制的偏振图像去烟研究基于预检机制的偏振图像去烟研究阎 庆 1,叶孟孟 1,2*,张晶晶 1,2,3,刘 晓 3,年福东 1,4,李 腾 1,2(1 计算智能与信号处理教育部重点实验室(安徽大学),安徽 合肥 230601;2 偏振光成像探测技术安徽省重点实验室,安徽 合肥 230031;3 中国科学院通用光学定标与表征技术重点实验室,安徽 合肥 230031;4 合肥学院先进制

2、造工程学院,安徽 合肥 230031)摘要:烟的存在会导致图像目标信息的损减或丢失。针对烟在场景中具有局域性,提出了基于目标检测Yolov3算法的去烟预检机制,即在去烟流程中增加预检机制实现对烟图定向去烟,提升去烟效率和避免对无烟区的影响。不同于现有针对可见光图像的基于深度学习去雾方法,该方法将四幅偏振态图像作为网络输入,并利用多尺度注意力对抗网络提取烟区目标的偏振态特征信息,从而缓解失真现象以及丰富去烟后目标的结构和细节信息。在真实数据集上的定性与定量实验结果表明,本文提出的算法有效提升了偏振图像的去烟效果和去烟效率。关 键 词:图像除烟;卷积网络;偏振态图像;多尺度;注意力机制;对抗网络中

3、 图 分 类 号:TP391.4;O436.3 文 献 标 识 码:A 文章编号:1673-6141(2023)02-108-011Polarization image smoke removal based on precheck mechanismYAN Qing 1,YE Mengmeng 1,2*,ZHANG Jingjing 1,2,3,LIU Xiao 3,NIAN Fudong 1,4,LI Teng 1,2(1 Key Laboratory of Computational Intelligence and Signal Processing(Anhui University)

4、,Ministry of Education,Hefei,Anhui 230601,China;2 Anhui Key Laboratory of Polarized Light Imaging Detection Technology,Hefei 230031,China;3 Key Laboratory of Optical Calibration and Characterization,Chinese Academy of Sciences,Hefei 230031,China;4 School of Advanced Manufacturing Engineering,Hefei U

5、niversity,Hefei 230031,China)AbstracAbstract t:The presence of smoke can cause the damage or loss of image target information.In view of the local nature of smoke in the scene,a smoke removal precheck mechanism based on the target detection Yolov3 algorithm is proposed in this work,that is,a prechec

6、k mechanism is added in the smoke removal process to realize the directional removal of smoke on the smoke image,improve the efficiency of smoke removal and avoid the impact of smoke on the non-smoking area.Different from the existing deep learning-based defogging methods for visible images,this met

7、hod takes four polarization images as network input,DOI:10.3969/j.issn.1673-6141.2023.02.003基金项目:中国科学院通用光学定标与表征技术重点实验室开放研究基金,偏振光成像探测技术安徽省重点实验室开放基金,国家自然科学基金青年科学基金(61902104),安徽省自然科学基金(2008085QF295),安徽高校自然科学研究项目(KJ2020A0651)作者简介:阎 庆(1978-),女,安徽合肥人,博士,副教授,硕士生导师,主要研究方向为模式识别、图像处理和深度学习。E-mail:rubby_收稿日期:20

8、21-06-25;修改日期:2021-09-09*通信作者。第 2 期阎 庆,等:基于预检机制的偏振图像去烟研究and uses multi-scale attention adversarial network to extract the polarization information of the target in the smoke area,so as to alleviate distortion and enrich the structure and detail information of the target after smoke removal.Qualitati

9、ve and quantitative experimental results on real data sets show that the proposed algorithm can effectively improve the smoke removal effectiveness and efficiency of polarized images.K Keyey wordswords:image smoke removal;convolutional network;polarization image;multi-scale;attention mechanism;adver

10、sarial network0 引 言大气中悬浮粒子的存在,导致图像对比度下降、视觉效果变差以及目标特征信息丢失等一系列问题。随着计算机视觉在军事、交通监控等领域的发展及应用,图像去雾已成为计算机视觉领域的重要研究方向。研究人员为此提出了一系列算法,经典算法包括He等1提出的暗通道先验、Jiang等2提出的自适应双通道先验等去雾算法,但在实际应用中,这些基于先验的方法鲁棒性较差,具有一定局限性。基于偏振特性的去雾算法中,赵录建等3提出基于最大最小光强的偏振去雾算法,首先获取最大和最小光强下的正交偏振图像,并利用偏振滤波和亮通道先验方法分别估算大气光偏振度和无穷远处大气光强值,最终重构出无雾图像

11、。高隽等4提出利用偏振信息进行全局最优重构去雾算法,该算法考虑图像中不同位置大气杂散光参数的不一致性,对图像每一区域的重构参数分别运算,从而获得全局最优的重构参数图像。以上算法估计参数过程繁琐,容易产生累计误差。基于深度学习的方法主要是利用神经网络数据分布的学习能力。最新的深度学习去雾方法中,Chen等5采用端到端门控上下文聚合网络(GCANet)来直接恢复最终的无雾图像,Qin等6设计出特征融合注意网络(FFANet),利用一种新颖的特征注意模块将通道注意与像素注意机制结合在一起,不平等地对待不同的通道和像素,从而扩展了卷积网络的拟合能力,在去雾指标上提升到了新的高度。但GCANet和FFA

12、Net仅采用L1或L2范数损失函数,易产生过拟合现象,且面对浓雾场景情况下,去雾结果图中目标结构以及细节信息恢复效果较差。目前图像去雾算法对于烟和雾并不区分,传统及深度学习算法都是利用雾图数据集开展实验和研究,细分到图像去烟的研究可参考文献很少。通常烟图主要区别于雾图的地方在于:烟在场景中具有局域性且烟局域性浓度较高,由于光线散射作用,烟的存在导致普通可见光成像设备采集图像存在目标信息严重丢失问题,这给图像去烟带来更大挑战性,套用去雾算法效果并不理想。综上所述,针对烟在场景中局域性存在,在去烟预处理步骤中增加预检机制,以提高去烟效率并避免对图像无烟区的影响。针对普通可见光烟图目标信息损减严重导

13、致去烟效果差问题,采集可见光偏振态7烟图数据集用于探索去烟效果,并据此提出多尺度注意力对抗网络。该网络模型的主要构件包括:多尺度结构8、注意力机制9和对抗网络10,能够有效地提取图像目标偏振态特征信息以提升去烟效果。最后,在弹坑烟图数据集上的实验证明了该方法的优越性。1 研究方法1.1 预检机制在弹坑烟图数据集中,烟局部存在于弹坑烟源周围,图像所有像素数据作为去烟网络输入时,图像无烟109大 气 与 环 境 光 学 学 报18 卷区域会占用计算资源从而降低去烟效率。另一方面烟区像素信息特征常常出现与其他区域(如:阳光照射区、白色墙面等一些高像素值区)相似的情形,去烟网络提取图像语义特征时易出现

14、过拟合现象,导致测试集中去烟图像无烟区特征失真现象。为提升去烟效率以及减少对无烟区影响,在去烟前增加基于目标检测网络Yolov311的预检机制。目标检测是计算机视觉领域的基本任务之一,目标检测网络Yolov3在版本Yolov112和Yolov213基础上进行改进,有着检测快速和预测精度相对较高的优势。Yolov3系列算法是one-stage检测算法:首先将输入图片分成S S个网格,待烟区中心落入某个网格时,由该网格负责预测出B个边界框。每个边框输出的向量大小为1+5,其中1代表仅有烟这一类待检测物体,5表示类似C=(xywhS)的五元组,(xy)表示烟区中心的横纵坐标,(w,h)表示烟区的宽高

15、,S表示预测框的置信度得分,其计算公式为S=PoPcIou,(1)式中Po表示预测框是否存在烟雾,Pc表示预测框中物体属于烟的得分概率,Iou代表预测框与真实框的交并比。在获得每个预测框的置信度得分后设置阈值,采用非极大性抑制算法(NMS)过滤,置信度得分小于或等于阈值的置 0,得分大于阈值的预测框设置为检测框。1.2 整体结构去烟整体流程图如图1所示。使用可见光偏振相机采集偏振角为0o、45o、90o和 135o的线偏振光强图像,分别用I(0o)、I(45o)、I(90o)和I(135o)表示。光的偏振信息由斯托克斯(Stokes)矢量7(I,Q,U)和偏振度P表示,计算公式为 I=I(0o

16、)+I(90o)Q=I(0o)-I(90o)U=I(45o)-I(135o)P=Q2+U2I,(2)式中I 表示光的总强度,Q表示0o与90o线偏振光分量之差,U表示45o与135o线偏振光分量之差,P表示光的偏振度。Yolov3检测网络的数据输入为普通可见光图像,因此把光学性质类似于普通可见光图像的I 图像作为Yolov3输入,得到烟区的定位二维坐标。根据坐标得到四幅I、Q、U、P偏振态图像的烟区,以四通道形式作为去烟网络输入,丰富去烟图像目标的结构细节特征信息,以提升去烟效果。图像融合采用简单的图像拼接方法:把局部去烟图根据二维坐标替换I 图像的烟区,达到最终的局部去烟目的。1.3 去烟网

17、络1.3.1去烟网络模型多尺度注意力对抗去烟网络的结构如图2所示。生成器部分采用端到端的方式:三层卷积作为浅层特征提取部分。采用9个残差块的残差模块(Res18)作为编码器,以增加网络的深度与表现力,每个残差块包含两个标准卷积层(C+B+R)。选用三组相同的Res18模块为多尺度结构的每个尺度建立一个专属的通道,让每个尺度更加有效地提取偏振态图像高频和低频信息。接下来是多尺度结构与注意力模块的结合,为多尺度输出选择权重聚集更多的烟区目标偏振特征信息。同样使用三个卷积层将特征图转换到图像空间恢复最终的去烟图。特别增加了一个判别器部分,利用对抗损失进一步丰富图像的结构和细节信息。110第 2 期阎

18、 庆,等:基于预检机制的偏振图像去烟研究1.3.2多尺度注意力模块在数字图像领域,高频信号一般包含丰富的细节信息,而低频信号一般包含整体的结构信息。卷积层的输出特征图可被看作是混合了不同频域的信息,低分辨率特征图能够更加关注低频信号,减少空间冗余,高分辨率特征图更加关注高频信号,丰富空间细节信息,因此在深度学习图像处理领域多尺度模型架构被广泛采用1417。在去烟网络输入中,Q、U偏振态图像更加侧重低频分量,I、P通道偏振态图像更加侧重高频分量。为了有效融合偏振态图像目标的结构信息和细节信息,将多尺度结构与GCANet的门控融合子网注意力机制相结合,生成可训练的权重图用于融合不同尺度的特征图,如

19、图2中虚框所示。使用卷积层代替池化层进图 1 局部去烟流程图Fig.1 Flow chart of local smoke removal图 2 多尺度注意力对抗网络Fig.2 Multi-scale attentional adversarial network111大 气 与 环 境 光 学 学 报18 卷行降维,三组分别降维到输入尺度的1/4、1/2、1/1,再上采样到输入尺度大小,加入残差结构以预防模型退化。对三组多尺度输出的特征图Fl、Fm、Fh在通道方向合并(Concatenate),把合并后的整体输入到卷积(Conv)加激活函数(Sigmoid)层,形状从C H W变为3 H W

20、,生成三通道权重图Ml、Mm、Mh,将多尺度输出Fl、Fm、Fh结合权重图线性回归,计算公式为|MlMmMh|=convconcat(Fl Fm Fh),(3)Fz=FlMl+FmMm+FhMh,(4)式中表示Sigmoid激活函数。多尺度角度有效融合I、Q、U、P偏振态图像的结构信息和细节信息,同时考虑了实际情况中烟在图像像素上分布不均匀,权重图能够从像素注意力角度使网络更加关注烟区的背景目标偏振特征信息。1.3.3辩别器辨别器(Discriminator)结构如图2所示。对抗网络在去雾领域应用广泛1820,主要基于生成器和辨别器之间梯度交互更新实现相互博弈,学习有雾和无雾图像之间的映射关系

21、。由于对训练数据集中的烟图和与之匹配的无烟图使用了不固定大小的随机剪裁方法(具体参考2.1节训练方法),因此在判别器中加入全局池化层(Global pooling)以适应不同尺寸的图像输入。对抗损失目标函数的表达式为V(GD)=ExylgD(xIQUPyIQUP)+Exlg1-DG(xIQUP),(5)式中D表示判别器,G表示生成器(去烟网络),xIQUP代表生成器网络输入的四通道偏振态烟图,yIQUP代表与xIQUP对应的真实无烟图的偏振态图像。在训练时,产生器试图最小化目标V(GD),而鉴别器试图最大化目标V(GD)。为有效学习浓烟场景下目标的偏振态特征信息,令生成器网络也输出四通道I、Q

22、、U、P图像,同时计算对应的真实场景的I、Q、U、P图像,给出目标的参考偏振态特征信息,通过对抗损失对生成器网络参数调优,使生成器输出图像接近无烟参考图像的数据分布,以丰富去烟结果图目标的结构和细节信息。1.3.4损失函数多尺度注意力对抗网络参数总的损失函数Lall为Lall=mLm+gLg,(6)式中是经验性取值,Lm代表均方差损失,Lg表示针对生成器优化部分的对抗损失。对含有多个损失函数采用经验性权重配比各个损失函数(可参考文献 15,20)。经过实验测试,取m为1、g为0.1效果最好。均方误差是普通可见光图像去雾使用较广泛的损失函数,利用它来最小化目标I 图像与参考I 图像的误差,Lm的

23、计算公式为Lm=yI-G(xI)2,(7)式中yI表示真实场景I 图像,G为去烟网络,xI为输入的烟图I 图像。Lg的计算公式为Lgan=-lgDG(xIQUP).(8)112第 2 期阎 庆,等:基于预检机制的偏振图像去烟研究2 实验2.1 训练方法检测网络和去烟网络采用两阶段训练方式。Yolov3烟区检测训练:采用官网预训练权重Yolov3.weights对网络参数初始化,不必从头开始训练,通过微调网络模型适应单类别检测,得到预训练模型。由于预训练模型具有良好的泛化性能,在使用弹坑烟图数据集进行训练时直接使用类似的结构和权值,可缩短训练时长以及提高目标检测的准确性。设置批量大小(Bitch

24、 size)为 8,50个批次(Epoch)的训练,对烟区检测置信度S阈值设置为 0.6,当S 0.6时正确检测出弹坑烟区。去烟网络训练:需要适应经由检测网络得到的不同尺寸局部烟图,因此在训练集上采用随机剪裁进行预处理。基于对数据集的观察,图像弹坑烟区不小于128 128,因此设定随机剪裁的长宽最小值为128,而长宽最大值为原图像尺寸512。不固定剪裁尺寸的方法不仅提高了去烟网络对于不同尺寸输入的适应能力,同时可以提高模型的泛化性能。使用Adam优化器进行了200个Epoch的训练,批处理大小默认设置为4,学习率为0.0001,所有的训练实验在 GTX 1080Ti GPU上使用PyTorch

25、模型完成。测试处理图片平均运行时间是在Intel(R)Xeon(R)Silver 4114 CPU2.20GHz上完成。2.2 数据集选取多个场景并在每个场景中创建模拟弹坑产生烟,使用可见光偏振相机采集每个场景的烟从产生到消失的图像,采用烟消失后的真实无烟图的参量I、Q、U、P图像和烟图的参量I、Q、U、P图像配对,作为参考图像。每个场景中的烟从产生到消失一般在几分钟内完成,配对图像因外界因素(如光照)带来的误差可忽略不计。数据集共有1200对图像,1000对作为训练集,200对作为测试集,图像大小皆为512 512。I、Q、U、P图像如图3所示。2.3 评价指标采用峰值信噪比(PSNR,RP

26、SN)与结构相似性(SSIM,MSSI)作为评判去烟效果标准,两者为全参考的图像质量评价指标。峰值信噪比可通过均方误差(MSE,EMS)计算得到,它用于衡量目标图像(去烟图像)X相对于参考图像(真实无烟图像)Y的噪声比例,其值越大表示目标图像质量越高,图像目标信息得到更好地保留。其中EMS的计算公式为EMS=1HWi=1Hj=1WX(ij)-Y(ij)2,(9)图 3 偏振态图像。(a)Stokes I 图像;(b)Stokes Q图像;(c)Stokes U图像;(d)偏振度P图像Fig.3 Polarization image.(a)Stokes I image;(b)Stokes Q i

27、mage;(c)Stokes U image;(d)image of polarization degree P113大 气 与 环 境 光 学 学 报18 卷式中H和W表示图像的高度和宽度,i和j表示像素的横纵坐标。通过对数计算可得到峰值信噪比,计算公式为RPSN=10 lg(2n-1)2EMS.(10)MSSI用于衡量目标图像与参考图像之间的结构信息相似性,取值范围为01,MSSI值越大,表示去烟结果与真实无烟图像结构越相似。MSSI的计算公式为MSSI(XY)=L(XY)C(XY)S(XY),(11)式中L、C和S分别表示亮度、对比度与结构,详细计算方式参见文献 21。2.4 实验结果2

28、.4.1弹坑烟区检测结果去烟效果很大程度上取决于检测网络对于弹坑烟区的检测效果,采用平均精确度(mAP)和准确率(Precision)作为评价指标,并在测试集上测试图像处理平均速率,结果如表1所示,可以看到检测准确度较高且检测速率较快。2.4.2全局定量对比首先在无预检机制情况下,采用去雾网络GCANet、FFANet进行全局去烟,与提出的去烟网络进行全局去烟对比实验,所有网络都是把I、Q、U、P图像作为输入。其次进行基于Yolov3预检机制的局部去烟策略(图1所示流程)。图像全局定量比较结果如表2所示。定量指标结果显示:I、Q、U、P偏振态图像作为网络输入时,本文提出的去烟网络能更加有效地提

29、取目标的偏振态特征信息,从而达到去烟效果提升目的。增加基于Yolov3的预检机制后,由于检测区域外的像素未受到影响,PSNR与SSIM均有提升,同时在图像平均处理速率上有较大提高。表2 全局PSNR和SSIM定量比较结果Table 2 Quantitative comparison of global PSNR and SSIMMethodGCANetFFANetOursYolov3+GCANetYolov3+FFANetYolov3+OursPSNR26.6926.9128.5127.1327.4229.22SSIM0.7920.8040.8660.8320.8750.915Time/s0.

30、7412.5401.6940.3520.9720.7192.4.3局部定量对比采用基于预检机制的局部去烟策略后,由于无烟区像素保持不变,全局测试图像PSNR与SSIM指标对表1 弹坑烟区定位指标Table 1 Location index of crater smoke areaMethodYolov3mAP85.09Precision/%93.5Time/s0.112114第 2 期阎 庆,等:基于预检机制的偏振图像去烟研究评价网络性能误差较大,因此测试了局部定量结果。由Yolov3检测网络得到烟区定位坐标,比较检测区域的局部去烟图与真实场景图对应部位的PSNR与SSIM,结果如表3所示。由

31、表可知,局部指标表现相对全局(表2)有所降低,但多尺度注意力对抗网络相较GCANet、FFANet网络在局部指标表现上仍是最好的。2.4.4消融分析采用PSNR作为指标,对数据输入和多尺度注意力对抗网络进行了消融分析。在训练阶段,给出去烟网络输入I 图像与I、Q、U、P图像的PSNR迭代图,如图4所示。输入增加Q、U、P通道图像后,随着迭代次数增加,图像质量评估指标PSNR有可观测的提升,200次迭代完成时PSNR值提升1左右。在测试阶段,定量测试了去烟网络主要组件提取图像偏振态特征信息的有效性,并逐步向去烟网络增加组件:1)是否有多尺度注意力结构(Multi-scale attention)

32、;2)是否有对抗网络(Gan)模块。特别地增加了一个网络仅输入I 图像的对比实验,如表4所示。由表可知,该网络与以I、Q、U、P偏振态图像作为输入相结合可以获得更大收益。BaseNet表示基础网络,+表示增加组件。2.4.5定性对比在无预检机制情况下,对多尺度注意力对抗网络输入I 图像与输入I、Q、U、P图像的去烟效果进行定性比较,结果如图5所示。去烟图与参考图像对比:网络输入I 图像后,去烟图烟区的弹坑结构失真现象明显,表3 局部PSNR和SSIM定量比较结果Table 3 Quantitative comparison of local PSNR and SSIMMethodYolov3+

33、GCANetYolov3+FFANetYolov3+OursPSNR24.9626.4227.78SSIM0.7330.8190.848图 4 多尺度注意力对抗网络输入单通道I 图像与四通道I、Q、U、P图像的PSNR迭代图Fig.4 PSNR iterative graph of multi-scale attentional adversarial network with single-channel I image input and four-channel I,Q,U,P image input115大 气 与 环 境 光 学 学 报18 卷弹坑特征信息丢失严重。输入I、Q、U、P

34、图像后,去烟图弹坑特征信息恢复较为完善,失真现象明显改善。同时可观察到去烟图像无烟区的像素特征信息受到失真影响。采用基于预检机制的局部去烟策略能够检测出烟区,如图6所示。仅对检测到的烟区进行去烟,检测区域外的场景像素值保持不变,避免对无烟区的影响。同时对GCANet、FFANet和本文提出的多尺度注意力对抗网络的去烟效果作比较,各网络输入都是I、Q、U、P四通道偏振图像。检测框内烟区的参考图像以及各去烟网络输出的去烟目标图(图7)。视觉效果表明:对于检测框内的恢复效果,本文提出的去烟网络去烟结果基本满足视觉需求,烟区弹坑的结构和细节信息恢复得更加丰富,如图 7(d)所示。表4 消融分析Tabl

35、e 4 Ablative analysisMethodBaseNetBaseNet+Multi-scale attentionBaseNet+Multi-scale attention+GanPSNR-I24.4826.2927.27PSNR-IQUP24.8327.3228.51图 5 去烟效果对比。(a)输入图像;(b)真实图像;(c)输入I 图像去烟效果;(d)输入I、Q、U、P图像去烟效果Fig.5 Comparison of smoke removal effect.(a)Input image;(b)true image;(c)input I image de-smoking ef

36、fect;(d)input I,Q,U,P image de-smoking effect图 6 Yolov3烟雾检测结果Fig.6 Smoke detection results of Yolov3116第 2 期阎 庆,等:基于预检机制的偏振图像去烟研究3 结论提出了基于目标检测Yolov3算法的去烟预检机制,实现对模拟弹坑烟图局部去烟策略,避免图像全局去烟情况下对图像无烟区带来的失真影响,且有效地提高了去烟效率。把四通道偏振态图像作为去烟网络输入以提供目标的偏振态特征信息,据此设计出多尺度注意力对抗去烟网络,该网络借助多尺度注意力结构和对抗结构在提取图像目标偏振态特征信息上展示了一定优势

37、。经过定量和定性对比,去烟效果相较去雾网络GCANet和FFANet表现更佳。在随后的工作中,将尝试其他优秀的目标检测算法和改进多尺度注意力对抗网络,以期进一步提高去烟效率和效果。参考文献参考文献:1He K M,Sun J,Tang X O.Single image haze removal using dark channel prior J.IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341-2353.2Jiang Y T,Sun C M,Zhao Y,et al.Image de

38、hazing using adaptive bi-channel priors on superpixels J.Computer Vision and Image Understanding,2017,165:17-32.3Zhao L J,Gao J,Bi R,et al.Polarization defogging method based on maximum and minimum intensity images J.Journal of Applied Optics,2017,38(3):415-420.赵录建,高 隽,毕 冉,等.基于最大和最小光强图像的偏振去雾方法 J.应用光

39、学,2017,38(3):415-420.4Gao J,Bi R,Zhao L J,et al.Global optimized hazed image reconstruction based on polarization information J.Optics and Precision Engineering,2017,25(8):2212-2220.高 隽,毕 冉,赵录建,等.利用偏振信息的雾天图像全局最优重构 J.光学精密工程,2017,25(8):2212-2220.5Chen D D,He M M,Fan Q N,et al.Gated context aggregation

40、 network for image dehazing and deraining C.2019 IEEE Winter Conference on Applications of Computer Vision(WACV).January 7-11,2019,Waikoloa,HI,USA.IEEE,2019:1375-1383.6Qin X,Wang Z L,Bai Y C,et al.FFA-net:Feature fusion attention network for single image dehazing J.Proceedings of the AAAI Conference

41、 on Artificial Intelligence,2020,34(7):11908-11915.图 7 基于预检机制的不同去烟网络去烟效果。(a)真实图像;(b)GCANet去烟效果;(c)FFANet去烟效果;(d)多尺度注意力对抗网络去烟效果Fig.7 Smoke removal effect of different smoke removal networks based on precheck mechanism.(a)True image;(b)smoke removal effect of GCANet;(c)smoke removal effect of FFANet;(

42、d)smoke removal effect of multi-scale attention adversarial network117大 气 与 环 境 光 学 学 报18 卷7Liao Y B.Polarized Light Science M.Beijing:Science Press,2003:59-62.廖延彪.偏振光学 M.北京:科学出版社,2003:59-62.8Chen Y P,Fan H Q,Xu B,et al.Drop an octave:Reducing spatial redundancy in convolutional neural networks with

43、 octave convolution C.2019 IEEE/CVF International Conference on Computer Vision(ICCV).October 27-November 2,2019,Seoul,Korea(South).IEEE,2020:3434-3443.9Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need C.Advances in Neural Information Processing Systems.2017:5998-6008.10 Goodfellow I,Pou

44、get-Abadie J,Mirza M,et al.Generative adversarial networks J.Communications of the ACM,2020,63(11):139-144.11 Redmon J,Farhadi A.YOLOv3:An incremental improvement OL.https:/arxiv.org/abs/1804.02767.12 Redmon J,Divvala S,Girshick R,et al.You only look once:Unified,real-time object detection C.2016 IE

45、EE Conference on Computer Vision and Pattern Recognition(CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:779-788.13 Redmon J,Farhadi A.YOLO9000:Better,faster,stronger C.2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).July 21-26,2017,Honolulu,HI,USA.IEEE,2017:6517-6525.14 Schec

46、hner Y Y,Narasimhan S G,Nayar S K.et al.Polarization-based vision through haze J.Applied Optics,2003,42(3):511-525.15 Zhang H,Patel V M.Densely connected pyramid dehazing network C.2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:319

47、4-3203.16 Yin X,Liu X M.Multi-task convolutional neural network for pose-invariant face recognition J.IEEE Transactions on Image Processing:a Publication of the IEEE Signal Processing Society,2018,27(2):964-975.17 Dong H,Pan J S,Xiang L,et al.Multi-scale boosted dehazing network with dense feature f

48、usion C.2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).June 13-19,2020,Seattle,WA,USA.IEEE,2020:2154-2164.18 Li R D,Pan J S,Li Z C,et al.Single image dehazing via conditional generative adversarial network C.2018 IEEE/CVF Conference on Computer Vision and Pattern Recogniti

49、on.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:8202-8211.19 Pan J S,Dong J X,Liu Y,et al.Physics-based generative adversarial models for image restoration and beyond J.IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(7):2449-2462.20 Engin D,Genc A,Ekenel H K.Cycle-dehaze:En

50、hanced CycleGAN for single image dehazing C.2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops(CVPRW).June 18-22,2018,Salt Lake City,UT,USA.IEEE,2018:938-9388.21 Wang Z,Bovik A C,Sheikh H R,et al.Image quality assessment:From error visibility to structural similarity J.IEE

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服