收藏 分销(赏)

基于显著性的双鉴别器GAN图像融合算法.pdf

上传人:自信****多点 文档编号:3008606 上传时间:2024-06-13 格式:PDF 页数:11 大小:21.55MB
下载 相关 举报
基于显著性的双鉴别器GAN图像融合算法.pdf_第1页
第1页 / 共11页
基于显著性的双鉴别器GAN图像融合算法.pdf_第2页
第2页 / 共11页
基于显著性的双鉴别器GAN图像融合算法.pdf_第3页
第3页 / 共11页
亲,该文档总共11页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、文章编号:1002-2082(2024)01-0107-11基于显著性的双鉴别器 GAN 图像融合算法谢一博,刘卫国,周顺,李梦晗(西安工业大学光电工程学院,陕西西安710021)摘摘 要:要:针对红外图像与可见光图像在不同场景的特征表达不同的问题,提出一种基于显著性的双鉴别器生成对抗网络方法,将红外与可见光的特征信息相融合。区别于传统的生成对抗网络,该算法采用双鉴别器方式分别鉴别源图像与融合图像中的显著性区域,以两幅源图像的显著性区域作为鉴别器的输入,使融合图像保留更多的显著特征;并将梯度约束引入其损失函数中,使显著对比度和丰富纹理信息保留在融合图像中。实验结果表明:本文方法在熵值(entr

2、opy,EN)、平均梯度(meangradient,MG)、空间频率(spatialfrequency,SF)及边缘强度(edgeintensity,EI)4 个评价指标中均优于其他对比算法。该研究实现了红外图像与可见光图像高效融合,有望在目标识别等领域中获得应用。关键词:关键词:图像处理;生成对抗网络;图像融合;显著性区域;目标识别中图分类号:TN219;TP391文献标志码:ADOI:10.5768/JAO202445.0102005Saliency-based dual discriminator GAN image fusion algorithmXIEYibo,LIUWeiguo,Z

3、HOUShun,LIMenghan(SchoolofPhotoelectricEngineering,XianTechnologicalUniversity,Xian710021,China)Abstract:Toaddresstheproblemthatinfraredimagesandvisibleimageshavedifferentfeatureexpressionsindifferentscenes,ansaliency-baseddualdiscriminatorgenerativeadversarialnetworkmethodwasproposedtofusetheinfrar

4、edandvisiblefeatureinformation.Differentfromthetraditionalgenerativeadversarialnetwork,adualdiscriminatorapproachwasadoptedtodiscriminatethesaliencyregionsinthesourceimagesandthefusionimagesrespectivelyinthisalgorithm,andthesaliencyregionsofthetwosourceimageswereusedastheinputofthediscriminatorsotha

5、tthefusionimageretainedmoresalientfeatures.Thegradientconstraintwasintroducedintoitslossfunctionsothatthesalientcontrastandrichtextureinformationcouldretaininthefusion image.The experimental results show that the proposed method outperforms other comparisonalgorithmsinfourevaluationindexes:entropy(E

6、N),meangradient(MG),spatialfrequency(SF)andedgeintensity(EI).Thisstudyachievesefficientfusionofinfraredimagesandvisibleimages,whichisexpectedtogainapplicationsinfieldssuchastargetrecognition.Key words:image processing;generative adversarial networks;image fusion;salient regions;targetrecognition引言随着

7、现代科技的快速发展,传感器技术不断进步与完善,应用不断复杂化。为了更好地满足不同领域的需求,各种类型的传感器不断涌现并应用于不同的环境和场景,以获取更为全面且准确的信息。红外传感器得到的红外图像通过区分物收稿日期:2023-04-03;修回日期:2023-07-06基金项目:陕西省教育厅科研计划重点项目(21JY017);陕西省自然科学基础研究计划(2022JQ-676);中国博士后科学基金(2022M712493)作者简介:谢一博(1997),男,博士研究生,主要从事光电子技术及图像处理研究。E-mail:通信作者:刘卫国(1964),男,博士,教授,主要从事光电子技术及电子材料研究。E-m

8、ail:第45卷第1期应用光学Vol.45No.12024年1月JournalofAppliedOpticsJan.2024体之间的辐射差异来进行目标和背景的区分,在夜间环境下能有较好的工作效果;而可见光传感器获取的可见光图像则可以提供清晰度的纹理细节信息和高分辨率。单一类型的传感器所采集到的信息可能很难对某一问题做出准确的判断。因此将红外图像和可见光图像进行融合处理,可以构造出包含热辐射源和多光谱信息的图像,既解决单一红外传感器背景模糊、细节缺失的问题,又克服了可见光传感器对环境条件的依赖性。由于红外和可见光图像的融合可以大大提高图像信息的解读能力,其已成为图像融合领域的重要组成部分。该融合

9、技术最早应用于军事领域,在 1999年,国外研发出第一个红外与可见光图像融合的夜视系统,用于在夜晚探测隐藏目标1。随后,各国相继研制出其他彩色图像融合系统、多功能望远镜、夜视镜等设备。随着红外与可见光融合技术的进步,当前该技术在夜间辅助驾驶、社区安防监控、目标检测等实际应用中具有实际价值2。典型的传统融合方法包括基于多尺度变换方法3、基于稀疏表示方法4、基于子空间方法5、基于显著性方法6、基于总变异方法7等。然而,这些方法的局限性十分明显,传统方法没有考虑不同传感器图像的特征差异,而是采用相同的变换对不同的源图像提取特征,导致提取的特征表达性较差,因此基于深度学习的图像融合方法应运而生并成为学

10、者们研究的热点8。在红外与可见光图像融合方面,基于深度学习的融合方法主要分为三大类:基于自编码器的图像融合9、基于卷积神经网络的图像融合10以及基于生成对抗网络(generativeadversarialnetworks,GAN)的图像融合11。2015 年,HUANGW 等12通过构建堆栈自编码网络保留了全色图像的细节特征和多光谱图像的光谱特性。后来,LIU 等提出了一个基于卷积稀疏表示的融合框架,该方法有效利用图像的稀疏性特征,便于表征融合图像。随着研究的深入,Li 等1基于 VGG-19 构建深度学习框架对图像分解后的细节部分进行特征提取与融合。目前红外与可见光图像融合中最常用的方法为基

11、于 GAN 网络的方法。2019 年,MAJY 首次将 GAN 网络应用于图像融合,提出了基于 GAN网络的无监督融合模型(FusionGAN)13,但存在细节丢失和目标边缘模糊的问题。2020 年,MAJY团队又提出了一种基于双鉴别器生成对抗网络的红外与可见光图像融合方法(DDcGAN)14,该算法将红外与可见光源图像分别输入两个鉴别器,生成器与鉴别器对抗博弈能更好地保留红外和可见光图像的信息,使得到的融合图像具有更好的纹理细节和目标热辐射信息,但双鉴别器会忽略掉高层语义信息。2021 年 HOUJL 等人15提出了基于语义分割的红外与可见光图像融合方法(SSGAN),该网络既考虑了红外和可

12、见光图像的底层特征,又考虑了红外和可见光图像的高层语义信息。由于基于 GAN 的红外与可见光图像融合方法在对抗训练过程中会丢失部分细节信息,因此,本文对 GAN 的网络结构以及损失函数进行优化,提出了更加适用于红外与可见光图像融合的网络模型。通过以两幅源图像的显著性区域作为鉴别器输入判定融合图像,从而使得融合图像保留原始图像更多显著特征;并借助添加梯度约束这一损失函数,保存显著对比度和丰富纹理,防止高对比度目标区域边缘扩散造成的背景纹理污染。1 生成对抗网络模型2014 年,GOODFELLOWI 等学者提出了由生成模型 G 和鉴别模型 D 组成的生成对抗网络GAN16。该模型是两个网络相互对

13、抗博弈的过程,通过不断地反向传播更新参数,能提高生成器的生成能力和鉴别器的判别准确度,从而在数据中学习并生成新的数据。基于 GAN 的图像融合框架如图 1 所示。PxxPzzDiscriminator(D)ConfrontationalLearningGenerator(G)G(z)图 1 基于生成对抗网络的结构框架图Fig.1 Structural framework diagram based on generativeadversarial networks108应用光学第45卷第1期从数学的角度来看,为了学习生成器在数据x 上的分布 PG,首先对输入噪声变量定义一个先验,然后对数据空间

14、的映射表示为 G(z;g),其中G 是一个可微分的函数,由参数为 g的多层感知器表示。再定义第 2 个多层感知器 D(x;d),输出一个标量,表明数据 x 来自于输入数据而非 PG。通过训练 D,以最大限度地提高为训练实例和样本分配正确标签的概率;同时训练 G,使其最小化log(1D(G(z)16。生成器 G 和鉴别器 D 之间进行一场对抗性训练,此过程表示如下:minGmaxDVGAN(G,D)=ExPdata(x)logD(x)+EzPz(z)log(1D(G(z)(1)基于生成对抗网络的强大生成能力,一种基于 GAN 网络的无监督融合模型(FusionGAN)13被提出。在该模型中,红外

15、与可见光图像在生成器的指导下融合成一幅图像,鉴别器判定融合图像来自真实图像的概率,直到鉴别器无法区分融合图像与真实图像时博弈结束,此时融合规则下得到的融合图像为最佳图像。FusionGAN 网络模型首次运用 GAN 去解决图像融合问题,尽管该网络可以避免手动设计融合策略,通过引入 GAN 并生成具有丰富细节信息的融合图像,但仍然存在细节丢失和目标边缘模糊的问题。为了进一步提高融合图像的质量,该问题在当前亟须解决。2 本文方法2.1 网络总体结构针对单鉴别器无法同时获取两幅源图像信息的问题,本文设计了一个基于显著性的双鉴别器GAN 红外与可见光图像融合方法,模型框架如图 2所示。在内容损失和感知

16、损失的指导下,生成器将生成一张信息丰富且细节完整的融合图像。鉴别器的作用是不断迫使生成器学习,直到能够生成与鉴别器输入相似的图像为止,因此,为了使融合图像保留两幅源图像的显著区域,将构建两幅源图像的视觉显著图(即 IR_SM、VIS_SM)作为两个鉴别器的输入。鉴别器分别鉴别源图像视觉显著图和融合图像,指导生成器生成高质量的包含源图像的细节信息和显著区域的融合图像。生成器与鉴别器进行不断对抗性训练,当鉴别器无法区分融合图像与可见光图像时,判定融合图像中的细节信息分布与可见光图像中的细节信息分布近似,最终获得一幅包含红外图像辐射信息及可见光图像纹理细节的融合图像。IR_SMIRVIS_SMVIS

17、DiscriminatorDrGeneratorGDiscriminatorDvAdversarialAdversarialFusion image图 2 本文算法模型结构框架图Fig.2 Structural framework diagram of proposed algorithm model本文方法的主要核心包括 3 部分:1)显著性视图的构造,通过均值滤波与中值滤波的结果作差来求解两种图像的显著图,并将其作为鉴别器的输入图像;2)网络结构,两个鉴别网络模型与一个生成网络模型的结构;3)损失函数,在生成损失函数中引入梯度约束以保留更多的细节信息,及两个鉴别损失函数的数学表示。2.2

18、视觉显著图的构造视觉显著图(saliencymap,SM)能够反映图像中像素点的显著性程度,具体流程如图 3 所示。首应用光学2024,45(1)谢一博,等:基于显著性的双鉴别器 GAN 图像融合算法109先采用均值滤波处理红外与可见光两幅源图像,再采用中值滤波,并将两者输出结果作差处理,即获得相应的高通图像17-18。SourcemageMean filteringDifferenceHigh-passmageGaussiansmoothingVisualsaliency mapMean filtering图 3 视觉显著性提取流程图Fig.3 Flow chart of visual sa

19、liency extraction红外图像与可见光图像分别由 I1、I2表示,对应的高通图像分别由 H1、H2表示,其过程由式(2)表示:Hn(x,y)=n(x,y)n(x,y),n=1,2(2)式中:(x,y)表示图像像素坐标;1和 2为两幅源图像均值滤波输出;1和 2为两幅源图像的中值滤波输出。之后,对两幅高通图像 H1和 H2进行高斯滤波平滑处理,即获得两幅图像的显著值图像 S1与S2。由式(3)表示:Sn=|Hn|grg,g(3)grg,g式中:*表示图像卷积操作;是高斯滤波器,其窗口大小为(2rg+1)(2rg+1);rg、g分别为滤波半径与标准差。对可见光的灰度图像进行显著性区域提

20、取,结果如图 4 所示。通过该方法提取到图像的显著性区域,其中石头与标牌为图像的主要信息。2.3 网络结构本文算法采用了基于卷积神经网络的生成器和鉴别器两个部分组成整个网络结构。生成器 G 的网络结构如图 5 所示,红外与可见光图像作为生成器的输入,而最终输出为 IR-RGB 融合图像。该生成器由 5 个公共卷积层组成:对于每个卷积层,padding 设置为 SAME,步长设置为 1,特征图的大小将不会改变。为了解决数据初始化的敏感性以及避免消失梯度,所有卷积层中均采用批量标准化(BatchNorm,BN)模块和激活函数。如图 5 中的箭头所示,在前 4 层中应用来自密集连接卷积网络的密集连接

21、层。以前反馈方式在每层和所有层之间建立连接,以实现特征重用,防止在卷积过程中删除一些重要信息,选择的输入和输出通道是 216、1616、3216、4816 和 641。(a)可见光图像(b)提取的显著图像图 4 可见光显著性区域提取结果Fig.4 Extraction results of visible-light salient areaConcat2:1616:1632:1648:1664:155 Conv33 Conv33 Conv33 Conv11 ConvtanhBatchNormLeaky Relu图 5 生成器 G 的网络结构图Fig.5 Network structure d

22、iagram of generator GDrDv本文设计算法的网络中有两个鉴别器和,它们具有相同架构,如图 6 所示。其作用均为分类器,生成一个输入图像来自真实数据而不是 G 的概率。该鉴别器采用 4 个卷积层和 1 个全连接层,步长和 padding 分别设置为 2 和 VALID,因此不需要池化层。该网络的前 4 层卷积核大小为 33,卷积核个数分别为 32、64、128 和 256,因此输入和输出通道分别为132、3264、64128 和128256。110应用光学第45卷第1期ImageScalar1:3233 ConvLeaky Relu16:1664:128128:25633 C

23、onv33 Conv33 ConvBatchNormtanh图 6 鉴别器 D 的网络结构图Fig.6 Network structure diagram of discriminator D2.4 损失函数在对网络进行训练时,需要以预测值和真实值之间的误差为基础对网络进行惩罚,这种惩罚通过损失函数来计算。由于损失函数种类繁多,因此需要根据不同的目标任务选择最适合的损失函数,以达到最佳的训练效果,从而使网络能够成功实现我们所期望的功能。生成对抗网络的损失函数主要包括生成器损失函数和鉴别器损失函数。2.4.1生成器损失函数根据网络中生成器的目的,需要通过训练来欺骗鉴别器,并且要求约束内容中生成图

24、像与源图像之间的相似性。故生成器包含生成器与鉴别器之间的对抗损失 Ladv和生成图像与真实图像之间的内容损失 Lcontent,生成器损失函数定义如下:LG=Ladv+Lcontent(4)式中:为平衡系数;Ladv和 Lcontent定义如式(5)、式(6)。Ladv=1NNn=1(1Dr(Inrf)2+(1Dv(Invf)2(5)Inf式中:表示在总数为 N 的同批次中的第 n 幅融合图像;D()表示鉴别器的输出。Lcontent=Lgrad+Lin(6)图像的梯度信息能够反映边缘比较锐利的清晰度,且图像梯度值较大,则反映相应的图像边缘更加锐化。通过在损失函数中引入梯度约束来增强图像的细节

25、信息。其中,损失 Lgrad表示梯度约束,强制融合的图像 If具有类似于 Ir和 Iv的梯度,具体定义如下:Lgrad=1WH(|IfIr|22+|IfIv|22)(7)式中:H 和 W 代表输入图像的尺寸;为梯度算子;为平衡参数。强度损失 Lin约束融合图像保持与源图像相似的强度分布,以便保留重要的对比度信息,强度损失定义为Lin=|IfIr|2F+(1)|IfIv|2F(8)|F式中:表示矩阵 Frobenius 范数;是控制两项之间权衡的参数。2.4.2鉴别器损失函数鉴别器的作用是通过训练输出一个标量将真实数据与虚假数据区分开来,在提出的图像结构中,使用两个独立的鉴别器(即 Dr、Dv)

26、来约束生成器分别捕获更多的对比度和纹理信息。Dr、Dv旨在分别将融合图像与红外和可见光图像区分,需要同时考虑生成器与鉴别器之间的对抗关系和Dr与 Dv的平衡。鉴别器的对抗性损失能够计算出分布之间的散度,从而识别出强度或纹理信息是否虚假,以尽可能获取真实信息14。将相应的损失函数 LDr和 LDv定义为LDr=1NNn=1(1Drs(Inrs)2+(Drs(Inrsf)2(9)LDv=1NNn=1(1Dvs(Invs)2+(Dvs(Invsf)2(10)2鉴别器则是通过提取可见光与红外图像中的显著性特征来帮助区分融合图像和可见光图像。网络中采用最小平方损失函数,并基于最小化皮尔逊散度的原则,使网

27、络训练过程更加稳定,从而使得鉴别器的损失函数能快速收敛。依据两者图像不同的特性,可见光图像中主要存在丰富的纹理结构信息,而红外图像中主要存在显著的对比度信息。然而,在红外图像中也包含了一些结构信息;同样地,可见光图像也包含一些对比度信息。通过网络连续对抗的方式,本文方法可以生成具有良好视觉效果的融合图像,且以双鉴别器的方式在保留红外和可见光的固有信息方面取得了良好的平衡。3 实验结果与分析本文的实验图像均来自于自主搭建的红外-可见光成像系统,红外相机与可见光相机的分辨率、像元尺寸、帧率分别为12801024 像素和12801024像素、12m 和 4.8m、25frame/s 和 211fra

28、me/s。两相机相对位置固定,通过软件触发控制采集图像。由于两相机之间具有不同的外部及内部参数,故在图像融合之前需对图像进行配准裁剪,最终进行融合实验的图像分辨率均为 800600 像素。为了突出本文算法的优越性,本文选用几种算法进行定性和定量比较,包括:基于强度色调饱和度(intensityhuesaturation,IHS)19、主成分分析(principalcomponentanalysis,PCA)19、拉普拉斯金应用光学2024,45(1)谢一博,等:基于显著性的双鉴别器 GAN 图像融合算法111字塔(Laplacianpyramid,LP)20、离散小波变换(dis-cretew

29、avelettransform,DWT)21、双尺度融合算法(two-scale image fusion,TIF)22、FusionGAN13及GANMcC23、DDcGAN14与 SSGAN15。定量评价依赖于一些现有的统计指标,从不同方面评估融合结果的质量。为了客观地评价各种融合方法的结果,选用信息熵(EN)24、平均梯度(MG)25,空间频率(SF)26和边缘强度(EI)27作为评价指标来验证本文方法的有效性。不同指标所表示的意义不同,EN 表示图像信息丰富度,MG 用于衡量图像的纹理和细节的表征能力,SF 衡量图像在空间中的活跃程度,EI 表示图像的边缘细节信息。本文选用的评价指标均

30、与图像质量的关系呈正比例。3.1 融合结果主观评价不同场景下不同算法进行红外与可见光图像融合的结果如图 7 所示。场景 1(Img1)为道路地面场景,Img1 中红外图像的车位线几乎全黑,在对道路环境不明的情况下很难分辨出其为停车线,容易误判,在可见光图像中井盖与道路“融为一体”,而融合图像较好地还原了道路环境并能分辨出井盖;LP 和 DWT 的融合效果更加偏向可见光图像,其结果有丰富的纹理细节,但目标和背景之间的对比并不明显;IHS、PCA、FusionGAN、GAN-Img 1Img 2Img 3Img 4(a)IR(b)VIS(c)IHS(d)PCA(e)LP(f)DWT112应用光学第

31、45卷第1期McC 及 DDcGAN 的融合效果更加偏向红外图像,具有良好的热辐射信息,但纹理细节不足;SSGAN的细节信息较明显,但其主观视觉效果不符合真实场景;而 TIF 和本文方法更好地融合了红外和可见光的原始特征,相较于 TIF,本文方法的融合图像将道路上的石头路障和人更好地显示出来。场景 2(Img2)的红外图像无法识别到石头目标,采用不同算法将红外图像与可见光图像的信息进行融合以突显目标;IHS、PCA 与 FusionGAN 的目标同样无法识别;LP、DWT 的结果过亮,主观视觉效果不佳;TIF、GANMcC 与 DDcGAN 的结果良好,路牌的文字信息与场景的信息都能够观察;S

32、SGAN方法的融合图像细节信息丰富,但图像中并未蕴含热辐射信息;而本文所提出的算法的融合结果不仅有明显的对比度,而且有丰富的纹理细节。场景 3(Img3)为包含天空背景下的人物与石碑场景,在IHS、PCA、FusionGAN、GANMcC 与DDcGAN的融合图像中,天空背景是更加偏向红外图像的黑色,与主观视觉特征不符合;SSGAN 的结果特征细节过于突出,但背景信息不真实;TIF 的结果并(g)TIF(h)FusionGAN(i)GANMcC(j)DDcGAN(k)SSGAN(l)本文方法图 7 不同算法在不同场景下进行红外与可见光融合Fig.7 Infrared and visible l

33、ight fusion in different scenes by different algorithms应用光学2024,45(1)谢一博,等:基于显著性的双鉴别器 GAN 图像融合算法113没有凸显显著目标,图像整体较为模糊,且人物目标不明显;LP、DWT 与本文方法在凸显显著目标的同时保留了天空背景的视觉特征,但 LP 与DWT 对草地表征过亮,整体图像效果不佳;本文方法不仅突出了人物目标,周围的环境信息也得以较好地保留。在场景 4(Img4)中,IHS、PCA、Fusi-onGAN、GANMcC 与 DDcGAN、SSGAN 的融合图像中,天空背景偏向红外图像的黑色,且整体图像主管

34、视觉偏暗,不符合拍摄的光照场景;TIF 的结果未凸显人物目标;LP、DWT 与本文方法既凸显了目标,也较好保留了天空背景的视觉特征,周围的树木也较明显;本文方法生成的图像中人物(即目标)和树木(即背景)之间的对比较强,且树木的纹理细节丰富,融合图像在两幅源图像的信息之间取得了较好的平衡。总结 4 组实验结果,IHS、PCA 方法的融合效果接近红外图像,拥有较强的对比度,但缺少纹理细节;LP、DWT 方法的图像接近可见光图像,保留了丰富的纹理细节,但其对比度不明显;TIF 方法的图像目标与背景区分不明显,且主观视觉效果不佳;FusionGAN、GANMcC 与 DDcGAN、SSGAN方法的融合

35、图像虽然同时保留了红外的热辐射信息与可见光图像的纹理信息,但是对实际环境背景的描述不恰当,且整体效果偏暗;本文方法的显著性特征明显,且目标信息突出,对环境描述符合实际情况。3.2 融合结果客观评价除了通过主观视觉对不同算法进行定性描述之外,本文选择了信息熵、平均梯度、空间频率以及边缘强度 4 种评价指标,对 10 种图像融合算法在不同场景下的图像进行定量评价。具体的客观评价结果如表 1 所示。表 1 不同方法对比实验客观评价结果Table 1 Objective evaluation results for different methods of comparison experiments

36、IndicesImageIHSPCALPDWTTIFFusionGANGAN-McCDDc-GANSS-GANOursENImg17.13857.13966.07985.90146.43406.63176.67326.90246.76546.6439Img27.35267.30477.43387.46587.35446.89387.32687.47597.19547.7750Img37.18997.21886.80836.88066.82136.87666.81316.97456.89537.3277Img47.05356.96706.85706.88596.78136.58586.89687

37、.17506.86627.3797MGImg13.04753.01682.24501.82582.50761.89151.72132.60362.94832.5333Img24.42264.28083.96964.32624.73682.57053.55014.24024.66584.7938Img32.97602.82482.53652.32503.74782.34012.08303.22443.61673.3216Img44.62704.28983.66273.96044.28112.60692.91444.46774.48145.2256SFImg17.11197.05325.24304

38、.64246.38094.39244.07845.89366.69525.9644Img211.213911.04848.94929.682111.56085.73277.84529.481110.211511.7453Img37.92017.67805.84326.01498.86245.17184.51047.24177.83757.7968Img49.82399.15117.55218.43339.75305.28955.91829.01399.021110.8283EIImg132.863432.516723.920719.527526.302620.617118.855828.032

39、431.983326.9535Img247.278245.684742.745746.748450.363027.988338.531745.333850.689651.6590Img331.777330.092726.815624.912139.744925.231222.527334.004738.729934.9828Img449.700345.888239.200342.521744.736028.363231.611147.844848.606856.1800分析表 1 中不同方法评价指标的结果,就EN 而言,相较于其他融合算法,本文方法的数据结果最佳,其熵值最大表明了其所蕴含的信息

40、量越丰富,说明本文方法较好地实现了两种图像不同信息的融合。就 MG 而言,本文方法相较于其他融合算法表现效果更好,TIF 算法次之,本文方法的图像结果平均梯度综合最大,说明该图像所能体现的层次更多,细节表现力更强,图像更清晰。就 SF 而言,TIF 算法与本文方法的空间频率数据指标为最高;在不同的实验结果中,除去第1 组实验结果较低,其他几组实验结果证明本文改进的算法更胜一筹,指标值约为 8.011.0;因此,本文方法所得图像的边缘信息更丰富,对比度更高,图像的融合质量最佳。就 EI 而言,本文改进的算法表现更好,在 4 组数据中有 2 组数据值最高,本文方法的融合图像边缘强度最大,而采用 I

41、HS114应用光学第45卷第1期与 TIF 算法结果的边缘强度数据次之。可以得出结论,本文方法具有更丰富的细节信息,保留了红外图像与可见光图像中显著的对比度和丰富的纹理。为了更直观地观察不同方法的指标对比结果,将表 1 可视化表示,如图 8 中(a)、(b)、(c)、(d)子图分别表示信息熵、平均梯度、空间频率以及边缘强度的折线堆积图。35image 1image 2image 3image 4302520EN1510504035302520SF15105018016014012010080EI604020020MG151050Methods(a)信息熵(EN)(b)平均梯度(MG)(c)空间

42、频率(SF)(d)边缘强度(EI)IHSPCALPDWTTIFFusionGANGANMcCDDcGANSSGANOursMethodsIHSPCALPDWTTIFFusionGANGANMcCDDcGANSSGANOursMethodsIHSPCALPDWTTIFFusionGANGANMcCDDcGANSSGANOursMethodsIHSPCALPDWTTIFFusionGANGANMcCDDcGANSSGANOursimage 1image 2image 3image 4image 1image 2image 3image 4image 1image 2image 3image 4图

43、8 不同方法的评价指标折线堆积图Fig.8 Folded-line stacking diagram of evaluation indexes of different methods观察图 8 不同方法的评价指标折线堆积图,在所有指标中,本文方法与 TIF 算法、SSGAN 算法的数据结果较好。综合几组实验及不同指标,本文方法的表现最佳,表明该算法能够从源图像获得更全面且有价值的信息。融合图像既包含了丰富的纹理细节,也较好地保留了源图像的边缘细节特征,其结果具有良好的视觉体验。通过对主观视觉效果图的观察及客观数据的描述,最终得出本文方法在融合图像效果上优于其余算法。4 结论针对红外与可见光

44、图像在不同场景下对目标识别能力的强弱问题,本文将红外与可见光图像进行融合,提出了一种基于显著性的双鉴别器生成对抗网络红外与可见光图像融合方法,创新性地以两幅源图像的显著性区域作为鉴别器输入,从而使得融合图像保留原始图像更多显著特征;该网络的生成损失函数中添加了梯度约束,以保留更多的细节信息,防止了高对比度目标区域边缘扩散造成的背景纹理污染。结果表明,本文方法不仅能够保留红外图像强对比的目标信息,而且能够保留可见光图像的主观视觉优势。综合评价验证了本文方法的可行性及优异性。随着红外与可见光图像融合技术广泛应用于工程技术和科学研究中,本文所优化的图像融合方法实现了红外图像和可见光图像的有效融合,提

45、高了融合图像的质量,在目标识别等领域中具有十分重要的意义。参考文献:LIH,WUXJ,KITTLERJ.Infraredandvisibleimagefu-sionusingadeeplearningframeworkC/InternationalConference on Pattern Recognition,2018.New York:IEEE,2018.1蔡伟,徐佩伟,杨志勇,等.复杂背景下红外图像弱小目标检测J.应用光学,2021,42(4):643-650.2应用光学2024,45(1)谢一博,等:基于显著性的双鉴别器 GAN 图像融合算法115CAIWei,XUPeiwei,YA

46、NGZhiyong,etal.Dim-smalltargetsdetection of infrared images in complex back-groundsJ.JournalofAppliedOptics,2021,42(4):643-650.LIUY,LIUSP,WANGZF.Ageneralframeworkforimagefusionbasedonmulti-scaletransformandsparserepresentationJ.Information Fusion,2015,24(24):147-164.3YANGB,LIST.Multifocusimagefusion

47、andrestora-tionwithsparserepresentationJ.IEEETransactionsonInstrumentation&Measurement,2010,59(4):884-892.4HARSANYIJC,CHANGCI.Hyperspectralimageclas-sification and dimensionality reduction:an orthogonalsubspace projection approachJ.IEEE Transactions onGeoscienceandRemoteSensing,1994,32(4):779-785.5H

48、ANJG,PAUWELSEJ,ZEEUWPD.Fastsaliency-awaremulti-modalityimagefusionJ.Neurocomputing,2013,111:70-80.6MAJY,CHENC,LIC,etal.Infraredandvisibleimagefusionviagradienttransferandtotalvariationminimiza-tionJ.InformationFusion,2016,31:100-109.7陈清江,汪泽百,柴昱洲.改进VGG网络的多聚焦图像的融合方法J.应用光学,2020,41(3):500-507.CHENQingji

49、ang,WANGZebai,CHAIYuzhou.Multi-focusimagefusionmethodbasedonimprovedVGGnet-workJ.JournalofAppliedOptics,2020,41(3):500-507.8LIH,WUXJ.DenseFuse:afusionapproachtoinfraredandvisibleimagesJ.IEEETransactionsonImagePro-cessing,2018,28(5):2614-2623.9MAJY,TANGLF,XUML,etal.STDFusionNet:aninfraredandvisibleim

50、agefusionnetworkbasedonsali-enttargetdetectionJ.IEEETransactionsonInstrument-ationandMeasurement,2021,70:1-13.10LIJ,HUOHT,LIC,etal.Multi-grainedattentionnet-work for infrared and visible image fusionJ.IEEETransactionsonInstrumentationandMeasurement,2020,70:1-12.11HUANGW,XIAOL,WEIZ,etal.Anewpan-sharp

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服