ImageVerifierCode 换一换
格式:PDF , 页数:10 ,大小:12.08MB ,
资源ID:568939      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/568939.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(改进双路径生成对抗网络的红外与可见光图像融合.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

改进双路径生成对抗网络的红外与可见光图像融合.pdf

1、改进双路径生成对抗网络的红外与可见光图像融合杨 莘 田立凡*梁佳明 黄泽丰(武汉科技大学信息科学与工程学院 武汉 430081)摘 要:为了使融合图像保留更多源图像的信息,该文提出一种端到端的双融合路径生成对抗网络(GAN)。首先,在生成器中采用结构相同、参数独立的双路径密集连接网络,构建红外差值路径和可见光差值路径以提高融合图像的对比度,引入通道注意力机制以使网络更聚焦于红外典型目标和可见光纹理细节;其次,将两幅源图像直接输入到网络的每一层,以提取更多的源图像特征信息;最后,考虑损失函数之间的互补,加入差值强度损失函数、差值梯度损失函数和结构相似性损失函数,以获得更具对比度的融合图像。实验表

2、明,与多分类约束的生成对抗网络(GANMcC)、残差融合网络(RFnest)等相关融合算法相比,该方法得到的融合图像不仅在多个评价指标上均取得了最好的效果,而且具有更好的视觉效果,更符合人类视觉感知。关键词:图像融合;深度学习;生成对抗网络;红外图像;可见光图像中图分类号:TN911.73文献标识码:A文章编号:1009-5896(2023)08-3012-10DOI:10.11999/JEIT220819Infrared and Visible Image Fusion Based on Improved DualPath Generation Adversarial NetworkYANG

3、 Shen TIAN Lifan LIANG Jiaming HUANG Zefeng(School of Information Science and Engineering,Wuhan University of Science and Technology,Wuhan 430081,China)Abstract:An end-to-end dual fusion path Generation Adversarial Network(GAN)is proposed to preserve moreinformation from the source image.Firstly,in

4、the generator,a double path dense connection network with thesame structure and independent parameters is used to construct the infrared difference path and the visibledifference path to improve the contrast of the fused image,and the channel attention mechanism is introducedto make the network focu

5、s more on the typical infrared targets and the visible texture details;Secondly,twosource images are directly input into each layer of the network to extract more source image featureinformation;Finally,considering the complementarity between the loss functions,the difference intensity lossfunction,

6、the difference gradient loss function and the structural similarity loss function are added to obtain amore contrast fused image.Experiments show that,compared with a Generative Adversarial Network withMulti-classification Constraints(GANMcC),Residual Fusion network for infrared and visible images(R

7、Fnest)and other related fusion algorithms,the fusion image obtained by this method not only achieves the best effectin multiple evaluation indicators,but also has better visual effect and is more in line with human visualperception.Key words:Image fusion;Deep learning;Generate Adversarial Network(GA

8、N);Infrared image;Visible image 1 引言图像融合是用特定的算法将两个或两个以上的传感器在同一时间或不同时间获取的关于某个具体场景的图像或图像序列信息加以综合,以生成新的有关此场景解释的信息处理过程1。红外与可见光图像融合是多传感器图像融合研究的重要组成部分,红外图像几乎不受极端环境的影响,并且能够突出热红外目标,但图像背景模糊,分辨率较低;与红外图像相比,可见光图像具有丰富的纹理细节,但在恶劣环境下会严重降低其目标检测能力。因此,为了提高图像理解和识别效率,红外与可见 收稿日期:2022-06-21;改回日期:2023-01-15;网络出版:2023-02-03

9、*通信作者:田立凡基金项目:国家自然科学基金(61702384),武汉科技大学基金(2017xz008)Foundation Items:The National Natural Science Foundation ofChina(61702384),The Foundation of Wuhan University ofScience and Technology(2017xz008)第45卷第8期电 子 与 信 息 学 报Vol.45No.82023年8月Journal of Electronics&Information TechnologyAug.2023光图像融合在军事、视频监控

10、和消防等领域被广泛应用2。常用的红外与可见光的图像融合的方法有基于多尺度分解的方法3、基于稀疏表示的方法4、基于显著性检测的方法5、基于子空间的方法6和基于神经网络的方法7,8等等。传统图像融合方法通常以相同的尺度变换将源图像分解以获取多尺度特征信息,人工设计融合规则对每个尺度进行融合,最后通过多尺度反变换重构获得最终融合图像。由于红外图像和可见光图像是两种类型的源图像,前者以像素亮度表征红外热信息,而后者以边缘和梯度表征纹理背景信息。传统融合方法以相同的尺度变换来提取图像特征信息,没有考虑源图像的内在不同特性,降低了融合性能,使得融合视觉效果变差。此外,设计融合规则需要手动进行,计算成本高,

11、限制了图像融合的实际应用。由于具有较强的特征提取能力和较高的融合精度,基于深度学习的方法在图像融合领域得到了广泛的应用。深度学习的融合方法可以分为基于编码器-解码器9结构的方法和基于生成对抗网络(Gen-erative Adversarial Networks,GAN)10的方法。基于编码器-解码器的方法虽然可以取得良好的融合效果,但是其无法估计源图像的信息分布,因此容易产生信息分布不均衡的融合效果。而基于生成对抗网络的融合方法采用无监督的学习方法,通过对抗训练生成的模型可以有效地平衡源图像的特征分布,取得较好的效果。文献11将生成对抗网络引入到红外与可见光图像融合任务,生成器负责融合红外图像

12、的热目标信息和可见光图像的纹理细节信息,判别器负责区分融合图像与可见光图像,使融合图像保留更多的梯度信息;此外,文献12采用将源图像拼接的方式作为生成器的输入,将1幅红外图像和两幅可见光图像连接起来以构建梯度路径,而将1幅可见光图像和两幅红外图像连接起来以构建像素强度路径。可以让网络更好地提取特征,改善了融合效果。但是,这两种方法都没能很好地获得源图像的显著信息,前者的融合结果保留了较少的红外背景,后者的融合结果红外显著信息丢失对比度较差。本文发现,将两幅源图源做差获得的差值图像保留了对比度信息。鉴于此,本文将差值图像和源图像拼接作为生成器的输入以得到高对比度的融合图像。具体来说,由红外图像减

13、去可见光图像得到的红外差值图像可以独立地突出红外强度,而由可见光图像减去红外图像得到的可见光差值图像可以独立地反映纹理细节。差值图像融合可以获得高对Qabf比度的融合图像。通常,与融合图像相比,差值图像的互信息(Mutual Information,MI)13和 14度量更大,表明差值图像与源信息具有很强的相关性。差值图像的平均梯度(Average Gradient,AG)15和空间频率(Spatial Frequency,SF)16度量通常大于两个源图像,这表明引入差值图像不会降低融合图像的质量。因此,本文提出一种新的双融合路径生成对抗网络体系结构。网络结构将生成器融合路径分为红外-红外差值

14、路径和可见光-可见光差值路径,可以在两条融合路径上分别获得不同的融合特征分布。此外,把每一层输出的特征保留下来作为后面每一级的输入以构建密集连接,使得网络取得的特征能最大化的被使用,不仅于此,本文还分别在每条路径上构建红外和可见光的跳跃连接,也就是把红外或可见光的源图像直接输入到每一级的网络中以保留更多的源图像信息。最后,将通道注意力机制加入到生成器和判别器中以提高网络获取显著信息的能力。与一些典型方法在公开数据集上进行对比实验,本文方法在对比度和客观指标上面均取得了比较好的效果。2 本文算法 2.1 融合框架为了提高融合图像的对比度,本文将红外图像和红外的差值图像拼接作为红外路径的输入,将可

15、见光图像和可见光的差值图像作为可见光路径的输入。两幅差值图像的定义为Ivis Iir=Dvis(1)Iir Ivis=Dir(2)IvisIirDirDvis其中,和 分别代表两幅源图像,和分别代表红外和可见光的差值图像。红外的差值图像主要包含红外强度信息,如图1(c)所示;可见光的差值图像主要包含可见光背景细节信息,如图1(d)所示。因此引入两组差值图像可以提高最后融合图像的对比度信息。If本文的融合框架如图2所示,它由生成器和判别器组成。生成器包含红外路径和可见光路径,源图像和差值图像通过生成器得到初始融合图像。判别器区分红外图像和融合图像,约束融合图像保留更多的热辐射信息。此处去掉了判别

16、器的可见光分支,目的是获得更多的红外显著信息。2.2 生成器考虑到不同源图像所包含的信息不同,生成器采用双支路结构进行特征提取。将红外差值图像和红外图像、可见光差值图像与和可见光图像连接分第8期杨 莘等:改进双路径生成对抗网络的红外与可见光图像融合3013别作为一个支路的输入,这样可以提高融合图像的对比度。两条支路网络结构相同,参数独立,有效地降低了训练模型的复杂度。生成器的结构如图3所示。该生成器的两条路径都由4个卷积块组成,每个卷积块包括卷积层、批量归一化层(Batch Nor-malization layer,BN)、ReLU层和通道注意力层。融合路径中卷积层的内核大小设置为7,在第1和

17、第2卷积块中设置为5,在最后两个卷积块中设置为3。融合路径中卷积层的滤波器数量分别设置为256,128,64和32。融合路径中卷积层的步长都设置为1。本文在以下3个方面对传统的生成器网络进行了改进。首先,本文在批量归一化层和ReLU层之后加入了通道注意力机制,可以加强每个通道的重要特征而削弱非重要特征,提高融合性能。通道注意力机制的结构如图4所示。其原理是,首先通过全局平均池化(GlobalAverage Pooling,GAP)在空间维度对特征进行压 图 1 源图像及其差值图像 图 2 整体融合框架 图 3 生成器的网络结构3014电 子 与 信 息 学 报第 45 卷X缩,在不改变特征通道

18、的前提下将每个输入特征压缩为一个实数,获取全局感受野;接着使用非线性全连接层(Fully Connected layer,FC)对每个特征通道生成对应的权重,之后使用Sigmoid激活函数归一化处理生成的初始权重;最后,将得到的归一化权重应用于原来的每个特征通道上,输出最后的结果,完成对重要特征的增强和对非重要特征的削弱。其次,本文在第2层第5层构建密集连接层,将每一层的输出都连接到后续层,作为后续层的输入。这样能够尽可能多地使用网络前几层的浅层信息特征。最后,本文将两幅源图像以跳跃连接的方式分别输入到中间层,在网络的每一层直接插入源图像的操作可以使网络更容易学习源图像信息。对于可见光图像,本

19、文希望保留其原始细节;而对于红外图像,本文希望保留其热辐射信息。可见光图像的跳跃连接相当于使用不同深度的网络来提取可见光图像的特征,相同地,红外图像也可以用不同深度的网络来提取其热辐射信息。因此,从多深度的网络中提取可见光图像和红外图像的基本信息,可以获得其语义信息,并尽可能保留其纹理细节和显著目标。2.3 判别器判别器的网络结构如图5所示。它由4个卷积块和1个线性层组成,网络的输入图像是红外源图像或生成器生成的融合图像,每一个卷积块包括卷积层、批量归一化层和LReLU层,卷积核的大小为33,通道数分别为32,64,128,256,随着通道数的增加,判别器提取出的特征也越来越深。最后通过线性层

20、输出一个标签,表示输入图像是真实图像还是融合图像。2.4 损失函数损失函数由生成器的损失函数和判别器的损失函数组成。生成器的损失函数指导生成器网络产生令人满意的融合结果。判别器的损失函数使判别器网络能够区分输入图像是融合图像还是源图像。本文的融合策略是将两幅源图像及其差值图像输入到生成器得到融合图像,为了增强最后的融合图像的显著信息,本文将红外图像和融合图像输入判别器来区分他们。判别器D为生成器G提供损失,最后使得生成器能够生成对比度较好的融合图像。2.4.1 生成器的损失函数生成器的损失函数定义为LG=Ladv+Lcontent(3)LGLadvLcontent其中,表示生成器的总损失,表示

21、生成器和判别器之间的对抗损失,表示内容损失,用于平衡两种损失。本文将 设置为100。对抗损失定义为Ladv=1NNn=1(D(G(Inf)d)2(4)D(G(Inf)其中,d是判别器用于确定融合图像的概率标签,本文将其设为0.71.2之间的随机值。N代表融合图像的数量,表示图像分类的结果,在本文中代表融合图像是红外图像的概率。生成器的内容损失指导其生成包含红外强度和可见光背景细节的融合图像。之前的大多数图像融合算法通常采用强度损失和梯度损失。强度损失用于提取源图像的像素强度信息,梯度损失用于提取源图像的背景细节信息。本文将两幅源图像的差值图像作为辅助输入以提高融合图像的对比度,因此本文引入了差

22、值图像的强度损失和梯度损失作为辅助损失。除此之外,考虑到融合图像和源图像的结构相似性,提出了一种新的结构相似性损失并将其添加到内容损失之中。生成器的内容损失由式(5)给出Lcontent=LSSIM+L2+Lgradient(5)LSSIML2Lgradient其中,,分别表示结构相似性损失、图 4 通道注意力模块 图 5 判别器的网络结构第8期杨 莘等:改进双路径生成对抗网络的红外与可见光图像融合3015强度损失和梯度损失。通过这3种损失函数分别为融合图像添加亮度信息、对比度信息和结构信息。结构相似性损失定义为LSSIM=12(1 SSIM(If,Iir)+12(1 SSIM(If,Ivis

23、)(6)SSIM(x,y)其中,表示融合图像和源图像之间的结构相似性值,定义为SSIM(x,y)=(2xy+c1)(2xy+c2)(2x+2y+c1)(2x+2y+c2)(7)xxyy2xx2yyxyxyc1=(k1L)2c2=(k2L)2k1=0.01,k2=0.02其中,是 的平均值,是 的平均值,是 的方差,是 的方差,是 和 的协方差。,是用来维持稳定的参数,L是像素值的动态范围,。强度损失和梯度损失分别由式(8)、式(9)给出L2=|Ifused Ivis|+|Ifused Iir|+|Ifused Dvis|+|Ifused Dir|(8)Lgradient=|Ifused Iir

24、|+|Ifused Ivis|+|Ifused Dir|+|Ifused Dvis|(9),其中,是用来平衡源图像和差值图像主次要信息的参数。在本文的设置中,认为红外图像的强度信息比可见光图像重要,同样地,可见光图像的梯度信息比红外图像重要,此外源图像的信息又较差值图像重要。鉴于此,本文将分别设置为5和10用于平衡主次信息。2.4.2 判别器的损失函数判别器是一种多分类器,其任务是有效识别源图像,迫使生成器生成含有更多的源图像信息的融合图像。前人的图像融合算法大多考虑融合图像和可见光图像的相似性,或同时考虑红外图像和可见图像与源图像的相似性。前者由于只考虑可见光图像,融合结果往往削弱了显著目标

25、;后者虽然同时考虑到两种源图像,但从实际结果看来,最后的融合图像往往背景偏暗,显著信息也有所削弱,得到的图像更像是两种源图像的平均加权图。鉴于此,本文另辟蹊径,舍去可见图像作为判别器的损失,而只考虑红外图像的像素强度信息。可见图像的背景细节信息由生成器的内容损失保留。判别器的损失函数为LD=1NNn=1(D(Inir)a)2+1NNn=1(D(Inf)b)2(10)D(Inir)(D(Inf)b)其中,N 代表图像的数目,和 表示红外图像和融合图像的分类结果,a,b 分别表示红外图像和融合图像的标签,本文将其分别设置为1和0。3 实验结果分析本文选取TNO和FLIR两个典型的红外与可见光数据集

26、,在GeForce RTX 3090 24 GB显卡使用Tensorflow框架进行实验,选取TNO数据集的40对图像,并将其裁剪为 120120的图像块,步长设置为14,最后得到57 131对图像块。最后用这些图像块进行训练,epoch设置为20,batch size设置为32,学习率为0.000 1。为了定性和定量比较以评估本文方法的性能,我们在TNO和FLIR数据集上测试了本文方法与其他较先进的融合方法,包括离散小波变换(Dis-crete Wavelet Transform,DWT)17、双分支网络(Dual Branch Network,DBN)18、深度图像分解融合模型(Deep

27、Image Decomposition Fusionmodel,DIDF)19、生成对抗网络融合模型(Gener-ative Adversarial Network Fusion model,Fusion-GAN)11、多分类约束的生成对抗网络(GenerativeAdversarial Network with Multi-classificationConstraints,GANMcC)12、多尺度特征集成与边缘注意引导融合模型(Multi-scale Feature Ensem-ble and edge-attentIon guidance Fusion model,MFEIF)20和R

28、Fnest21,所有对比方法均使用作者提供的源代码,参数均设置为文章的最优参数。3.1 定性对比实验为了给出一些关于融合性能的直观结果,本文选择了5对典型的图像进行定性评估,如图6所示。本文方法和其他比较方法的融合结果如图7所示。图7用绿色框标出部分红外目标和纹理细节,放大部分细节信息并以红色框在右下角标出以便于直观观察。与其他方法相比,本文方法的融合图像具有更好的层次感,目标突出,细节丰富。本文方法可以很好地保护热目标,即红外目标具有清晰的边缘和显著的对比度。此外,融合后的图像也具有较为丰富的可见光纹理细节。例如,在图7第1行中,传统方法DWT保留了较多的背景细节信息,但是红外热目标信息丢失

29、严重,DIDF,RFnest的效果与DWT类似;DBN,FusionGan,MFEIF这3种方法则与上面那种情况相反,他们很好地突出了红外的热目标信息,但是丢失了大量的背景细节信息,红色框放大的窗框和里面的叶子都已经模糊不清;GANMcC通过构建双通道输入很好地平衡了红外显著信息和可见光背景信息,但是他在左上角的灯和天空的树梢那里产生了光晕,这显然不利于后续的处理,而本文结果在突出热目标和纹理细节的同时还提高了融合图像的对比度,具有最好的主观融合效果。3016电 子 与 信 息 学 报第 45 卷当然,针对不同的源图像,同一方法的融合结果可能会有差别。例如图7第3行,DBN的融合结果与第1幅图

30、相反,基本上丢失了热目标信息而保留了部分可见光细节,有相同情况的还有GANMcC,在这幅图像中丢失了部分热目标信息,使得融合结果更加偏向可见光图像,而本文方法在这5幅图的融合结果都是类似的,说明本文网络的泛化能力更强。为了更好地验证这一点,本文选取FLIR数据集的40幅图像在TNO数据集训练的网络模型下测试,选取其中两个结果如图7第4行和图7第5行所示。可以看到,DWT,DBN,DIDF,MFEIF,RFnest的融合结果包含更多的可见光图像纹理信息,更接近可见光图像,但是红外目标并不突出,显著信息丢失严重;FusionGAN的融合结果虽然保留了部分显著目标,如绿色框部分,但是左下角两个小人的

31、背景虚化,丢失了这部分显著信息;GANMcC的融合结果较FusionGAN有很大提升,去掉了左下角小人身上的虚化,但是其结果更像是可见光的背景。对比之下,本文的结果能够更好地突出红外目标的同时和保留更多的可见光背景细节,提升了融合图像的对比度,具有最佳的视觉效果。3.2 定量对比实验为了综合评估图像融合的效果,本文选择了6种具有不同评估优先级的评估指标,包括熵(EN-tropy,EN)22、平均梯度(AG)15、空间频率(SF)16、方差(Variance,Var)23、边缘强度(EI)和视觉信息保真度(Visual Information Fidelity,VIF)24。这些指标可以分为基于

32、图像特征的,例如AG,SF等:基于信息论的,例如EN:基于人类感知的3大类25,例如VIF。基于信息论的熵(EN)可以测量图像中保留的信息量。平均梯度(AG),反映图像的梯度信息。基于梯度分布的空间频率(SF)可以揭示图像的细节、边缘和纹理。基于统计概念的方差(Var)反映了图像的分布和对比度。基于人类感知的视觉信息保真度(VIF)可以评估与人类感知评估一致的图像融合性能。边缘强度(EI)是边缘点处的梯度,它可以显示图像的质量和清晰度。对于这6个指标,值越大,性能越好。图 6 5对红外与可见光源图像 图 7 定性比较结果图第8期杨 莘等:改进双路径生成对抗网络的红外与可见光图像融合3017本文

33、选取TNO数据集和FLIR数据集来定量评估融合性能,计算各算法的评价指标的平均值,评价结果如表1、表2所示。分别将最优值、次优值和第3值以红色、黑色、绿色加粗标注。可以看到,本文算法在两个数据集的空间频率、平均梯度、边缘强度和信息熵这4项指标均取得了最佳结果,表明本文算法的融合结果包含更多源图像的特征信息,这一点与主观评价基本保持一致。这是因为本文引入了差值图像输入和将源图像直接跳跃连接输入到各个通道,使得网络能够提取到更多源图像的语义信息和对比度信息。本文在视觉信息保真度也仅次于GANMcC和RFnest,与主观评价类似,这两种方法在融合结果上更加偏向于可见光图像,可见光图像更加符合人眼的视

34、觉系统,故此项指标这两种方法偏高。最后在方差指标上,本文的算法在FLIR取得了最佳结果,而在TNO数据集上也仅次于RFnest方法。除此之外,本文还从两个数据集中随机选取了20组图片,基于这6个指标与各方法做定量分析,定量分析结果如图8所示。可以看到,本文的方法在这6种指标上均处于领先地位。定量对比实验结果表明本文的算法能够在保留源图像特征信息的同时,提升融合图像的清晰度,取得高对比度的融合图像。表3给出了8种融合方法在TNO数据集上的计算效率。实验结果表明,本文的算法具有较低的时间复杂度。3.3 消融实验为了进一步验证本文方法的有效性,将与无差值输入模型(No_dir)、无源图像跳跃连接模型

35、(No_resource)和这两者都没有的模型(No_both)进行比较。实验选取TNO数据集的10组图像和6个评价指标分别做定性和定量的对比实验,定性实验结果由图9给出。从结果可以看出,No_both模型丢失了绝大多数红外的背景细节信息,No_resource模型和No_dir模型相比于前者,保留了更多的源图像的信息,这说明引入差值输入和源图像的跳跃连接模型对于改善融合结果是有效的,但是这对于这两组图像,No_resource模型还是丢失了部分背景细节信息,如图9(e)绿色框标出的地砖部分,No_dir模型的融合结果则背景偏暗,对比度降低。相比之下,本文的模型在保留更多源图像的信息的同时还能

36、够提升融合图像的对比度,具有最平衡的融合结果。表4给出了4组模型的定量评价指标。最优值以红色加粗标注。可以看出,No_dir模型和No_re-source模型均优于No_both模型,这表明差值通道输入和源图像的跳跃连接能够提升系统的融合性能,这与定性对比结果一致。本文模型的融合性能表 1 TNO定量对比实验结果SFAGEIENVIFVarDWT6.81542.647326.00326.37530.290124.9950DBN6.11922.457424.80126.33750.281424.3822DIDF7.56092.988429.55666.58250.341730.0428Fusio

37、nGAN6.23952.416824.14246.57610.257531.1204GANMcC6.13912.545725.89466.74740.421733.6386MFEIF7.21042.903429.35226.65680.358733.0184RFnest5.87272.682128.64416.99070.513337.2477本文9.08603.580535.16967.07310.411233.6727表 2 FLIR定量对比实验结果SFAGEIENVIFVarDWT9.05113.542537.00156.84260.333631.4294DBN8.34593.36233

38、5.31996.78450.330631.0446DIDF9.34343.690538.60176.78630.294331.5181FusionGAN8.11423.204534.42987.01670.289237.4859GANMcC8.66653.674439.42197.20890.426942.4833MFEIF9.47523.771939.88417.01710.380737.8447RFnest7.62793.310336.21517.29680.450344.1210本文9.74884.135944.12987.41630.439447.71483018电 子 与 信 息 学

39、 报第 45 卷则又均显著优于No_dir模型和No_resource模型,这表明将差值通道输入和源图像的跳跃连接结合起来能够平衡融合结果,取得最优的评价指标。4 结束语本文提出一种端到端的双路径生成对抗融合网络。考虑到差值图像包含了源图像的对比度信息,表 3 不同融合方法计算效率对比结果(s)DWTDBNDIDFFusionGANGANMcCMFEIFRFnest本文40.04707.603110.065218.468031.825315.488319.85786.0944表 4 4组融合模型定量对比结果SFAGEIENVIFVarNo_both4.38941.531015.70626.52

40、300.174934.9732No_dir5.61192.296423.09506.71650.350441.0505No_resource4.96311.739618.64366.60730.294339.2500本文6.91452.861529.07777.15940.409348.0217 图 8 20组图片定量评价指标 图 9 4组融合模型的定性对比结果第8期杨 莘等:改进双路径生成对抗网络的红外与可见光图像融合3019将红外差值图像和红外源图像、可见光差值图像和可见光源图像分别拼接起来构建红外路径和可见光路径,以获得高对比度的融合图像;其次,本文创新性地在每一层输入源图像以保留更多的

41、源图像信息,并构建密集连接层以提升融合性能;再次,本文在生成器中引入通道注意力模块,增强不同通道特征之间的依赖性,提高了网络的特征提取能力:最后,在损失函数方面,相比于之前的融合算法,本文添加了差值图像的梯度损失和强度损失以提取对比度信息,并引入了结构相似性损失以使融合图像保留更多的源图像细节,使判别器仅对红外图像进行分类,以突出红外显著信息。在TNO和FLIR两组数据集上的实验结果表明,与其他7种相关融合方法相比,本文方法不仅具有更加均衡的主观融合效果,而且在客观指标上也基本取得了最优值,只有VIF和Var仅次于RFnest方法,获得了最优的融合性能,且具有较高的计算效率和较强的鲁棒性。最近

42、扩散模型(diffusion model)比较热门,是一个代表性的图像生成模型。考虑到GAN网络也具有图像生成的能力,未来将着力于研究扩散模型和GAN网络的异同点,将其引入到图像融合方向上来。参 考 文 献GOSHTASBY A A and NIKOLOV S.Image fusion:Advances in the state of the artJ.Information Fusion,2007,8(2):114118.doi:10.1016/j.inffus.2006.04.001.1TOET A,HOGERVORST M A,NIKOLOV S G,et al.Towards cogn

43、itive image fusionJ.Information Fusion,2010,11(2):95113.doi:10.1016/j.inffus.2009.06.008.2朱浩然,刘云清,张文颖.基于对比度增强与多尺度边缘保持分解的红外与可见光图像融合J.电子与信息学报,2018,40(6):12941300.doi:10.11999/JEIT170956.ZHU Haoran,LIU Yunqing,and ZHANG Wenying.Infraredand visible image fusion based on contrast enhancement andmulti-sca

44、le edge-preserving decompositionJ.Journal ofElectronics&Information Technology,2018,40(6):12941300.doi:10.11999/JEIT170956.3GAO Yuan,MA Jiayi,and YUILLE A L.Semi-supervisedsparse representation based classification for face recognitionwith insufficient labeled samplesJ.IEEE Transactions onImage Proc

45、essing,2017,26(5):25452560.doi:10.1109/TIP.2017.2675341.4LIU C H,QI Y,and DING W R.Infrared and visible imagefusion method based on saliency detection in sparsedomainJ.Infrared Physics&Technology,2017,83:94102.doi:10.1016/j.infrared.2017.04.018.5HE Changtao,LIU Quanxi,LI Hongliang,et al.Multimodal6m

46、edical image fusion based on IHS and PCAJ.ProcediaEngineering,2010,7:280285.doi:10.1016/j.proeng.2010.11.045.张介嵩,黄影平,张瑞.基于CNN的点云图像融合目标检测J.光电工程,2021,48(5):200418.doi:10.12086/oee.2021.200418.ZHANG Jiesong,HUANG Yingping,and ZHANG Rui.Fusing point cloud with image for object detection usingconvolution

47、al neural networksJ.Opto-electronicEngineering,2021,48(5):200418.doi:10.12086/oee.2021.200418.7陈永,张娇娇,王镇.多尺度密集连接注意力的红外与可见光图像融合J.光学 精密工程,2022,30(18):22532266.doi:10.37188/OPE.20223018.2253.CHEN Yong,ZHANG Jiaojiao,and WANG Zhen.Infraredand visible image fusion based on multi-scale denseattention conn

48、ection networkJ.Optics and PrecisionEngineering,2022,30(18):22532266.doi:10.37188/OPE.20223018.2253.8AN Wenbo and WANG Hongmei.Infrared and visibleimage fusion with supervised convolutional neuralnetworkJ.Optik,2020,219:165120.doi:10.1016/j.ijleo.2020.165120.9LI Jing,HUO Hongtao,LIU Kejian,et al.Inf

49、rared andvisible image fusion using dual discriminators generativeadversarial networks with Wasserstein distanceJ.Information Sciences,2020,529:2841.doi:10.1016/j.ins.2020.04.035.10MA Jiayi,YU Wei,LIANG Pengwei,et al.FusionGAN:Agenerative adversarial network for infrared and visibleimage fusionJ.Inf

50、ormation Fusion,2019,48:1126.doi:10.1016/j.inffus.2018.09.004.11MA Jiayi,ZHANG Hao,SHAO Zhenfeng,et al.GANMcC:A generative adversarial network with multiclassificationconstraints for infrared and visible image fusionJ.IEEETransactions on Instrumentation and Measurement,2021,70:5005014.doi:10.1109/TI

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服