ImageVerifierCode 换一换
格式:PDF , 页数:13 ,大小:6.59MB ,
资源ID:648348      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/648348.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于隐写噪声深度提取的JPEG图像隐写分析.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于隐写噪声深度提取的JPEG图像隐写分析.pdf

1、收稿日期:网络出版时间:基金项目:国家自然科学基金(U ,);中原科技创新领军人才项目()作者简介:范文同(),男,中国人民解放军战略支援部队信息工程大学硕士研究生,E m a i l:f f t x x g c s i n a c o m张涛(),男,教授,E m a i l:t z h a n g c s l g e d u c n罗向阳(),男,教授,E m a i l:l u o x y_i e u s i n a c o m通信作者:李震宇(),男,副教授,E m a i l:l i z h e n y u c o m网络出版地址:h t t p s:/k n s c n k i n

2、 e t/k c m s/d e t a i l/T N h t m ld o i 敭 j 敭i s s n 敭 敭 敭 基于隐写噪声深度提取的J P EG图像隐写分析范 文 同,李 震 宇,张涛,罗 向 阳,(中国人民解放军战略支援部队信息工程大学 网络空间安全学院,河南 郑州 ;数学工程与先进计算国家重点实验室,河南 郑州 ;河南省网络空间态势感知重点实验室,河南 郑州 ;常熟理工学院 计算机科学与工程学院,江苏 常熟 )摘要:当前基于深度学习的隐写分析方法检测效果受限于其获取的隐写噪声的精确度.为了获取更加准确的隐写噪声,提高隐写分析的准确率,提出了一种基于隐写噪声深度提取的J P E

3、G图像隐写分析方法.首先,设计了隐写噪声深度提取网络,通过有监督的学习方式使网络能够准确地提取载秘图像中包含的隐写噪声;而后,利用设计的模型评价指标选择最优的隐写噪声提取网络;最后,根据隐写噪声的特点设计分类网络,实现载秘图像的检测,并将分类网络与隐写噪声深度提取网络融合得到最终的检测网络.实验在两个大规模 的 公 开 数 据 集(B O S S B a s e和B OWS)上 进 行,针 对 两 种 自 适 应J P E G图 像 隐 写 方 法(J UN I WA R D和U E D J C)在多个不同嵌入率和图像质量因子条件下构建的载秘图像进行检测.实验结果表明,该方法的检测准确率较性能

4、第二的方法分别提高了约 和 .文中方法通过提取更加准确的隐写噪声,减少了图像内容对隐写分析带来的影响,相比于典型的基于深度学习的J P E G图像隐写分析方法,取得了更好的检测效果.关键词:J P E G图像隐写分析;隐写噪声;卷积神经网络;深度学习中图分类号:T P 文献标识码:A文章编号:()J P E Gi m a g e s t e g a n a l y s i sb a s e do nd e e pe x t r a c t i o no f s t e g on o i s eF AN W e n t o n g L IZ h e n y u ZHANGT a o L U OX

5、 i a n g y a n g 敭 P L AS t r a t e g i cS u p p o r tF o r c e I n f o r m a t i o nE n g i n e e r i n gU n i v e r s i t y Z h e n g z h o u C h i n a 敭 S t a t eK e yL a b o r a t o r yo fM a t h e m a t i c a lE n g i n e e r i n ga n dA d v a n c e dC o m p u t i n g Z h e n g z h o u C h i n

6、a 敭 K e yL a b o r a t o r yo fC y b e r s p a c eS i t u a t i o nAw a r e n e s so fH e n a nP r o v i n c e Z h e n g z h o u C h i n a 敭 S c h o o l o fC o m p u t e rS c i e n c ea n dE n g i n e e r i n g C h a n g s h uI n s t i t u t eo fT e c h n o l o g y C h a n g s h u C h i n a A b s t

7、r a c t T h ep e r f o r m a n c eo f s t e g a n a l y s i s i s l i m i t e db yt h eq u a l i t yo f t h es t e g on o i s eo b t a i n e db yc u r r e n td e e pl e a r n i n g b a s e d m e t h o d s 敭 I no r d e rt oo b t a i n m o r ea c c u r a t es t e g on o i s ea n di m p r o v et h ea c

8、 c u r a c yo fs t e g a n a l y s i s an e wm e t h o d i sp r o p o s e db a s e do nd e e pe x t r a c t i o no f s t e g on o i s e f o r J P E Gi m a g e s t e g a n a l y s i s 敭F i r s t as t e g on o i s ed e e pe x t r a c t i o nn e t w o r ki sf o r m u l a t e dt op r e c i s e l ye x t

9、r a c tt h es t e g on o i s ef r o ms t e g oi m a g e sw i t ht h es u p e r v i s e dt r a i n e dn e t w o r k 敭 T h e n am o d e l e v a l u a t i o ni n d e xi sp r o p o s e dt os e l e c t t h em o s te f f e c t i v en e t w o r kf o rs t e g on o i s ee x t r a c t i o n 敭 F i n a l l y a

10、c c o r d i n gt ot h ec h a r a c t e r i s t i c so fs t e g on o i s e ac l a s s i f i c a t i o nn e t w o r ki sd e s i g n e dt od e t e c tt h es t e g oi m a g e s w h i c hi st h e nc o m b i n e dw i t ht h es t e g on o i s e 年月第 卷第期西安电子科技大学学报J OURNA LO FX I D I ANUN I V ER S I TYA u g V

11、 o l N o h t t p:/j o u r n a l x i d i a n e d u c n/x d x be x t r a c t i o nn e t w o r kt oo b t a i nt h ef i n a ld e t e c t i o nn e t w o r k 敭 I nt h es t e g a n a l y s i se x p e r i m e n t t w ol a r g e s c a l ep u b l i c l ya v a i l a b l ed a t a s e t s B O S S B a s ea n dB O

12、WS a r eu s e dt oc o n s t r u c tt h es t e g oi m a g e sb yt w oa d a p t i v eJ P E Gi m a g e s t e g a n o g r a p h ym e t h o d s J UN I WA R Da n dU E D J C u n d e r s e v e r a l e m b e d d i n gr a t e s a n dq u a l i t yf a c t o r s 敭 E x p e r i m e n t a l r e s u l t ss h o wt h

13、a tt h ed e t e c t i o na c c u r a c yo ft h em e t h o dp r o p o s e di nt h i sa r t i c l eh a sb e e ni m p r o v e db yu p t o敭 a n d敭 r e s p e c t i v e l y c o m p a r e d t o t h e s e c o n d b e s t p e r f o r m i n gm e t h o d 敭 B ye x t r a c t i n gm o r ea c c u r a t es t e g on

14、 o i s ea n dr e d u c i n gt h e i m p a c t o f i m a g ec o n t e n to ns t e g a n a l y s i s t h ep r o p o s e dm e t h o da c h i e v e sab e t t e rd e t e c t i o np e r f o r m a n c ec o m p a r e dt ot y p i c a ld e e pl e a r n i n g b a s e dJ P E Gs t e g a n a l y s i sm e t h o d

15、s 敭K e yW o r d s J P E Gi m a g es t e g a n a l y s i s s t e g on o i s e c o n v o l u t i o n a ln e u r a l n e t w o r k d e e pl e a r n i n g 引言隐写术通过将秘密信息嵌入到载体中,从而在不引起第三方怀疑的情况下进行隐蔽通信.由于隐蔽通信的过程很难被他人发现,一些犯罪人员和恐怖分子会利用它来危害社会稳定和国家安全.作为隐写术的对立技术,隐写分析旨在检测隐蔽通信的存在,并在与隐写术的对抗过程中不断发展.随着互联网通信技术和图像处理技术的发展

16、,在互联网中广泛传播的J P E G图像成为了隐写术的合适载体.因此,针对J P E G图像的隐写分析也逐渐成为学术界的重要研究课题.J P E G图像隐写分析的目标是检测一张看似正常的J P E G图像中是否隐藏了秘密信息,判断所使用的隐写方法,估计秘密信息的嵌入位置,提取秘密信息.其中,判断图像是否含有秘密信息是最重要的部分,这也是当前研究的重点.含有秘密信息的图像称为载秘图像,其他的称为载体图像.现有的隐写分析方法可以分为基于人工特征设计的传统隐写分析方法和基于深度学习的隐写分析方法.对于传统隐写分析方法,研究者们首先利用人工设计的高维特征提取方法来捕获图像中由秘密信息嵌入引起的统计异常

17、,然后使用经过训练的分类器来确定图像中是否包含秘密信息.代表性的方法有空域富模型方法(S p a t i a lR i c h M o d e l,S RM)、离散余弦变换残差方法(D i s c r e t eC o s i n eT r a n s f o r m R e s i d u a l,D C T R)、相位感知投影模型(P H a s eAw a r ep R o j e c t i o n M o d e l,P HA RM)和G a b o r滤波器残差方法(G a b o rF i l t e rR e s i d u a l,G F R).然而随着当前隐写技术 的发展,

18、有效的高维特征提取方法越来越难以设计,设计出的特征提取方法也会受限于研究者的领域知识和启发式探索,这限制了隐写分析的发展.随着深度学习的兴起,研究人员发现,神经网络可以学习图像的多层次特征,这样既可以减少启发式的特征设计,也能更好地反映图像的本质特征.因此,研究者们开始将深度学习应用于隐写分析之中,并取得了大量成果.在各种深度网络中,卷积神经网络(C o n v o l u t i o n a lN e u r a lN e t w o r k s,C NN)因为其独有的特性受到了研究者们的重视.卷积操作可以捕获图像中由秘密信息嵌入引起的细微变化,这种细微变化也被称为隐写噪声,这在功能上与传统

19、隐写分析方法中的特征提取步骤类似.池化层和激活函数层也可以用来模拟传统隐写分析方法中的量化和截断步骤.因此,基于卷积神经网络模型的隐写分析方法 已成为图像隐写分析的主流.根据针对隐写算法类型的不同,基于深度学习的隐写分析方法可以分为空域隐写分析方法和J P E G域隐写分析方法.现有的基于深度学习的隐写分析方法大多是针对空域隐写算法所设计的.T AN等 将深度学习应用于隐写分析之中,提出了名为T a n N e t的隐写分析网络.该网络只有层,包括个卷积层和个全连接层.Q I AN等 将传统卷积网络的预处理层替换为固定的高通滤波核来增强隐写信号,提出了一种基于深度学习的隐写分析模型Q i a

20、n N e t.为了避免隐写特征的损失,在Q i a n N e t中使用了平均池化层来代替最大池化层.为了进一步提高隐写分析的性能,XU等 沿用了Q i a n N e t网络架构的特点,提出了X u N e t.考虑到预处理层提取的噪声残差与符号无关,X u N e t在第个卷积层之前使用a b s层来收敛特征图,其检测性能与S RM相当,甚至在某些情况下有所超越.Y E等 将S RM的特征提取部分与深度学习相结合,提出了Y e N e t,其检测精度已经超过基于人工特征设计的传统隐写分析方法.Z HANG等 针对西安电子科技大学学报第 卷h t t p:/j o u r n a l x

21、i d i a n e d u c n/x d x b卷积核以及网络结构进行改进,提出了Z h u N e t.该网络使用可分离卷积代替原有的卷积层来提高隐写信号和图像信号之间的信噪比.此外,还采用了空间金字塔结构来丰富特征的表达,检测效果有了相当大的提升.由于随意调整图像的大小会严重影响图像中的隐写信号,YOU等 以孪生网络为基础,设计了一种新的隐写分析网络S i a S t e g N e t,来实现在不重新训练参数的情况下对多尺度的图像进行隐写分析,在多尺度图像上的检测效果十分优秀.虽然目前在互联网上传播的图像大多是J P E G图像,但相比于空域隐写分析方法,针对J P E G图像的隐

22、写方法要少得多.Z E NG等 提出了一个基于深度学习的J P E G域隐写分析网络,其检测效果与传统方法基本持平.后来,Z E NG等 在之前工作的基础上,通过将J P E G图像转换为空域图像再进行隐写检测的方式,有效地提高了隐写分析的准确率.此外,在X u N e t的基础上,XU 提出了一种名为J X u N e t的J P E G域隐写分析方法.该方法采用了 层全卷积网络来进行隐写分析,通过残差连接来防止梯度爆炸以及隐写特征的消失,其检测效果已经优于传统方法.考虑到之前的隐写分析方法仍然包含了一些手工设计的元素,B O R OUMAN D等 设计了一种基于残差网络的端到端隐写分析模型

23、,名为S R N e t.该网络在空域和J P E G域上都有非常出色的表现.年,S U等 提出了一种基于全卷积网络的端到端隐写分析模型,称为EWN e t.该模型可以在不重复训练的情况下,针对任意大小的J P E G图像进行隐写分析,在J P E G图像隐写分析方面取得了最先进的检测效果.考虑到当前基于深度学习的隐写分析方法通常无法获得选择通道感知(S e l e c t i o n C h a n n e lAw a r e,S C A)的知识,L I U等 将与S C A作用相同的剩余通道空间注意(C h a n n e l S p a t i a lA t t e n t i o n,

24、C S A)模块引入到卷积网络中,来进一步提高模型的隐写分析性能.此外,为了获取多尺度的层次特征表示,文中使用空间金字塔池化来代替全局平均池化.该网络在J P E G隐写分析领域检测效果要优于S R N e t.当前,大多数基于深度学习的隐写分析方法会先提取图像中包含的隐写噪声,再对提取的隐写噪声进行分类.隐写噪声提取的准确度在很大程度上决定了隐写分析的性能.目前大多数方法通过将这两个阶段连接在一起,利用分类模块的误差优化隐写噪声提取模块,以此提高隐写噪声提取的准确度.然而,随着图像质量因子的提高,隐写噪声与图像内容的信号比例会急剧下降,隐写噪声也变得更加难以提取.基于端到端的隐写分析模型,在

25、训练过程中没有为隐写噪声提取模块设定优化目标.当图像的质量因子较高时,这种训练方式可能会限制隐写噪声的提取准确度.为了解决这个问题,文中提出了一种基于有监督训练策略的隐写噪声深度提取模型,以此提高隐写分析的准确率.文中工作的主要贡献如下:()提出了一种基于隐写噪声深度提取的J P E G图像隐写分析方法.该方法可以减少图像内容对隐写分析的影响,准确地提取出隐写噪声,并判断该图像是否为载秘图像.()提出了一种指导隐写噪声深度提取网络的模型评价指标来选择最佳网络,并将其与针对隐写噪声所设计的分类网络相融合,得到完整的隐写分析网络.()在基准数据集上的实验结果表明,针对J UN I WA R D和U

26、 E D J C这两种隐写算法,文中方法要优于经典的基于深度学习的隐写分析方法.基于噪声深度提取的J P E G隐写分析方法与经典计算机视觉领域中的物体识别和图像分类等任务不同,隐写分析主要关注细微的隐写噪声而不是一般的图像内容.当图像的质量因子较高时,隐写噪声与图像内容的信号比例会急剧下降,隐写噪声很难被准确地提取出来.然而,基于深度学习的端到端隐写分析方法并没有为隐写噪声提取模块设置独立的优化目标,这可能会限制隐写噪声提取的准确度.为了克服这一局限性,文中为隐写噪声提取模块设置单独的优化目标来准确提取隐写噪声.网络结构文中所提出的隐写分析网络名为S N d e s N e t.该网络主要由

27、两个部分组成,即隐写噪声深度提取网络(S n e N e t)和分类网络,如图所示.第期范文同等:基于隐写噪声深度提取的J P E G图像隐写分析h t t p:/j o u r n a l x i d i a n e d u c n/x d x b图S N d e s N e t检测流程首先,使用S n e N e t从待检测图像中提取可能存在的隐写噪声;然后,将隐写噪声输入到分类网络,以确定输入是载秘图像还是载体图像.由于隐写噪声提取模块的优化过程是回归任务,其目标函数与分类模块不同,所以无法将两个网络连接在一起进行同步优化.出于这个原因,文中使用分段式的网络结构来分别对这两段网络进行优化

28、.显然,文中方法的关键是隐写噪声深度提取网络和分类网络的构建.具体的网络结构将在后文中分别进行介绍.隐写噪声深度提取网络S n e N e t的目标是从输入图像中提取可能存在的隐写噪声.隐写噪声指的是载秘图像和载体图像之间的像素差:Ri,jSi,jCi,j,()其中,Si,j表示载秘图像(i,j)位置的像素;Ci,j表示载体图像对应位置的像素;两幅图像对应点像素之间的差值Ri,j就是图像中所含有的隐写噪声.在输入的过程中首先将J P E G图像解压缩到空域,使用J P E G图像的像素矩阵作为网络的输入.这样网络的训练过程更容易收敛,也便于计算图像中所包含的隐写噪声.需要注意的是,隐写分析人员

29、无法获得载秘图像的原始载体图像.因此,隐写噪声的提取问题可以转化为载体图像的预测问题,而这与图像去噪任务非常相似.不同的是,相比于图像的自然噪声,隐写噪声要细微得多,但仍可以从图像去噪领域中寻找灵感.文中提出的S n e N e t受到了图像去噪网络R I D N e t 的启发,在其基础上进行了一定的修改,以达到隐写噪声提取的目的.对于修改的合理性将会在实验部分进行说明.S n e N e t的网络结构S n e N e t的网络结构如图所示,其骨干部分主要由两部分组成,分别是高维特征提取模块和隐写噪声学习模块.图隐写噪声深度提取网络(S n e N e t)的网络结构高维特征提取模块由两个

30、卷积层组成,在图像去噪网络的最前端添加了一个预处理层,以提取高维特征f.与图像中的自然噪声相比,隐写噪声要小得多,所以直接使用去噪网络来提取隐写噪声会使网络难以收敛.为了加速网络的收敛,使用固定的滤波核来初始化卷积核,该步骤可以表示为fC o n vp(x),()其中,C o n vp()表示在载秘图像上的预处理卷积操作.之后提取出的高维特征f被输入到隐写噪声学习模块,通过有监督的训练策略来提取高维特征中的隐写噪声n,即西安电子科技大学学报第 卷h t t p:/j o u r n a l x i d i a n e d u c n/x d x bnMn s(f),()其中,Mn s()为隐写

31、噪声的学习过程,主要由图中个逐级连接的增强注意力模块(E n h a n c e m e n tA t t e n t i o nM o d u l e,E AM)组成.最后一个E AM模块输出的特征会再经过一层卷积来降低特征的维度,生成待检测图像中的隐写噪声n.从图的下半部分可以看出,E AM的输入特征首先经过一个并行的卷积层来扩大特征图的接收域,再将并行卷积层的输出结果合并来增加特征图的通道;接着,使用两个连续的卷积层来学习隐写噪声相关的特征,并通过增强残差块对特征进行压缩和展平;最后,使用通道注意力机制关注高维特征中的隐写噪声相关特征.S n e N e t中使用的残差连接 可以有效地减

32、少隐写噪声在网络传播过程中的损失.通过将网络的浅层和深层直接相连,网络可以避免退化,融合不同尺度的特征也能用来辅助网络对隐写噪声的学习.此外,使用隐写噪声而不是载体图像作为网络输出,与从载秘图像到载体图像的转换相比,从载秘图像到隐写噪声的转换更容易学习.载秘图像和隐写噪声之间的明显区别能够帮助网络收敛.需要注意的是,在S n e N e t中没有使用批归化处理(B a t c hN o r m a l i z a t i o n,B N)层来对特征图进行归一化.当前的隐写网络常用B N层来加速网络的收敛,防止模型过拟合.然而,使用B N层对图像进行归一化会破坏图像的对比度信息,这一点在图像去噪

33、任务中得到了研究,因此不在S n e N e t中使用B N层.S n e N e t的训练过程在网络的训练过程中,使用L 损失来计算网络的损失,计算公式为LNNi|yif(xi)|,()其中,yi为真实噪声,f(xi)为网络的提取噪声,N是同一批次输入的图像数量.图像去噪网络常用L 损失作为网络的损失函数,但它对孤立点更为敏感,而L 损失则更为稳定.此外,实验结果表明,使用L 损失作为损失函数的S n e N e t性能要比使用L 损失高约,因此选择L 损失作为损失函数.此外,使用峰值信噪比(P e a kS i g n a l t oN o i s eR a t i o n,P S N R

34、)作为衡量标准来评估隐写噪声提取的准确度.该值可用于评估图像经过重建后的图像质量,P S N R值越高,说明重建后的图像质量越好.因此选择这个指标来评估S n e N e t的隐写噪声提取能力.去噪后的图像与原始图像之间的P S N R值越高,提取的隐写噪声就越准确,P S N R定义为PP S N R,即PP S N R l g(MA X)l g(MS E),()MS El wl iw jI(i,j)K(i,j),()其中,I是原始图像;K是去噪后的图像;l和w分别是图像的长和宽;MA X是图像中可能存在的最大像素值.实验中使用的图像为位像素,因此MA X为 ;MS E是I和K之间的均方误差

35、.此外,实验结果还表明,由P S N R值最低的网络提取的隐写噪声并不具有最佳的分类性能.事实上,从载秘图像和载体图像中分别提取的隐写噪声之间有较大的差异也很重要.为此,设计了一个模型评价指标P来评估S n e N e t的隐写噪声提取性能,指导模型的选择.P的计算公式为Pps c(pc cps s),()其中,ps c为去噪后的载秘图像和载体图像之间的P S N R值,pc c是去噪后的载体图像和载体图像之间的P S N R值,ps s是去噪后的载秘图像和载秘图像之间的P S N R值.ps c越高,从载秘图像中提取的隐写噪声与真实隐写噪声越相似.而ps s和pc c之间的差值越大,从载秘图

36、像和载体图像中提取出的隐写噪声之间的差异就越大.评价指标P同时考虑了隐写噪声的准确提取以及载秘图像和载体图像提取噪声的差异.因此,P值越高,提取的隐写噪声越利于分类网络进行检测.为了扩大从载秘图像和载体图像中提取噪声的差异,可为载秘图像和载体图像设定不同的优化目标.将隐写噪声用作载秘图像训练的监督,同时由于载体图像中不包含隐写噪声,因此使用零值作为伪噪声来优化载秘图像的训练.使用载秘图像和隐写噪声作为正样本,载体图像和伪噪声作为负样本,来共同构建训练数据集.第期范文同等:基于隐写噪声深度提取的J P E G图像隐写分析h t t p:/j o u r n a l x i d i a n e d

37、 u c n/x d x b 分类网络隐写噪声分类网络的目标是对S n e N e t所提取的隐写噪声n进行分类,判断输入图像是否属于载秘图像.考虑到提取的隐写噪声可以看作是一种特殊的图像,基于现有的图像分类网络S w i nT r a n s f o r m e r 的骨干构建分类网络,该网络的输出即为文中隐写分析方法的检测结果.分类网络的具体结构如图所示.从输入图像中提取的隐写噪声首先被P a t c hp a r t i t i o n模块分割成多个非重叠等尺寸的P a t c h,再通过全连接层进行嵌入,扩充P a t c h中特征的维度;然后,嵌入后的P a t c h被送入个连续的

38、S w i nT r a n s f o r m e rB l o c k中,以获得输入图像的层次化特征图;最后,提取的特征图依次通过L a y e r N o r m层、平均池化层和全连接层,得到输入图像的分类结果.两个连续的S w i nT r a n s f o r m e rB l o c k中的主要模块是窗口多头自注意力模块(W i n d o w M u l t i h e a d e dS e l f A t t e n t i o n,W M S A)和 滑动窗口多 头自注意力 模 块(S h i f t e d W i n d o wM u l t i h e a d e d

39、S e l f A t t e n t i o n,SW M S A).W M S A模块基于局部窗口计算注意力矩阵,减少了计算工作量.同时为了获得特征图的全局注意矩阵,在W M S A模块之后,使用SW M S A模块来进行窗口之间的信息交互.图分类网络结构从图中可以看出,隐写噪声在空间上的分布是不连续的,这说明隐写噪声的局部特征不能准确地代表隐写噪声 的 特 性.因 此,分 类 网 络 需 要 对 隐 写 噪 声 的 全 局 特 征 给 予 足 够 的 重 视.众 所 周 知,S w i nT r a n s f o r m e r中使用的自注意模块扩大了网络的感受野,能够捕获输入图像的全

40、局特征.此外,网络中使用的滑动窗口策略也可以解决自注意模块的高计算复杂性问题.因此,文中基于S w i nT r a n s f o r m e r的骨干网络构建隐写噪声的分类网络.实验设置为了评估所提方法的隐写分析性能,使用两种自适应J P E G隐写算法在不同图像质量因子和嵌入率下进行了一系列的对比实验.网络的性能是通过在测试数据集上的检测错误率来评估的,该错误率的计算方法为假阳性率和假阴性率的均值.接下来将对实验设置、数据集生成和各种实现细节进行具体说明.数据集与对比方法文中实验的数据集采用了来自B O S S B a s e v 和B OWS 中的 张灰度图像.这两个数据集各包含了 张

41、大小为 的灰度图像.在数据集生成的过程中,首先将大小为 的原始图像裁剪成张互不重叠的 的图像,然后随机选择这张图像中的张进行实验.使用这种方法生成实验数据集可以减少网络训练的成本,并保持原有的图像质量.接着,将所有挑选出的图像压缩为质量因子为 和 的J P E G图像,使用这些压缩图像构建载体图像数据集.为了验证文中方法在J P E G图像上的隐写分析性能,使用了两种经典的自适应J P E G隐写方法:J UN I WA R D 和U E D J C,对载体图像进行嵌入,分别生成嵌入率为、和 b p n z a c的载秘图像.对于每种质量因子、隐写算法和嵌入率,随机选择B O S S B a

42、s e数据集中的 张图像和整个B OWS数据集用于网络训练,再从B O S S B a s e数据集中剩余的 张图像中随机选出 张图像用于西安电子科技大学学报第 卷h t t p:/j o u r n a l x i d i a n e d u c n/x d x b检测,最后的 张图像用于验证.将选出的载体图像和对应的载秘图像一起共同构建实验的训练集、测试集和验证集.这种数据集的划分方式与S R N e t 和EWN e t 的划分相同.在图像的读取过程中,所有的图像首先被解压缩到了空域,使用J P E G图像的像素矩阵作为网络的输入.为了增强模型的拟合能力,也采用了随机镜像和旋转的方式对数

43、据集进行数据增强.为了对比评估文中方法的隐写分析性能,进行了一系列的实验.采用的对比方法是针对J P E G图像的隐写分析方法,分别是:()J X u N e t:一个 层的全卷积深度网络,采用残差连接来减少特征的损失.()S R N e t:一个 层的端到端隐写分析网络.该网络去除了以往深度学习隐写分析模型中的手工设计元素,使用神经网络的强大学习能力来自主学习合适的参数.()EWN e t:一个全卷积深度网络,采用反卷积层来对特征图进行上采样,以此丰富用于分类的特征.该方法可以在不重新训练参数的情况下对任意大小的J P E G图像进行隐写分析.()C S AN e t:一个端到端的隐写分析网

44、络,使用C S A模块来为网络引入选择通道感知的相关知识,此外还通过空间金字塔池化结构来获取不同尺度的层次特征表示.实现细节文中方法包括两个组成部分:隐写噪声深度提取网络和分类网络.因为两个子网的网络结构和优化目标并不相同,所以为其设置了不同的训练参数.对于隐写噪声深度提取网络,网络中所有卷积层参数采用均值为,标准差为 的高斯分布进行随机初始化.采用A d a m算法优化损失函数,模型初始学习率设置为,采用余弦退火策略对学习率进行动态调整,最小学习率设置为,对于每一次迭代,m i n i b a t c h设置为,即个载体载秘图像对.网络经过训练直至收敛(约 个e p o c h),选择在测试

45、集上P值最高的网络来进行隐写噪声的提取.对于隐写噪声分类网络,采用S w i nT r a n s f o r m e r网络的预训练参数对分类网络进行初始化,优化算法采用A d a d e l t a优化器,模型初始学习率为,同样采用余弦退火策略来动态调整学习率,最小学习率为,每一次迭代的m i n i b a t c h设置为,即 个载体载秘图像对.使用验证集上性能最好的网络在测试集上进行测试.实验采用的显卡均为T I T ANX P(G B),内存为 G B,搭建的深度学习环境为T e n s o r f l o w 和P y t o r c h.J X u N e t、EWN e t和

46、C S AN e t种模型所用的代码为对应论文中给出的源码,S R N e t则是在P y t o r c h环境中自主复现.种网络的参数设置都与对应论文中的参数保持一致.需要注意的是,复现的S R N e t并没有达到文献 中的检测精度,这主要是因为数据集的预处理方式不同.文献 将原始数据集中的 大小的图像直接压缩为 的J P E G图像,这会导致图像内容更加平滑,所以隐写痕迹更容易被检测.而实验中则是先将原始图像首先被裁剪成 的图像,再压缩成具有不同质量因子的J P E G图像,这种处理方式生成的图像更难被检测.此外,在训练的过程中还采用了课程学习的训练策略来帮助网络更好的收敛.具体来说,

47、对于每种隐写方法,分别在不同质量因子和嵌入率下进行课程学习.对于质量因子,采用质量因子为 条件下训练得到的网络参数对质量因子 条件下训练的网络进行初始化;对于嵌入率,按照 (b p n z a c)的顺序进行渐进式学习,使用前一个嵌入率下训练得到的网络参数对后一个将要训练的网络进行初始化.实验结果与分析 参数合理性分析为了确定S n e N e t的损失函数和学习率等参数,还进行了以下实验分析.采用的隐写算法为U E D J C,图像质量因子为,嵌入率为.对于损失函数,使用L 损失,L 损失和C h a r b o n n i e r损失来进行对比实验.L 损失用于最小化预测图像和目标图像之间

48、的像素差值的绝对值之和,L 损失可以获得更好的P S N R值,而C h a r b o n n i e r损失能够帮助网络更好的收敛.实验结果如表所示.第期范文同等:基于隐写噪声深度提取的J P E G图像隐写分析h t t p:/j o u r n a l x i d i a n e d u c n/x d x b实验结果表明,虽然L 损失具有最好的P S N R值,但是pc c和ps s之间的差异是最低的,仅为 ,比L 损失要低 .与L 损失相比,C h a r b o n n i e r损失虽然能够帮助网络更快的收敛,但P值和准确度都要低于L 损失.因此,选择L 损失作为网络的损失函数

49、是合理的.表使用L 损失、L 损失和C h a r b o n n i e r损失作为损失函数的P S N R值与准确率C h a r b o n n i e r损失L 损失L 损失ps c ps s pc c pc cps s P 准确率/为了确保网络能够正常地提取隐写噪声,需要单独设置载体图像训练的学习率,采用二分法来确定最合适学习率.具体来说,选择了,来作为实验的初始学习率.实验结果如表所示.表不同初始学习率的P S N R值与准确率学习率ps cps spc cP 无穷大无穷大无穷大 无穷大 实验结果表明,当学习率为 时,网络对隐写噪声的提取效果最好.当载体图像的学习率接近载秘图像的学

50、习率时,伪噪声会对网络的训练产生很大的影响,训练后的模型基本不能提取任何隐写噪声.而当学习率较小时,ps c更高,ps s更低,从载秘图像和载体图像中提取的隐写噪声之间的差异十分微弱,这不利于分类网络的训练.因此,选择 作为载体图像的初始学习率.为了直观地展示网络从载体图像和载秘图像中提取的隐写噪声之间的差别,在图中展示了多组载秘图像和载体图像所提取的隐写噪声.为了达到更清晰的视觉效果,对隐写噪声的像素值进行了翻转,其中越暗的像素点表明该点隐写噪声越强.所用的隐写算法为J UN I WA R D,嵌入率为.图提取噪声与真实噪声的可视化结果西安电子科技大学学报第 卷h t t p:/j o u

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服