收藏 分销(赏)

多层次特征融合的对抗网络图像隐写_张震.pdf

上传人:自信****多点 文档编号:259263 上传时间:2023-05-25 格式:PDF 页数:7 大小:1.59MB
下载 相关 举报
多层次特征融合的对抗网络图像隐写_张震.pdf_第1页
第1页 / 共7页
多层次特征融合的对抗网络图像隐写_张震.pdf_第2页
第2页 / 共7页
多层次特征融合的对抗网络图像隐写_张震.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基金项目:国家自然科学基金(61772327,61432017);迁安新工程国家大数据协作安全技术开放项目(QAX-201803)收稿日期:2021-05-20 修回日期:2021-06-07 第 40 卷 第 4 期计 算 机 仿 真2023 年 4 月 文章编号:1006-9348(2023)04-0323-07多层次特征融合的对抗网络图像隐写张 震,王 真(上海电力大学计算机科学与技术学院,上海 200000)摘要:针对基于神经网络的图像隐写方法无法同时捕捉载体图像的纹理信息和语义特征,导致存在大量的信息丢失的问题,提出一种基于多层次特征融合的对抗网络图像隐写方法。通过在生成网络中添加多

2、尺度卷积与池化操作对图像进行特征提取,使用跳跃连接融合多层次特征信息,利用隐写分析性能更先进的判别网络与生成网络进行对抗学习,生成嵌入修改图并模拟生成隐写图像。实验结果表明,在高维特征隐写分析与深度学习隐写分析检测下,该方法均具有更高的隐写安全性。与目前所提出的基于深度学习的隐写方法相比,综合安全性能提升 3.8%。关键词:图像隐写;生成对抗网络;多层次特征融合;多尺度卷积;信息丢失;安全性中图分类号:TP 391 文献标识码:BAdversarial Network Image Steganography Based onMulti-level Feature FusionZHANG Zhe

3、n,WANG Zhen(College of Computer Science and Technology,Shanghai electric power University,Shanghai 200000,China)ABSTRACT:Aiming at the problem that image steganography based on neural network can not capture the textureinformation and semantic features of the cover image at the same time,which leads

4、 to a large amount of informationloss,this paper proposes a method of anti network image steganography based on multi-level feature fusion.Firstly,multi-scale convolution and pooling operations were added to the generative network to extract the features of the ima-ges.Then,the multi-level feature i

5、nformation was fused by jumping join.The discriminant network with more ad-vanced performance of stegage analysis was used for adversation learning with the generative network to generate em-bedded modified graphs and simulate the generation of stego images.Experimental results show that this method

6、 hashigher steganography security under both high-dimensional feature steganography analysis and deep learning steg-anography analysis detection.Compared with the proposed stegography method based on deep learning,the compre-hensive security performance is improved by 3.8%.KEYWORDS:Image steganograp

7、hy;Generative adversarial network;Multi-level feature fusion;Multi-scale convolu-tion;Information loss;Security1 引言图像隐写术是一种将秘密信息隐藏在载体图像中并隐蔽通信行为的技术,是信息隐藏的重要分支,逐渐成为信息安全领域的研究热点1,2。现代隐写术一直被描述为具有保真度约束的信源编码问题。通过量化单个像素的修改代价,计算总嵌入失真最小化,进一步降低隐写术的统计可检测性。在实 际 隐 写 方 案 中,可 以 利 用 伴 随 式 矩 阵 编 码(STC)3来逼近理论有效负载失真边界。

8、因此,实际隐写术的剩余工作就是设计一个合理的代价损失函数,从而为每个变化的图像元素提供一个精确的失真度量。一个更合理的失真函数会带来更好的隐写安全性,因此如何设计一个更加合理的代价损失函数成为一个重要的研究课题4-6。隐写分析作为与隐写术功能相反的技术,用于检测载体中是否含有秘密信息。尽管一些隐写分析方法通过结合监督学习方案和手工制作的高维统计特征或选择信息感知技术,如空间富模型 SRM7及其变体 max-SRMd28可以显著提高检测性能,但精心设计的失真函数依旧可以获得很好的323隐蔽性。并且随着深度学习的发展,研究人员试图将神经网络引入隐写分析领域,利用手工精心制作的网络结构并结合隐写分析

9、特征领域的知识,从而实现更好的隐写检测性,这对隐写术提出了重大挑战。最近提出基于深度学习的隐写方案,通过交替更新 GAN(Generative Adversarial Network)中的编码-解码网络来分别实现秘密信息的嵌入和提取9-12,然而由于无法保证秘密信息的无差错恢复,它们的应用一直受到限制。与上述工作不同,Tang 等13基于现有的自适应隐写算法的思想,提出自动隐写失真代价学习框架 ASDL-GAN,这是生成对抗网络自动学习图像隐写失真的首次应用,它改变了传统的根据先验知识手工设计隐写失真函数的观念,从而减少了人为设计的因素,为生成对抗网络在隐写领域的应用开拓了新的方向。但是由于这

10、是生成对抗网络在该领域的初次探索,在时间复杂度和隐写安全性上仍存在很大的改进空间。Yang 等14在此框架的基础上进行改进,并使用 Tanh 激活函数加快训练速度,使得抗隐写分析能力显著提高。然而以上基于生成对抗神经网络的图像隐写方案均存在一个明显的不足,他们均忽略了网络在生成隐写图像时的计算冗余度高、局部信息丢失严重、分辨率下降等问题。由于隐写操作对像素的修改很小,使用大步伐的卷积操作容易导致神经网络忽略图像细微的变化,从而极大地影响生成网络对隐写图像的生成。基于上述讨论,本文提出多层次特征融合的生成对抗网络图像隐写方法,弥补网络在特征提取过程中的信息丢失问题,进而使得生成的隐写图像隐蔽性更

11、强,全面提高图像隐写安全性。本文主要贡献如下:1)简化生成对抗网络结构,实现图像隐写失真代价自学习,使得生成隐写图像尽可能接近真实标签,提升图像生成效率;2)增强特征提取准确性,融合生成网络中多层次特征信息,有效地增加生成网络对载体图像细粒度和粗粒度信息的感知,解决生成网络中局部特征信息丢失问题,进一步提升隐写性能;3)引入更强的隐写分析器作为判别网络,提高判别网络的有效性,使网络训练的参数能更好的表达失真度量,增强生成对抗网络的整体性能。2 相关研究在基于 GAN 的图像隐写模型中,嵌入秘密信息的失真代价可以通过两个子网相互竞争的对抗网络来学习。文献13首次提出了一种基于 GAN 的自动隐写

12、失真学习框架(称为 ASDL-GAN)。在此框架下,利用 25 组卷积构建生成网络,将 XuNet15作为判别网络,之后通过构建合理的损失函数和嵌入模拟器使 GAN 可以自动学习隐写失真代价。训练 GAN 模型收敛后,将得到的失真函数结合 STC 编码方法完成实际的秘密信息嵌入和提取过程。ASDL-GAN 隐写方案的优势在于首次提出将概率图转化为代价图并构建损失函数使得代价可以进行反向传播。与此同时该方案仍存在以下的不足。1)TES 嵌入模拟器采用了需要预训练的神经网络,该网络耗费时间长。2)由 25 层卷积层构成的生成网络无法有效的捕捉图像纹理细节。因此,该隐写方案仍存在提升的空间。文献14

13、在此基础上,进一步做了如下的改进,他们提出使用 Tanh 激活函数代替 TES 神经网络模拟信息的嵌入的方法(称为 UT-GAN),改善了 ASDL-GAN 方案中 TES 嵌入模拟器耗费时长和需要预训练的问题。Tanh 嵌入模拟器根据(1)进行设计。其中给定修改概率 pi,j(pi,j(0,0.5)与秘密信息随机数 si,j(si,j0,1)作为输入,嵌入模拟器输出相应的修改值 mi,j(mi,j+1,0,-1)。mi,j=12Tanh(pi,j-2 (1-si,j)-Tanh(pi,j-2 si,j)(1)与此同时 Yang 还提出了一种基于 U-Net16结构的生成网络,该生成网络相比于

14、 ASDL-GAN 的生成网络具有更好的边缘轮廓信息捕捉能力。得益于上述两点改进,Yang 提出的 UT-GAN 方案具有更好的隐写安全性。但是 UT-GAN仍有些许不足,因为根据原始 U-Net 构造的生成网络仍然存在细粒度信息丢失的问题,这会导致失真代价训练忽视图像细致的纹理信息,从而使得失真代价无法得到充分训练,进一步影响隐写的隐蔽性。因此本文对原始 U-Net 结构进行多层次特征融合,重构生成网络实现对载体图像粗粒度和细粒度的信息补偿作用,使用经过信息补偿的对抗网络,生成载体图像每个像素的代价损失,最终获得更好的隐写鲁棒性和隐写隐蔽性。3 多层次特征融合的对抗网络图像隐写方法3.1 总

15、体介绍本文设计了一个由两部分组成的总体失真代价计算模型:多层次特征融合结构的隐写图像生成网络和代价更新判别网络。在隐写图像生成网络中,首先在收缩路径各层嵌入卷积与池化操作改进网络结构,在减少冗余计算与参数量的基础上防止梯度消失;之后通过在扩展路径中添加连接层融合多层次特征,聚集不同层次特征的表达信息,对网络进行信息补偿;代价更新判别网络使用设计好的判别网络、嵌入模拟器以及损失函数配合生成网络进行代价的迭代更新,从而获得载体图像中每个像素的代价损失。在设计好总体失真代价计算模型后,将训练得到的像素代价损失,最终利用嵌入模拟器生成隐写图像。总体框架如图 1 所示。3.2 重构隐写图像生成网络生成网

16、络由收缩路径和扩展路径组成。由于网络浅层纹理信息丰富、图像分辨率高,但语义性较低、噪声较多。而深层信息语义性强,但对细节信息感知能力差。因此本文通423图 1 本文网络整体结构图过多层次特征融合将对应层的特征信息进行连接,使得生成网络可以同时捕捉到浅层的纹理信息和深层的语义信息。ASDL-GAN 和 UT-GAN 中的生成网络在卷积过程中均存在信息丢失的问题,忽略了通道间的信息表达。其中 ASDL-GAN(如图 2(a)使用多个卷积层连接很难准确捕捉图像深层语义信息,UT-GAN(如图 2(b)引进 U 型网络结构,但忽略了图像浅层纹理信息。图 2(a)ASDL-GAN 生成网络结构因此,上述

17、网络结构均存在局部信息丢失问题,为进一步获得不同层次的语义特征,本文提出的重构生成网络结构图 2(b)UT-GAN 生成网络结构(如图 3),使用多层次特征融合技术,使得生成器网络在捕捉图像深层语义信息的基础上,对图像的不同维度的特征信息进行多层次融合,从而充分捕捉图像各个层次的信息,这是改善网络性能的关键。因此,本文构建的多层次特征融合生成网络模型可以获得更好的整体性能,具体如下:1)生成网络由 M(M=16)个操作组组成,前 8 组组成收缩路径,每组由尺寸为 3、步长为 1 的卷积层、批处理归一化层(Batch Normalization)、Leaky-ReLU 激活函数、尺寸为 2,步长

18、为 2 的最大池化层组成,经过 8 层收缩路径后得到 12811 的特征图;后 8 组组成扩展路径,每组由步长为 2、尺寸为3 的反卷积层、ReLU 激活函数、批处理归一化层(Batch Nor-malization)、Dropout、Concat 操作、尺寸为 1、步长为 1 的卷积层组成,得到与输入图像大小相同的特征图。2)扩展路径添加 Concat 操作,跳跃连接对应收缩层中的通道数不同的多尺度特征,实现多层次特征信息融合。扩展路径第 n(n9,16)层融合收缩路径中第(M-n+1)层卷积后的特征(单层)与第(M-n)层池化处理后的特征(双层)、第(M-n)层卷积得到特征,最终实现(3

19、层)多层次特征融合(如图 3)。因为第 3 层特征与前两层的特征大小不同,因此需要添加尺寸为 1,步长为 2 的卷积层将特征尺度归一化。如图 3 所示,第 9 层中添加连接层跳跃连接融合第 8 层卷积后的特征、第 7 层池化后的特征以及第 7 层卷积得到特征经过步长为 2 的卷积得到的特征。3)扩展路径中添加 Dropout 操作,防止过拟合,提高模型泛化能力。4)多层次特征融合后特征通道数增加,为减少运算量,在连接层之后通过尺寸为 1、步长为 1 的卷积层减少通道数。3.3 代价更新判别网络判别网络和生成网络共同配合损失函数完成对抗网络523图 3 Proposed-GAN 生成网络结构代价

20、更新。判别网络在本质上充当了隐写分析的作用,用作隐写图像和载体图像的区分。也就是说,现有的基于神经网络的隐写分析器均可以作为判别网络。理论上说,更强的判别网络通过对抗训练可以使隐写更加安全,通过生成网络与判别网络相互竞争,可以有效地训练整个网络。ASDL-GAN、UT-GAN 均使用 XuNet 作为判别网络,该判别网络是Xu 等人在 2016 年提出的隐写分析器,虽然它与 SRM 高维特征隐写分析器相当的性能,但后续提出的隐写分析器均具有更好的隐写分析性能,因此本文使用性能更好的隐写分析网络,进而提高整个生成对抗网络的隐写安全性。经过多次对比实验,最终使用 YeNet17隐写分析器作为本文的

21、判别网络。由于隐写的本质是对图像的像素进行非常轻微的修改,因此图像原始的内容会极大的影响隐写分析器的判断。所以,使用高通滤波滤除图像的低频内容,保留高频成分,提高“信噪比”,从而可以提高判别网络的鉴别有效性,使训练参数可以更好的表示失真度的测量。从 SRM 中引入了 12 个高通滤波器,对载体图像和隐写图像进行残差过滤,经过高通滤波后的残差可以对隐写操作更为敏感并且可以加快网络收敛速度。在训练过程中,生成网络通过调整参数抵抗判别网络的隐写分析,判别网络通过调整参数来判断生成网络的结果。当过程收敛时,最终的参数用于计算每个像素的嵌入失真代价。3.4 损失函数损失函数是用来调节生成网络和判别网络中

22、神经元更新的影响因素。本文损失函数 loss_total 由生成网络的损失与判别网络的损失两部分组成。判别网络损失 loss_dis 结合二值交叉熵损失计算即loss_dis=-2i=1yilog(xi)(2)其中 x 为判别网络的预测值,y 为目标输出。生成网络损失具体计算如下:1)通过生成网络的输出 pi,j计算像素 xi,j加 1、减 1 与不变的概率 p+1i,j、p-1i,j与 p0i,jp0i,j=1-pi,j(3)p-1i,j=p+1i,j=pi,j/2(4)2)计算载体图像中嵌入有效载荷的容量 CC=Hi=1Wj=1-p+1i,jlog2p+1i,j-p0i,jlog2p0i,

23、j-p-1i,jlog2p-1i,j()(5)3)计算损失 loss1_gen 与 loss2_genloss1_gen=2i=1yilog(xi)(6)loss2_gen=(C-H W Q)2(7)其中 loss1_gen 使隐写图像难以被判别网络检测、loss2_gen 保证隐写图像嵌入有效载荷接近嵌入率 Q,H、W 为图像的高度和宽度。4)生成网络损失 loss_genloss_gen=loss1_gen+loss2_gen(8)和 设置为 10-7和 0.1。网络的总损失 loss_totalloss_total=loss_gen+loss_dis(9)4 实验结果与分析4.1 实验环

24、境本文使用的实验环境为 windows10 操作系统,采用深度学习框架 Tensorflow1.13.1-gpu、CUDA10.0、CUDNN11.0 进行网络搭建以及模型的训练、测试与验证。本文采用 DELLW-2102 工 作 站;CPU:intel i7-9700k;GPU:RTX2080;RAM:16GB。4.2 实验设置为验证模型性能,选择 Places365-Standard18、BOSSBasev1.0119两个公开的数据集对所提出的方法进行评价。Place365-Standard 包含百万张大尺寸的原始 JPEG 图像。BOSSBase v1.01 包含 10000 张 512

25、512 尺寸的灰度图像。使用 matlab 中的“rgb2gray”函数和“imresize”函数将两数据集图像转换为 PGM、256256 尺寸统一规格的灰度图像。本文从 Place365-Standard 中随机选择 50000 张图像,40000 张作为训练集,剩余作为验证集,BOSSBase v1.01 作为测试集。网络训练选择学习率为 10-4的 Adam 优化器进行迭代训练,每次迭代输入 8 幅载体图像(BatchSize=8),epoch=70。同时训练时使用正态分布的随机初始化对网络中的权重进行初始化。每次训练流程包括:1)将载体图像分为若干批(BatchSize)输入生成器,

26、得到623修改概率图。使用 Tanh 嵌入模拟器组合修改概率图和随机数生成嵌入修改图。生成器在载体图像上应用相应的嵌入修改图生成隐写图像。2)载体图像与隐写图像组合输入判别器。判别器通过Adam 优化器使用最小批梯度下降算法,交替更新参数。4.3 实验结果从 BOSSBase 中随机选择一张图像“1013.pgm”,测试结果如图 4 所示。其中(b)、(d)、(f)分别是 UT-GAN 在0.4bpp 嵌入率下的修改概率图、嵌入修改图、隐写图像;(c)、(e)、(g)分别是本文在 0.4pp 嵌入率下的修改概率图、嵌入修改图、隐写图像。图 4 测试结果图 4(a)载体图像 1013.pgm,(

27、b)、(d)、(f)分别是 UT-GAN 在 0.4bpp 嵌入率下的修改概率图、嵌入修改图、隐写图像;(c)、(e)、(g)分别是本文在 0.4bpp 嵌入率下的修改概率图、嵌入修改图、隐写图像。从实验结果可看出,经过多层次特征融合后,生成网络对纹理区域的像素赋予了更低的修改代价。从载体图像修改概率图可看出,本文更倾向于在纹理复杂的地方进行修改,本文相比于 UT-GAN 在纹理区域修改的像素更加集中,在纹理复杂度高的地方进行秘密信息的嵌入会让图像隐写安全性更高。4.4 不同算法对比为体现本文对像素失真代价调整的整体优势,本文与当前效果较好的传统隐写算法 HILL21、WOW4、S-UNI-W

28、ARD5和基于深度学习的隐写算法 ASDL-GAN13、UT-GAN14进行对比。所有算法均采用相同的训练集与测试集与原论文相同的参数,在 0.10.4bpp 嵌入率下使用隐写分析特征 SRM、maxSRM 与集成分类器(EC)20结合的隐写分析方法进行隐写分析检测,评估算法的安全性能,结果如图 5所示。其中错误率越高表明抗隐写分析能力越强即安全性越高。图 5(a)、(b)、(c)分别为本文与传统方法和深度学习方法分别使用 SRM7、maxSRM8、YeNet17检测错误率。图 5 检测结果从中可以看出,与传统算法相比本文的安全性能仍然无法全面超越所有传统的隐写算法,因为传统的隐写方法采用手工

29、设计失真函数计算像素失真代价,手工设计的失真函数是基于启发性的,并不适用于所有的载体图像;与此同时自然图像具有纹理不可统计性,因此手工设计的失真函数在根723本上具有局限性。本文采用生成对抗网络对像素代价进行分配,生成网络可以根据不同的图像特征进行自适应代价调整,因此对载体图像的代价分配更加合理,从而实现更高的隐写安全性与鲁棒性。本文比上述现有的基于深度学习隐写方法的综合安全性能更高。本文生成网络采用多层次特征融合后相比于 UT-GAN 具有更好的隐写隐蔽性,这是由于 ASDL-GAN 和 UT-GAN 的生成网络在多重卷积过程会产生大量局部信息丢失,其中 ASDL-GAN 使用多个重复的卷积

30、层连接很难捕捉到图像的深层语义信息,UT-GAN 忽略了图像浅层纹理信息。本文使用多层次特征融合改进上述两种方案,将多个浅层特征与深层特征进行融合,起到信息补偿的作用,提高了网络对不同层次特征的提取能力,其在相同数据集上的隐写性能较其它算法更为均衡,生成的隐写图像更接近真实的标签图。对于抵抗 SRM 与 maxSRM 检测,本文在不同嵌入率下相比ASDL-GAN、UT-GAN 也均有一定程度安全性的提升。为更形象地比较不同方法的性能,使用受试者工作特征曲线 ROC(receiver operating characteristic)及相应 AUC(areaunder curve)值。ROC 是

31、度量分类均衡的工具,用来比较算法性能。在 0.4bpp 嵌入率下使用相同的训练集与测试集,通过 SRM+EC 隐写分析模型进行隐写分析检测。如图 6所示。图 6 不同隐写方法的 ROC 曲线图中较低的 ROC 曲线 AUC 值更小,本文相比 ASDL-GAN 与 UT-GAN 的 AUC 值均更低,意味着隐写方法更安全,不易手工检测。综合来看,本文比 ASDL-GAN 与 UT-GAN 有更好的安全性能。4.5 实际隐写性能为验证隐写算法在实际应用时的安全性,本文使用 STC编码方法代替嵌入模拟器 tanh,实际嵌入秘密信息。根据(10)由生成网络输出的修改概率图计算相应的失真代价。i,j=l

32、n(2/pi,j-2)(10)使 用 SRM、maxSRM、YeNet 评 估 算 法 在 0.1bpp 与0.4bpp 嵌入率下的实际隐写安全性,性能评估结果如表 1所示。表 1 使用 STC 嵌入不同隐写方法安全性比较(/%)嵌入率方法SRMmaxSRMYeNet0.1bppS-UNIWARD41.3137.3443.29ASDL-GAN35.4429.6341.18UT-GAN41.1538.3443.34Proposed-GAN43.4741.5246.660.4bppS-UNIWARD20.3416.7423.31ASDL-GAN21.3116.3627.56UT-GAN26.142

33、3.4430.72Proposed-GAN30.3526.2134.61 结果显示,在 STC 实际嵌入下方案的安全性虽然有所下降,但是本文的安全性仍高于 ASDL-GAN 与 UT-GAN,综合性能得到提升。4.6 训练时间为测试计算效率,本文与上述两种基于深度学习的图像隐写方法进行模型训练时间比较,训练时间如表 2 所示。实验均在戴尔 W-2102 工作站使用上述数据集进行训练、测试,以 epoch=1 为例。表 2 训练时间比较(/h)方法ASDL-GANUT-GANProposed-GAN时间15.155.467.34 本文比 ASDL-GAN 的训练时间减少一半,这是由于本文的生成网

34、络提取的的特征从 11 到 256256 大小不等,而ASDL-GAN 的生成网络提取的特征一直保持在 256256 不变;本文比 UT-GAN 训练时间有所增加,这是因为在每次迭代都要进行多层次特征融合,而增加额外的处理步骤,因此增加训练时间的开销。4.7 消融实验为验证本文的有效性,本节进行相关消融实验。如表 3所示,无融合为未进行特征融合的生成网络结构;单一融合为在本文基础上去除多层次特征融合模块仅进行单一特征的连接构成生成网络结构,多层次融合为本文多层次特征融合的生成网络结构。均使用与本文相同的判别网络、嵌入模拟器,三种网络结构在 0.4bpp 嵌入率下生成隐写图像,使用SRM、max

35、SRM 检测隐写安全性。表 3 不同融合方式安全性比较(/%)方法无融合单一融合多层次融合SRM20.0523.9830.05maxSRM19.8821.7627.58 由表 3 可看出,本文的多层次特征融合生成网络结构对于图像隐写安全性的提高显著,图像隐写安全性大大提高。5 结语本文以提高生成对抗网络图像隐写安全性为切入点,提823出在生成网络中进行多层次特征融合,使生成的代价图更加合理,改善网络不能同时捕捉细致纹理信息和语义信息产生的局部信息丢失问题;引入 YeNet 隐写分析器作为判别网络,进一步提升图像的隐写隐蔽性。使基于对抗网络的图像隐写安全性大大提高。本方案还有以下几个值得进一步探

36、讨的方向。1)可以结合信道选择技术使生成网络快速收敛,缩短模型训练的时间;2)该类隐写方法对载体图像的训练需求量较大,如何减少图片样本的训练量是一个值得进一步探讨的方向。参考文献:1 吴贤城,周子凌,李振军,等.对抗隐写分析滤波器残差提取的图像隐写算法J.计算机应用,2019,39(S2):q52-155.2 Fridrich J.Steganography in digital media:principles,algorithms,and applicationsM.Cambridge University Press,2009.3 Filler T,Judas J,Fridrich J.

37、Minimizing additive distortion in steg-anography using syndrome-trellis codesJ.IEEE Trans.Inf.Fo-rensics Secur.2011,6(3):920-935.4 Vojtch Holub,Fridrich J.Designing steganographic distortionusing directional filtersC.IEEE International Workshop on Infor-mation Forensics&Security.IEEE,2012.5Vojtch Ho

38、lub,Fridrich J,Tom Denemark.Universal distortionfunction for steganography in an arbitrary domainJ.Eurasip Jour-nal on Information Security,2014,(1):1.6 Li B,Wang M,Huang J,et al.A new cost function for spatial im-age steganographyC.2014 IEEE International Conference on Im-age Processing(ICIP).IEEE,

39、2014:4206-4210.7 Fridrich,J,Kodovsky J.Rich models for steganalysis of digital im-agesJ.IEEE Trans.Inf.Forensics Secur.2012,7(3):868-882.8 T Denemark,V Sedighi,V Holub,R Cogranne,and J Fridrich.Selection-channel-aware rich model for steganalysis of digital ima-ges C.in Proc.IEEE Int.Workshop Inf.For

40、ensics Security(WIFS),Dec.2014:48-53.9 竺乐庆,郭钰,莫凌强,等.DGANS:基于双重生成式对抗网络的稳健图像隐写模型J.通信学报,2020,(1).10 Hayes J,Danezis G.Generating steganographic images via adver-sarial trainingJ.arXiv preprint arXiv:1703.00371,2017.11Zhu J,Kaplan R,Johnson J,et al.Hidden:Hiding data withdeep networksC.Proceedings of th

41、e European conference oncomputer vision(ECCV).2018:657-672.12 Zhang K A,Cuesta-Infante A,Xu L,et al.SteganoGAN:Highcapacity image steganography with GANs J.arXiv preprintarXiv:1901.03892,2019.13 Tang W,Tan S,Li B,et al.Automatic Steganographic DistortionLearning Using a Generative Adversarial Networ

42、k J.IEEESignal Processing Letters,2017,24(99):1547-1551.14 Yang J,Ruan D,Huang J,et al.An Embedding Cost LearningFramework Using GANJ.IEEE Transactions on Information Fo-rensics and Security,2019,15(99):839-851.15 Xu G,Wu H Z,Shi Y Q.Structural Design of ConvolutionalNeural Networks for Steganalysis

43、J.IEEE Signal Processing Let-ters,2016:708-712.16 Ronneberger O,Fischer P,Brox T.U-net:Convolutional net-works for biomedical image segmentationC.International Con-ference on Medical image computing and computer-assisted inter-vention.Springer,Cham,2015:234-241.17 Ye Jian,J Ni and Y Yi.Deep Learning

44、 Hierarchical Representa-tions for Image SteganalysisJ.IEEE Transactions on InformationForensics and Security,2017,12:2545-2557.18 Places365-Standard(2019).http:places2.csail.mit.edu/down-load.html.Accessed Mar 201919 DDEDownload(2019).http:dde.binghamton.edu/download/.Accessed Mar 201920 Kodovsky J

45、,Fridrich J,Holub V.Ensemble Classifiers for Stega-nalysis of Digital MediaJ.IEEE Transactions on InformationForensics&Security,2012,7(2):432-444.21 Li B,Wang M,Huang J,et al.A new cost function for spatialimage steganographyC.2014 IEEE International Conference onImage Processing(ICIP).IEEE,2014:4206-4210.作者简介张 震(1996-),男(汉族),山东省烟台市人,硕士研究生,主要研究领域为信息安全、图像信息隐藏。王 真(1980-),女(汉族),上海市人,副教授,博士,硕士研究生导师,主要研究领域为信息安全(通讯作者)。923

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服