资源描述
以数字图像为载体的隐写分析研究进展
摘 要:隐写和反隐写的对抗是关系到信息安全的重要课题。本文针对常用隐写载体之一即数字图像,回顾反隐写技术的最新进展。根据隐写技术快速发展对反隐写研究提出的挑战,对近几年提出的新方法和新思路进行梳理和归纳,给出系统和扼要的评述,供隐写和反隐写研究者参考。重点围绕三方面展开讨论:对于克服了统计不对称性的LSB匹配嵌入法如何进行有效的检测或嵌入率估计;对于小嵌入率隐写进行分析的研究中有哪些进展;面对层出不穷的隐写新方法,如何实现不针对具体嵌入算法的通用隐写分析。对于反隐写研究的发展趋势和面临的新问题也作了讨论。
关键词:隐写,隐写分析,LSB匹配,隐写嵌入率,通用隐写分析
1.引言
自上世纪90年代初以来,信息隐藏作为信息安全中的重要课题引起了国际学术界的重视。首先是对保护多媒体产品版权的数字水印研究急剧升温,公开发表的论文呈指数规律逐年上升,不少开发数字水印产品的公司应运而生。目前数字水印技术的发展势头有增无已。
对信息隐藏另一重要领域即数字隐写(steganography)的研究也随之跟上,很早就出现了一些简单的隐写方法[1]。到世纪之交开始了对这一领域的广泛探索。隐写是以表面上正常的数字载体如图像、音频和视频等作为掩护,在其中嵌入秘密信息,隐藏的数据既不改变载体信号的视听觉效果,也不改变计算机文件的大小和格式,因而可实现不为人知的隐蔽通信。含密媒体通常与大量正常媒体资料混在一起,通过各种渠道特别是互联网传播。不同于传统密码通信的是,“正在进行通信”这一事实本身也被隐藏起来了,因而可用于重要消息的安全传递。
随着信息隐藏技术的快速发展,大量隐写方法涌现出来,人们可以方便地获取和使用多种隐写工具。然而对这些工具的滥用却严重威胁着网络信息安全,因此研究反隐写技术是有关领域研究者面临的紧迫任务。最重要的反隐写技术是隐写分析(stegananalysis),也就是根据载体的统计特性判断其中是否含有额外的隐蔽信息。隐写分析也可以包括“定量分析”(quantitative steganalysis)或“主动分析”(active steganalysis)[2],即除了检测秘密信息的存在性,还要估计嵌入的秘密信息量[3]、估计密钥[4]、识别所用的隐写工具、截获隐蔽信息等。
隐蔽信息的截获被认为是隐写分析的终极目标,但目前关于这方面的研究进展报道非常罕见。以检测有无可疑嵌入信息、估计嵌入数据量为基本目标的隐写分析迄今为止仍是最重要的反隐写措施。实际上对隐写的有效分析要比隐写本身更困难,这是因为各类数字载体数量巨大,嵌入方法千变万化,从中搜寻隐蔽信息犹如大海捞针。隐写存在性检测的重要意义在于:一旦数字媒体中含有隐蔽信息的事实受到怀疑,隐写行为即告失败。成功的隐写分析是追踪信息源头、切断敌对隐蔽信道的前提。另外还可以根据检测结果实施主动攻击(active attack),删除嵌入信息或使之不能被提取,达到阻止隐蔽通信的目的。
隐写和反隐写的对抗是网络时代信息战的重要内容之一[5],在这一相对年轻的研究领域中已涌现了大量的成果。历年来人们从不同的角度对前期研究情况进行过概括和综述[6-11],提供了有价值的参考资料。由于相关研究的发展速度很快,有必要对近几来的最新研究情况进行归纳和梳理,着重讨论一些重要的发展方向,供研究者参考。我们根据隐写技术的新发展对反隐写研究提出的挑战,探讨隐写分析中针对若干难题的最新研究动态。可用于隐写的载体中,以数字图像的使用最为广泛。本文主要讨论以图像为载体的隐写分析问题,其中包括未经压缩和曾经过JPEG压缩而又保存为非压缩格式的情况。对JPEG格式图像的隐写分析涉及较少,有关问题将另外单独考虑。第2节简要回顾早期隐写分析方法,第3~5节讨论近年来具有代表性的新进展,分别考虑对LSB匹配嵌入的分析技术、对小嵌入量的隐写分析、不针对具体嵌入方法的通用检测这三个主要问题。近年来在隐写技术的改进和实际应用方面还出现了一些新的动向和新的思路,向反隐写研究者提出了亟待解决的新课题,我们将在第6节对此进行扼要的阐述。第7节是本文小结。
2.早期隐写分析研究概况
早期隐写方法(如简单LSB替换、EzStego、J-Steg、JP Hide & Seek、OutGuess、Jpeg-Jsteg、F5等)大多可保证优良的含密图像视觉质量,通过视觉无法察觉疑点。但由于对统计特性考虑较少,这些方法很快就被证明在嵌入量足够大的情况下在统计上是不安全的。
简单LSB替换方法虽然仅对载体图像进行微小的修改,但仍会在最低位面产生某些异常特性而容易被识别出来。这首先是因为图像最低位并不总是0和1的均匀随机分布,在某些区域呈现与内容有关的结构,LSB替换会破坏这种结构。不仅如此,简单地用隐蔽数据替换LSB还会引入统计上的不对称性,为分析者提供了可靠检测的线索。很早就出现了针对LSB嵌入法的有效检测方法。例如Westfeld等[12]不仅对某些隐写图像的最低位面方法进行了视觉检测,还提出直方图分析法,利用信息嵌入后每一对象素灰度、颜色指数、变换系数值分布趋于均匀的性质设计c2检验,对有无隐写进行判断,并估计隐蔽数据长度。虽然通过改进设计嵌入方法能保持像素对的值不变从而挫败这种分析[13],但很快就又被成功地检测出来[14]。
Fridrich等人的RS分析法[15][16]利用图像空间相关性导出灵敏的双重统计量。他们指出图像LSB可在一定程度上由其它位面预测,篡改LSB会削弱这种可预测性,从而导致有效的隐写分析。研究还表明,在JPEG图像中进行空域嵌入会改变量化引起的数据统计结构,因而容易被识破[17]。LSB隐写不仅可直接修改像素本身,也可在变换域实现,因此也适用于JPEG图像。常用的J-Steg是对JPEG图像中分块DCT的某些量化系数值进行LSB嵌入,因此也可用类似的分析方法进行成功的检测。研究者又指出,在DCT量化系数上进行LSB隐写会增加块效应,通过构造参考图像可估计原始DCT系数直方图[14]。针对一种经过多次改进的JPEG图像隐写方法F5[18],在水平和垂直两个方向分别剪裁4个像素,用原来的量化表对重新得到的8´8分块进行量化,通过与待检测图像的比较,判断DCT量化系数的直方图是否收缩实现了成功的分析[19]。
张涛和平西建于2003年提出基于差分图像直方图的检测方法[20],他们将待测图像的LSB位面置0,将其差分直方图与待检测图像的差分直方图相比较,可由某一转换系数导出用于判断LSB是否被秘密信息替换过的物理量,而且这个量与嵌入数据量之间存在一定的关系,因而可以估计出隐蔽信息的长度。
一种对LSB嵌入法的改进是位面复杂度分割(BPCS),将载体多个位面分成大小相等的块,用复杂度高的位面小块承载秘密信息[21]。但含密图像的位面小块复杂度直方图存在两个明显的不连续点,据此可实现对BPCS 隐写的分析[22],由复杂度直方图的不连续性可判断秘密信息存在性,并确定秘密信息块的复杂度范围,测算秘密信息嵌入量。该方法也适用于变换域位面复杂度分割隐写。
调色板图像也是常用隐写载体,调整调色板中的颜色可降低隐写失真,但调色板异常会引起监控者的怀疑[23][24]。另一种方法是不改变调色板,而将颜色进行奇偶分配用以代表秘密数据[25],但通过最低位面混乱度和逆嵌入操作后的奇异颜色像素个数可察觉秘密信息的存在[26]。另外还可用一种称为Pair Analysis的高阶统计量方法对典型的调色板图像隐写工具EzStego进行分析并估计信息嵌入量,可检测的最小信息量为每像素0.1比特,性能优于过去提出的c2法和RS法[27]。
早期简单隐写方法所产生的统计不对称性、直方图异常、调色板异常等现象已能被多种方法检测出来,因此在某种意义上这些方法早已不再安全。但是随着反隐写研究的发展,改进的嵌入方法很快地出现,克服了早期技术的明显缺陷。例如用匹配嵌入的方法消除LSB替换所引入的统计不对称性就使统计分析更为困难。即使最简单的LSB替换,当嵌入量很小时,要可靠检测还是一个难题。解决这一难题仍有现实意义,因为LSB替换极容易实现,有研究者指出只需一条Unix命令而不必求助于任何隐写工具就可以进行LSB嵌入[28]。另外,嵌入方法层出不穷使得针对具体嵌入技术设计分析方法的反隐写方捉襟见肘,难以应付。所有这些都促使隐写分析技术不断地深入发展。
3.针对LSB匹配隐写的分析
LSB替换的主要安全漏洞在于仅存在2i和2i+1之间的转换,而不存在2i和2i-1之间的转换,这就导致了具有成对灰度值的像素数趋于相等的现象。避免这种统计异常性的最简单方法就是LSB匹配嵌入[29]:当嵌入的比特与像素值最低位相同时,像素值不变;不同时随机选择+1或-1。于是上述两种转换以相等的概率出现,统计不对称现象不再存在,而引起的图像失真却不变。嵌入信息的提取和简单LSB替换时一样,只要取出最低位面就可以了。LSB匹配嵌入又常被称为±1隐写。本节着重讨论对像素域LSB匹配嵌入的分析,包括图像是否曾经被JPEG压缩过两种情况。
Westfeld提出了一种基于统计相邻颜色数的分析方法[30],可检测经过JPEG压缩的彩色图像中的LSB匹配隐写。两个颜色[r1, g1, b1]和[r2, g2, b2],若满足| r1 - r2| £ 1,| g1 - g2| £ 1,| b1 - b2| £ 1,则称为相邻颜色,每种颜色最多有26种相邻颜色。JPEG载体图像中相邻颜色较少,平均为4~5种,通常最多不超过9种。用LSB匹配法嵌入数据会产生大量相邻颜色,许多颜色甚至会达到26种相邻色的极限值。计算相邻颜色的平均数,例如对于载体图像是2.20,在嵌入量为100%(每一彩色像素嵌入3比特)时上升到5.58。若以最大相邻颜色数为统计检验量[28],则对于任何经JPEG压缩过的图像,即使嵌入率低到1%也能可靠检测。但是对于从未进行过JPEG压缩的图像,或者只要对JPEG图像进行重采样,这种检测就完全失效,因为此时载体图像本身就包含具有很多相邻颜色的像素。
Harmson et al.[31]将图像直方图hC(n)的离散Fourier变换HC(k)称为直方图特征函数(histogram characteristic function, HCF)。他们认为含密图像可看作载体图像与加性噪声之和,因此含密图像的直方图hS(n)是hC(n)和噪声概率分布函数fD(n)的卷积。无论是LSB替换还是LSB匹配嵌入,引入的噪声均具有下列概率分布:
(1)
其离散Fourier变换FD(k) = cos2(pk/N)在k = 0, 1, ... , N/2内从1单调下降至0,因此含密图像的HCF总是小于载体图像的HCF:
(2)
下标C表示载体,S表示隐写。k是“直方图谱”的自变量,物理意义不直观。考虑kÎ[0, 1, ... , N/2]的总效果,定义HCF的质心(center of mass, COM)如下:
(3)
可利用下列不等式实现对含密图像的检测:
(4)
直方图特征函数(HCF)及其质心(COM)的概念建立在加性噪声模型上,可成为检测LSB匹配隐写的基础。Ker在此基础上发展了一组有效的方法,以下着重讨论Ker的分析技术。
Ker在[32]中指出,Harmsen的方法直接用于对灰度图像LSB匹配隐写的盲检测并不成功,这是因为不同载体图像之间的C[H]差异太大,通常超过载体和含密图像C[H]之间的差异(见图1),在没有原始载体图像的情况下检测器是无法知道C[HC]的。
图1嵌入数据前(圆点)后(叉形)图像的C[H]值变化[32]
为此,Ker通过计算2´2像素块的平均值将载体图像和含密图像分别缩小到原来的1/4。载体图像缩小后C[HC]总体上没有变化。对于用LSB匹配嵌入的含密图像,C[H*S]还是小于C[H*C],只是变小的程度有所下降(上标星号表示亚取样缩小图像)。由于C[HC]/C[H*C]对不同载体图像基本一致,因此用C[H]/C[H*]作隐写检测的统计量便实现了对COM的校正,消除了不同载体的影响。
由于灰度图像仅有256种不同的灰度值(远少于彩色图像中的颜色种类),因此直方图十分稀疏,使得基于HCF的方法效果不佳。Ker引入的第二项改进是计算相邻像素的二维直方图:
(5)
相应地用二维DFT定义HCF和COM。经改进,对LSB匹配的检测性能(receive operating characteristic, ROC)如图2示[32],其中左图由20,000幅曾经JPEG压缩的图像得到,右图由3,000幅从未压缩过的图像得到,嵌入率均为100%。浅色实线为HCF COM方法,带圆点的浅色线为经校正的HCF COM法,深色实线为基于二维直方图的HCF COM方法,带圆点的深色线为经过校正并用二维直方图的HCF COM方法。可见在虚警概率小于10%的条件下,校正的二维直方图HCF COM性能最佳。
由图2可知,对于曾经JPEG压缩过的图像,当LSB匹配嵌入量很大时已能可靠检测,对从未压缩过的图像也能进行检测,不过性能较差。由于是基于加性噪声模型的,该方法也可对其他隐写方法产生的含密图像进行检测,但对于小嵌入量无效。
图2 隐写分析性能:横轴为虚警概率,纵轴为检测概率[32]
在应用HCF COM检测彩色图像中的LSB匹配隐写时遇到了计算复杂度的困难[30],因为涉及到的颜色数量为2563,DFT的计算时间复杂度为O(N 3 log N),将这种基本的HCF COM方法记为C1´3D。为了降低计算复杂度,Harmsen曾建议分别考虑RGB三色,计算3个一维HCF,由3个COM构成三维统计检验向量(记为C3´1D),时间复杂度下降为O(N log N);或者将3种颜色两两组合成RG、GB、BR,计算3个二维直方图的DFT,将3个二维COM组合成6维统计检验向量(记为C3´2D),时间复杂度为O(N2 log N)[33]。Ker对这几种不同的HCF COM实现方法进行了大量测试比较,发现C3´1D的性能很差,而C3´2D则接近于基本的C1´3D,这几种方法均能有效检测嵌入量为30%~100%的曾经JPEG压缩图像,也能检测JPEG后又重新采样的图像,对从未压缩过的图像则只能检测接近100%嵌入率的图像。可见这种方法优于Westfeld[30]的早期方法。
在[28]中,Ker将对Harmsen方法的改进(COM的载体图像校正和二维直方图[32])扩展到彩色图像。由于计算平均颜色时引入的舍入误差使得用于黑白图像的2´2像素组平均法对于彩色图像效果不佳,因此改为水平方向的图像“压扁”:
(6)
显然,在对压扁的图像C'计算HCF COM时,涉及的灰度值范围会加倍,使DFT的计算量大增。Ker将三个颜色通道相加成为一维信号,因为他认为LSB匹配嵌入使各颜色分量独立地加入了同样强度的噪声。实验表明,这种检测器能有效检测5%的嵌入率,对于JPEG压缩后又改变尺寸的图像,可检测50%的嵌入率,但是对从未压缩过的图像检测效果不佳。对于未经过JPEG压缩的图像检测难度明显高于经过JPEG的图像,是此类隐写分析技术的共性。
综上所述,由于HCF可反映因隐写嵌入而导致的直方图变化,所以可用于检测。从最初的HCF COM,到通过亚取样实现对COM的校正,克服了无法设定阈值的困难,进而考虑二维直方图重新定义HCF COM,检测性能逐步得到提高。但是基于校正和二维直方图的HCF COM方法计算复杂度过高,为此将颜色分量进行适当的组合,使该方法可有效地用于对彩色图像的隐写分析。
对于LSB匹配嵌入的另一种分析方法是将LSB匹配嵌入看成两个集合序列之间的状态转移[34]。对于一幅可能含密的待分析图像,用自适应小波降噪法估计其原始载体,计算待检测图像和估计的载体图像平滑区域的状态转移参数,根据Kullback-Leibler距离可估计嵌入率。
4.小嵌入量隐写分析
近年来对于LSB匹配嵌入法的检测已经取得了较大的进展,特别是对曾经过JPEG压缩的图像,即使嵌入量较低也能实现有效的检测。但是与此同时,隐写嵌入方法也在不断改进。研究者在LSB匹配隐写中引入了各种编码方法,使嵌入相同数据量对载体所作的修改量减小。例如通过不同的编码技术利用LSB匹配嵌入中的随机±1嵌入额外信息,使每一像素的秘密信息承载量从1比特提高到log23比特[35-39];进一步利用次最低位而不增加嵌入引起的失真可进一步增加嵌入量[40]等。这些新方法的出现进一步提高了分析的难度,研究更为有效的检测方法是对隐写分析研究者提出的新课题。
实际上,即使是简单的LSB替换嵌入,对于低嵌入率的隐写分析仍十分困难。第3节已提到的Westfeld方法具有检测极低嵌入率的能力,但仅限于对曾经JPEG压缩而且后来未经缩放等处理的彩色图像[28][30]。
近年对小嵌入率的隐写分析有了新的进展。在早期RS和c2分析等方法之后,陆续提出了一些基于像素对的隐写分析方法[20][27][41][42],这些方法都利用了LSB嵌入法中像素组合的结构特性,其中最典型的是[41]的样本对分析法(sample pair analysis, SPA)和随后提出的对SPA的改进[42]。SPA作为LSB分析的有效方法明显优于RS法,引起了研究者的关注。随后即出现了对SPA的推广和拓展,这方面的工作以Ker的研究最具代表性。下面以此为线索讨论近年来围绕小嵌入率隐写分析所取得的进展。
Ker将这些基于像素对的方法推广为以g个像素(样本)为一组,建立了样本组分析的一般框架,并且具体讨论了g = 3的情况[43],将它称为“三元分析”(triples analysis,简称Triples)。沿水平方向取三个相邻像素为一组(包含垂直方向像素的方法给出类似结果),实验表明这种基于一般框架的三元分析在嵌入率较低时给出了优于SPA的结果。图3是对3,000幅曾经JPEG压缩(Q=75)的图像用Triples和RS、SPA估计嵌入率的结果,在不同嵌入率p下计算估值的标准差,横轴表示嵌入率p,实验中p从0到1的取值间隔为0.05。三种方法对p的估计都是无偏的,但在小嵌入率时Triples估值的标准差大大低于RS和SPA。当嵌入率大时Triples的性能不理想。
图3 对LSB嵌入率估计的标准差,小嵌入率时Triples具有明显优势[43]
Ker在此前发表的论文[44]表明,将嵌入率估计器(定量隐写分析)用于判断有无嵌入信息(二元隐写分析)时性能不一定是最佳的,因此需根据应用要求选择适当的方法,构成检测器或估计器。将Triples法用于检测图像中有无隐蔽信息时,需要消除载体图像之间差异对检测的影响。用Triples检测器对3,000幅曾经JPEG压缩(Q=75)的图像在嵌入率为2%时进行检测,得到的ROC见图4中带黑点的曲线。图中同时给出的是将Triples估计器(光滑曲线)和RS估计器(带三角的曲线)用于检测时的ROC,以及另外两种基于像素对的检测器[45]性能(带方块和星号的曲线)。若以[44]中提出的单一参数即漏检率为50%时的虚警概率大小来衡量,Triples检测器相对于其他方法的优势十分明显。此时RS估计器的虚警概率高达40%,说明已完全无效。
图4 嵌入率为2%时的Triples检测器ROC,性能最好的带黑点曲线为Triples检测器结果[43]
进一步扩展到4个像素一组时,尽管检测性能略有提高,但计算复杂度却大幅度增加[45]。由于4阶方法可提供对载体图像特性的更好描述,预计采用4阶检测器将可提供最优性能,但继续向更高阶的分析发展则意义不大。
用SPA和Triples等方法估计隐写嵌入率时,估计误差的起伏往往很大,而且受到载体图像特性差异的严重影响。对这种误差的深入研究可望给出嵌入率估计置信度,从而有效地改进估计器性能。针对SPA[41]方法的最小二乘(LMS)变种[42],Ker将它用于分析简单的LSB替换法,导出了对载体图像的估计结果分布,并由此构建了改进的加权最小二乘估计器。
Böhme和Ker对隐写嵌入率估计误差进行了实验研究[46],并针对LMS估计法进行了理论研究[47]。他们将估计误差分为两部分:由嵌入数据引起的图像内误差和由载体图像引起的图像间误差。关于误差模型将在第6节讨论。对误差的研究表明,LMS/SPA对嵌入率的估计误差呈现轻微的负偏差,对不同载体图像,分布函数有明显偏高的尾部,说明有较多的估计结果误差较大。基于LMS的分析方法在理论上导出了载体图像模型以及嵌入率估计的概率分布,对于改进LMS估计器有重要意义,其成果就是加权的最小二乘估计(WLMS),包括用于像素对的Couples/WLMS,以及推广到Triples估计器的Triples/WLMS方法[48]。
实验所比较的5种估计器为:1)等价于SPA的Couples方法;2)等价于SPA/LMS的Couples/LMS方法;3)Couples/WLMS;4)Triples/LMS;5)Triples/WLMS。图5是文献[48]给出的对两组各3,000幅图像的部分实验结果(对WLMS估计器进行了偏差校正),可见Triples/WLMS估计结果具有最小的标准差,因而性能最优。对黑白图像得到的结果与此类似。
实验中比较了7种检测器:1)标准RS检测器;2)Couples检测器;3)Couples/LSM;4)无偏差校正的Couples/WLSM;5)标准化Couples/WLSM;6)Triples/LMS;7)Triples/WMLS。对4组各3,000幅图像进行检测,表1列出了能被可靠检测的最小嵌入率,精确到0.001。所谓可靠检测是指虚警概率5%和漏检概率50%。同样可见Triples/WMLS的性能最优。
总之,通过将SPA中仅考虑基于像素对(即二元组)的分析,推广到三元组,对于小嵌入率时隐蔽信息嵌入量估计的质量明显提高了。进而推广到四元组,性能略有提高但计算量剧增,因此采用三元组是合适的。随后的进一步工作涉及对隐写嵌入率估计的误差进行研究,同样验证了三元组法的优势。
以上所讨论的隐写检测器或嵌入率估计器都是针对空域LSB方法的,载体图像是彩色或黑白位图,它们有可能曾经被JPEG压缩过,也可能从未被压缩过。近来Barbier等人提出了一种针对JPEG图像的隐写分析方法,可检测用OutGuess、F5、Hide and Seek进行极小嵌入量隐写所生成的含密图像[49]。该方法根据JPEG编码中无损压缩环节(游程编码和Huffman编码)的所谓“雪崩准则”[50]提出新的统计特征,这一统计量与嵌入率无关,而对图像中是否含有嵌入数据异常敏感,因而可利用隐写嵌入引起压缩数据熵的明显变化来判断图像是否含有隐写嵌入信息。具体的检测是通过Fisher分类器来实现的,据报道甚至可检测低到10-5的隐写嵌入率。
(a) 载体为从未压缩过的3,000幅彩色图像
(b) 载体为曾经JPEG压缩过的3,000幅彩色图像
图5 比较5种估计器:横轴是嵌入率,左侧为不同嵌入率下的估计偏差,右侧为估计的标准差[48]
表1 对7种隐写检测器的性能比较
从未压缩过的BMP
曾经JPEG压缩过
黑白
彩色
黑白
彩色
RS
0.036
0.054
0.023
0.283
Couples
0.036
0.052
0.018
0.220
Couples/LMS
0.045
0.060
0.022
0.068
Couples/WLMS
0.040
0.056
0.016
0.063
标准化Couples/WLMS
0.060
0.037
0.080
0.156
Triples/LMS
0.033
0.041
0.014
0.026
Triples/WLMS
0.028
0.035
0.011
0.025
5.通用隐写分析
我们可将隐写分析技术分为两大类:1)针对特定隐写工具或某一类嵌入技术,根据隐写所引起的载体数据统计特性异常来设计检测器或估计器;2)并不针对某一特定的隐写方法,而是对未知隐写工具所产生的含密媒体进行检测,构建通用检测器。第二类面向未知隐写工具的通用分析有时又被称为“盲检测”,但这里的“盲”不应与仅根据待检测载体的Stego-only隐写分析相混。
以上两节中Harmsen和Ker等人根据隐写的加性噪声模型进行的分析实际上并不针对特定嵌入方法,因此也可归为“通用”检测一类。但目前大多数通用隐写分析都是建立在特征提取和设计分类器的基础上的,本节围绕此类方法讨论近年来提出的一些代表性成果。
最早用分类器方法进行通用隐写检测的工作是Memon et al.在2001~2003年期间发表的[51-53]。他们同时考虑面对主动攻击的数字水印和面对被动检测的隐写,认为不论用什么方法嵌入的额外信息在载体中均会留下统计异常,使图像质量受到轻微的损伤。他们用质量测度和多变量回归分析进行通用隐写检测,基于方差分析(analysis of variance, ANOVA)提取质量参数作为特征集用于区分载体图像和含密图像,用对原始图像的估计进行训练。选择适当的距离测度,使得在特征空间里载体与参考图像之间的距离明显区别于含密图像和参考图像之间的距离。参考图像由不含密的载体图像经Gauss低通滤波得到。研究表明该方法对不同的隐写技术有适应性,在未知嵌入方法的情况下对图像中是否含有秘密信息具有鉴别能力。表2是[53]给出的实验结果,可见早期通用检测方法效果并不理想。
表2 基于图像质量测度的通用隐写分析性能
嵌入工具或方法
虚警
漏检
正确检测
正确率%
Digimarc
2/10
2/10
16/20
80
PGS
2/10
1/10
17/20
85
Cox
4/10
2/10
14/20
70
Pooled watermarking
3/10
3/10
14/20
70
用Gigimarc训练,用PGS和Cox测试
5/10
2/10
13/20
65
Steganos
2/5
1/5
7/10
70
Stools
4/10
1/10
15/20
75
Jsteg
3/10
3/10
14/20
70
Pooled steganography
5/10
0/10
15/20
75
用Steganos和Stools训练,用Jsteg测试
3/10
3/10
14/20
70
Pooled watermarking和steganography
5/10
1/10
14/20
70
用Digimarc, PGS, Steganos, Stools训练,用Cox和Jsteg测试
4/10
3/10
13/20
65
另一种早期技术由Farid等人提出,他们用类似于小波的正交镜像滤波器[54](quadrature mirror filters, QMF)将图像分解为多尺度水平、垂直、对角方向和低频分量,使用最佳线性预测器,计算预测误差的前4阶矩:均值、方差、偏斜、峭度。用Fisher线性分类器(FLD)[55][56]和支持向量机(SVM)[57]进行分类以区分载体和含密图像,见图6。用1,800幅大小为640´480的载体图像和1,800幅以各种方法嵌入数据的含密图像进行训练。测试图像不在训练集内。对JPEG图像用Jsteg和OutGuess,对GIF图像用EzStego,对TIFF图像用LSB进行隐写,GIF图像和TIFF图像由JPEG图像转换得到。在使用FLD和线性SVM时均选择适当的参数使虚警概率保持为1%。检测结果表明两种分类器性能相近。用非线性SVM时性能有所改进。检测结果见图7,纵轴为检测概率,(a)-(c)分别为FLD、线性SVM、非线性SVM,虚警为1%时的结果,(d)为非线性SVM虚警为0的结果。横轴下的数字表示嵌入数据量。可见这种通用检测器可用于检测多种隐写工具产生的含密图像,但不同情况下性能有较大差异。总的来说,对JPEG图像的检测效果较好,非线性SVM的性能优于其他分类器。
由于新的隐写方法不断出现,通用隐写分析的重要性日益突出,因此近几年对这一类方法的研究明显加强,出现了许多有效的方法。Fridrich提出了一种基于特征的隐写分析法用来检测JPEG图像[58],其目的是检验JPEG隐写算法性能,评价嵌入机制。她的检测方法用载体和含密图像训练线性分类器,由含密图像的DCT系数边缘统计特性和联合统计特性计算一系列特征量(Fridrich称之为泛函,functional),包括17个一阶量(5个DCT低频系数直方图,全局DCT直方图,11个DCT系数对直方图)、4个二阶量(系数方差和由共生矩阵导出的3个量,反映块间DCT系数的依赖性)、2个分快特征量(空域中沿8´8块边界的跳变量之和)。然后对图像进行解压缩、几个像素的轻微剪裁、再用同一量化矩阵重新压缩来估计载体图像的特征量。由两组统计量之间的差异得到特征量,可根据求得的特征判断隐写嵌入对图像影响的可检测性。由于JPEG图像的DCT域对隐写嵌入最为敏感,该方法可望导致对JPEG图像进行隐写分析的良好性能。
QMF
图像分解
均值、方差
偏斜、峭度
支持向量机
分类器
Fisher
线性分类器
或
图6 Farid的通用隐写检测器
图7 用FLD、线性和非线性SVM的检测结果[58]
应用上述基于DCT的特征,Pevnu和Fridrich又构造了应用Gauss核的非线性SVM分类器,用于对JPEG图像进行隐写检测[59]。测试对象是3,436个不同来源的35,000幅原始图像,用质量因子75进行JPEG压缩产生载体图像。包括两种情况:1)二元检测,区分无嵌入数据的载体图像和以下几种隐写算法之一:F5,MB1,OutGuess分别嵌入100%、50%、25%, MB2嵌入率为MB1容量的30%,以及JP Hide嵌入图像尺寸的10%,测试结果见表3;2)用n(n-1)/2次二元检测组合成多元检测,以判断含密图像是哪一种嵌入方法产生的,结果见表4。可见对是否含密的检测结果令人满意,对不同嵌入工具具有较好的鉴别能力。对未参与训练的JP Hide,大部分判为F5和MB1,反映它们的嵌入机制具有一定的相似性。测试结果发现基于DCT的方法优于使用72个特征的小波方法[60],这是因为在DCT域提取JPEG图像特征最为匹配,而小波则适合于更普遍的情况。根据[59] 的作者观察,误判与图像噪声较强有一定的联系。
表3 非线性SVM二元分类器性能
嵌入算法
默认阈值
调整阈值使虚警»1%
判为载体
判为含密
判为载体
判为含密
F5 100%
2
532
5
529
MB1 100%
3
530
3
530
OutGuess 100%
3
531
5
529
F5 50%
2
532
7
527
MB1 50%
2
531
4
529
OutGuess 50%
3
531
4
530
MB2 30%
27
506
73
460
F5 25%
54
480
149
385
MB1 25%
38
495
90
443
OutGuess 25%
5
529
10
524
JP Hide
6
528
10
524
载体
515
19
527
7
表4 非线性SVM多元分类器性能
嵌入算法
载体
F5
MB1
MB2
OutGuess
F5 100%
2
531
1
0
0
MB1 100%
3
0
526
1
3
OutGuess 100%
2
0
0
0
532
F5 50%
4
500
7
1
0
MB1 50%
3
7
506
12
5
OutGuess 50%
3
1
3
0
527
MB2 30%
8
14
17
492
2
F5 25%
17
463
27
26
1
MB1 25%
16
26
411
75
5
OutGuess 25%
4
7
16
23
484
JP Hide
9
334
158
27
6
载体
510
5
4
15
0
早期通用分析对JPEG图像频域隐写工具的检测性能较好,但对空域法的分析能力不理想,并严重依赖所用的训练图像和测试图像。Holotyak和Fridrich等人[61]于2005年提出用小波域高阶统计量进行分类的三步框架:估计隐写信号,提取特征,分类。将含密图像看成载体与隐写信号之和:
(7)
其中g为嵌入算法,s为嵌入的秘密信息,K为密钥。将含密图像的小波变换看成非平稳Gauss载体和隐写信号的混合。为了用闭合形式来表示,将隐写信号近似描述为平稳Gauss过程N(0, s2)。应用小波变换来估计g(s, K),目的是获得对隐写敏感的信号成分而尽量降低载体对检测的影响。
特征提取是关键步骤。从隐写成分g中提取的特征具有对隐写敏感而对图像内容不敏感的优点。对载体图像和含密图像计算g(s, K)的一级小波分量,其直方图如图8。图中虚线和实线分别对应于载体图像和由±1嵌入产生的隐写图像,可见载体和含密图像在直方图(概率密度函数PDF)的尾部有明显差异。将两个直方图映射至适当的参数空间可计算其欧氏距离而不必知道PDF的具体形式。研究表明,最低的几阶偶数矩不能区分载体和含密图像,只有高阶矩才能反映PDF尾部的差异。
图8 载体图像(虚线)和 ±1隐写图像(实线)的一级小波分解直方图,纵轴取对数尺度[61]
图9(a)是用FLD进行分类时的正确率与矩的阶数之间的关系。可见随着阶数的提高,正确分出载体图像的概率下降,而检测含密图像的概率则增加,直到18阶以后这一概率也逐渐下降。图9(b)是将两个正确检测概率相乘(联合概率),可知获得最佳检测效果的最低阶数为12。取联合概率大于0.5(即优于随机猜测)的所有偶数矩构成33阶特征向量,用PCA降至4~5维。
图9 阶数与检测精度的关系[61]。(a) 载体图像(实线)和含密图像(虚线)的正确检测率;(b) 联合正确概率。由500幅原始图像用±1隐写和LSB隐写平均而得,嵌入率12.5%~50%。
用LSB匹配法在从未压缩过的图像中以不同的嵌入率25%,50%,75%,100%嵌入数据,对它们进行检测得到图10所示ROC。其中(a)是对22种不同数字照相机拍摄的2,567幅1百万像素以上非压缩照片的测试结果,包括48比特彩色TIFF图像和24比特彩色BMP图像,全部转为8比特黑白。(b)是2,375幅1500´2100高分辨率扫描图像,转为黑白。实验所用图像库与[28][30]相同。扫描中引入的噪声使隐写分析性能下降。对于JPEG压缩过的图像进行实验,即使在25%嵌入率时也能完全正确检测。实验还表明,单一照相机拍摄的图像比多来源图像更容易检测。
上述方法不久又被进一步改进[62],一方面仍从小波域的噪声分量提取特征以提高信噪比(隐写信号与残余载体信号之比),另一方面,不再用很高阶的偶次矩,而是计算1到9阶的绝对非归一化矩,称为小波绝对矩分析法(wavelet absolute moment, WAM)。其中前4阶矩在概念上与Farid的预测误差[57]一样,但用不同的小波使预测质量较好,而且采用绝对矩而并不按方差进行归一化,避免使用很高阶的矩。
图11
展开阅读全文