收藏 分销(赏)

基于光响应非均匀性的WhatsApp压缩视频来源识别.pdf

上传人:自信****多点 文档编号:3010229 上传时间:2024-06-13 格式:PDF 页数:9 大小:1.49MB
下载 相关 举报
基于光响应非均匀性的WhatsApp压缩视频来源识别.pdf_第1页
第1页 / 共9页
基于光响应非均匀性的WhatsApp压缩视频来源识别.pdf_第2页
第2页 / 共9页
基于光响应非均匀性的WhatsApp压缩视频来源识别.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、文章编号:1002-2082(2024)02-0337-09基于光响应非均匀性的 WhatsApp 压缩视频来源识别陈懿辉,田妮莉,潘晴,苏开清(广东工业大学信息工程学院,广东广州510006)摘摘 要:要:光响应非均匀噪声(photoresponsenonuniformity,PRNU)是光学成像传感器成像时引入的一种独特噪声,可有效识别压缩视频的来源。针对现有算法提取压缩视频的 PRNU 效果并不显著的问题,论文提出了一种改进 PRNU 提取算法。首先,去除视频编解码的环路滤波器,对视频帧使用双密度双树复小波变换进行分解;然后对高频子带使用基于贝叶斯阈值估计的双变量收缩算法进行估计,再使用

2、自适应加窗维纳滤波进行二次估计,得到噪声残差;最后用基于量化参数值加权的最大似然估计法聚合噪声残差,再与视频帧估计得到 PRNU。实验结果表明:该文提出的方法在 20s 时 WhatsApp 视频的识别率为 75%。关键词:关键词:光响应非均匀性;源相机识别;压缩视频;双密度双树复小波变换;双变量收缩中图分类号:TP391文献标志码:ADOI:10.5768/JAO202445.0201009WhatsApp compressed video source camera identification based onphoto response nonuniformityCHENYihui,T

3、IANNili,PANQing,SUKaiqing(SchoolofInformationEngineering,GuangdongUniversityofTechnology,Guangzhou510006,China)Abstract:Photoresponsenonuniformity(PRNU)noiseisauniquenoiseintroducedtoopticalimagingsensorsduringimagingandcanbeeffectivelyappliedtothesourcecameraidentificationofcompressedvideo.Duetothe

4、problemthatexistingalgorithmsdonotproducesignificanteffectonextractingPRNUofcompressedvideo,animprovedalgorithmtoextractPRNUwasproposed.Firstly,theloopfilterofvideocodecwasremoved,andthevideoframewasdecomposedbydoubledensity-dualtree-complexwavelettransform.Then,the high frequency subband was estima

5、ted by bivariate shrinkage algorithm based on Bayesian thresholdestimation,andtheadaptivewindowWienerfilterwasusedforsecondaryestimation.Finally,afterthenoiseresiduals were obtained,they were aggregated by the maximum likelihood estimation method based onquantization parameter weighting,and the PRNU

6、 was estimated with video frames.Experiments on theVISIONdatasetshowthattheaccuracyoftheproposedPRNUextractionmethodinWhatsAppcompressedvideorecognitionisimprovedto75%at20s.Key words:photoresponsenonuniformity;sourcecameraidentification;compressedvideo;doubledensity-dualtree-complexwavelettransform;

7、bivariateshrinkage引言随着信息技术的发展,越来越多的人通过网络分享图像和视频,一些违法犯罪和造假诽谤的图像或视频不可避免地在网络上出现,这也引发了收稿日期:2023-06-05;修回日期:2023-07-16基金项目:国家自然科学基金(61901123)作者简介:陈懿辉(1999),男,硕士研究生,主要从事视频源相机识别研究。E-mail:通信作者:田妮莉(1982),女,博士,讲师,主要从事图像视频处理、源相机识别研究。E-mail:第45卷第2期应用光学Vol.45No.22024年3月JournalofAppliedOpticsMar.2024一系列网络安全问题。因此,

8、核实网络照片或视频的来源是十分有必要的1。众所周知,基于 PRNU 的方法作为一种有效识别手段被广泛研究和应用于相机归属识别。LUKASJ等人最初开发的数字图像来源识别系统首次使用了 PRNU2,该系统利用小波去噪滤波器提取图像的噪声残差,然后通过平均同一个相机拍摄的一组图像的噪声残差作为相机的参考 PRNU。文献 3 首次引入了 BM3D(blockmatchingand3Dfilt-ering)滤波器进行相机归属识别,并且取得了很好的效果,但是该算法的搜索和分组过程非常耗时。文献 4 提出了一种基于八邻域上下文自适应插值预测器(predictorbasedoneight-neighborc

9、onte-xt-adaptiveinterpolation,PCAI8)提取 PRNU,可以抑制场景和边缘的影响。在文献 5 中,作者使用了改进的局部自适应离散余弦变换滤波器和加权平均算法来进一步处理和提取 PRNU。在文献 6中,引入了双树复小波变换(dual-treecomplexwav-elettransform,DTCWT)滤波器提取图像中的 PRNU。文献 7 提出一种多阶段渐进式神经网络的 PRNU提取算法,与传统小波相比,能够提取更多的图像特征。以往源相机的识别技术主要针对相机拍摄的图像,而对视频识别则没有太多的研究,尤其是压缩视频。随着压缩视频在社交网络平台上的普及,用视频来确

10、定源相机的归属变得更加重要,基于图像 PRNU 的源相机识别方法扩展到视频来源识别是可行的8。在现有的视频编码标准(如H.264、MPEG 系列等标准)中,一组视频帧的组成包括I 帧、P 帧和 B 帧,文献 9 中表明了 I 帧在视频取证任务中比 P 帧具有更高的可靠性,然而,短视频并不能提供足够数量的 I 帧。此外,一些研究提出了通过减轻 H.264 和 H.265 视频压缩标准的不利影响来提高 PRNU 估计的准确性,如选择性地利用宏块或去除解码后的伪影8,10。在文献 11中提出了一种同时考虑相机滚动和视频 I 帧的视频取证方法,以提高处理精度和缩短时间。文献 12提出了一种基于方差稳定

11、变换多尺度迭代最小二乘滤波的加权 PRNU 提取模型,以提高多重压缩视频识别的精度。视频稳定功能也会影响视频取证任务,如文献 13 提出通过平移和旋转实现稳像。由于 PRNU 匹配需要像素级精度,即使是轻微的几何图像变换也会使相机的噪声残差错位,本文只讨论不具备稳定功能的拍摄设备。针对压缩程度较轻的视频,上述大多数算法在提取 PRNU 噪声方面可以取得良好的效果。然而,由于视频被上传到社交网络平台后会被再次压缩,导致提取 PRNU 的难度大幅提高,并且这方面的研究比较匮乏。为了改善这种压缩视频来源识别的问题,本文提出了一种基于贝叶斯阈值估计的双变量收缩结合自适应加窗维纳滤波的多尺度域滤波算法提

12、取噪声残差,并结合去环路滤波操作和基于量化加权的最大似然估计构建了一种PRNU 提取模型,该模型能有效地从压缩视频提取出更多的 PRNU 噪声。总的来说,本文的贡献主要体现在以下两个方面:1)引入基于贝叶斯估计的双变量收缩算法到源相机识别领域。通过基于贝叶斯估计的双变量收缩算法与双密度双树复小波的结合,可以很好地去除视频压缩伪影的干扰,从而提取出质量更好的 PRNU。2)提出了一个完整的 PRNU 提取模型,可以用于视频来源识别。实验表明,改进的 PRNU 提取模型在面对压缩视频来源识别任务时,效果十分显著。1 改进的 PRNU 提取模型本文提出的改进的 PRNU 提取模型算法流程如图 1 所

13、示。输入双变量收缩自适应滤波输出视频编解码多尺度分解滤波逆变换最大似然法图 1 算法流程图Fig.1 Flow chart of algorithm338应用光学第45卷第2期算法总体分为 6 个步骤:步骤 1)视频编解码。用去除环路滤波的解码器对视频重新编解码,得到视频帧8。步骤 2)多尺度分解。用双密度双树复小波变换(double-density dual-tree complex wavelet transf-orm,DDDTCWT)对视频帧进行多尺度分解,把视频帧分解成 8 个高频子带和 1 个低频子带,并将子带进行归一化处理。步骤 3)双变量收缩。使用基于贝叶斯阈值估计的双变量收缩算

14、法对高频子带进行初步估计。步骤 4)自适应滤波。用自适应加窗维纳滤波对高频子带做进一步估计。步骤 5)滤波逆变换。将归一化的子带进行还原后采用逆双密度双树复小波变换,得到噪声残差。步骤 6)最大似然法。用量化参数(quantizationparameter,QP)值加权的最大似然估计法估计噪声残差的乘性因子 K,再使用乘性因子 K 与视频帧的均值相乘得到估计的 PRNU 噪声。在 PRNU 识别阶段,用带符号的峰值相关能量(signpeaktocorrelationenergy,SPCE)对参考 PRNU和测试 PRNU 进行相关性测量,得到的相关性值与给定的阈值进行比较,验证视频是否来自相机

15、14。1.1 去除环路滤波器的解码器环路滤波器是视频编解码器中用于减少块效应的一种机制。在视频编码过程中,逐块量化操作可能导致输出图像出现块效应,使得相邻宏块的边界出现不连续的现象,引入环路滤波器来平滑宏块边界,达到抑制块效应的效果。视频帧的块效应强度主要受压缩级别影响。高质量视频中解码器内的环路滤波对源相机识别影响较小,但是低质量视频中的解码器环路滤波会导致 PRNU噪声大部分被去除,大大增加了识别难度。因此,使用去除解码器环路滤波对于低质量视频来说可以获得更可靠的 PRNU 估计8。本文使用去除环路滤波器的解码器,在解码阶段绕过环路滤波器,并保持解码器与编码器同步,同时保留了宏块级别的解码

16、信息,如大小、位置和量化参数,以便后续对每帧视频进行可靠的 PRNU 估计。1.2 双密度双树复小波变换与对称边界扩展PRNU 是一种类似高斯白噪声的噪声,利用小波分解方法可以有效分离高低频信息,抑制低频干扰。DDDTCWT 是一种多尺度、多方向的小波变换方法,结合了双密度小波变换和 DTCWT 的优势15。DDDTCWT 可以将输入的图像信号在不同尺度上进行分解,能够提供 16 个尺度的主信号,并且每个主信号都用实数和虚数 2 个小波表示。在此复转换过程中有 2 个滤波器组,即主滤波器组和对偶滤波器组,它们之间的相位差异和滤波器选择,使得 DDDTCWT 能够提供更好的方向性表示和频率局部化

17、16。因此,DDDTCWT 能更准确地描述信号的细节和结构,具有比双密度小波变换和DTCWT 更好的视频帧分解能力和重构精度能力。由于一般的图像滤波处理不能很好地处理图像块的边界,从而导致出现边界效应,本文使用了一种对称边界扩展的方法6。为了避免图像边界引入明显的不连续点影响去噪效果,我们对噪声图像的行和列分别进行垂直翻转和水平翻转。翻转的行列数根据小波分解层数 L 设置为 102L,这是由于分解层数越深,小波子带的分辨率越小,需要扩展的边界越少。考虑到基于贝叶斯阈值估计的双变量收缩算法需要考虑小波系数和其父系数之间的相关性,因此,其父矩阵也需要扩展至同样的大小。本文首先对输入的视频帧进行对称

18、边界扩展,再使用 DDDTCWT 对视频帧进行多尺度分解和滤波处理。1.3 基于贝叶斯阈值估计的双变量收缩和自适应加窗维纳滤波在提取 PRNU 过程中,影响最大的是过滤阶段,本文算法主要改进过滤阶段的处理。文献 17证明了利用小波变换的图像去噪算法可以通过考虑小波系数之间的统计相关性显著改善其性能。双变量收缩算法18是多尺度变换域滤波的一种有效去噪算法,该算法可以提取更丰富的 PRNU 噪声。双变量收缩算法通常设定一个阈值进行去噪,常用的阈值方法有硬阈值和软阈值,但是软硬阈值的设定都不能很好地适配双变量收缩算法。贝叶斯估计通过引入后验分布提供了参数的完整概率分布,能够对不同的小波子带进行参数估

19、计,还可以将先前的经验与观测数据相结合,从而提高参数估计的准确性和鲁棒性。DDDTCWT 通过将时域的含噪图像信号转换到小波域进行分解,得到多尺度的小波系数,用下式表示为y=w+n(1)式中:y 表示含噪信号的小波系数;w 表示无噪声图像对应的小波系数;n 表示噪声的小波系数。为了将不同子带的小波系数做相同滤波操作,需要将不同小波系数进行归一化操作。应用光学2024,45(2)陈懿辉,等:基于光响应非均匀性的 WhatsApp 压缩视频来源识别339随后对小波子带进行滤波估计,即从 y 中估计出 w。基于贝叶斯阈值估计的双变量收缩算法需要考虑小波系数与其父系数之间的统计相关性。假设用 w1k表

20、示第 k 层的小波系数,w2k表示下一层更大尺度中与 w1k位置相对应的父节点小波系数,则向量矩阵可以表示为yk=wk+nk(k=1,.,m)(2)w(yk)式中:yk=(y1k,y2k);wk=(w1k,w2k);nk=(n1k,n2k);m 为子小波系数的数目。通过式(2)考虑系数与其父系数之间的统计相关性。未受噪声污染的图像信号的小波系数可以使用最大后验概率估计得到,可表示为 w(yk)=argmaxwkpwk|yk(wk|yk)(3)由贝叶斯概率估计作进一步推导之后,可将式(3)转换为式(4):w(yk)=argmaxwkpn(ykwk)pw(wk)(4)pn(nk)=pn(ykwk)

21、(5)w(yk)由式(4)和式(5)可知,只有求得噪声小波系数的概率密度函数 pn(nk)和输出图像信号小波系数的概率密度函数 pw(wk),才能得到真实信号的系数估计。贝叶斯规则允许用噪声概率密度和小波系数的先验密度来估计。假设各层噪声信号n1k,n2k为独立同分布的高斯白噪声,文献 18 中提出了 pn(nk)和 pw(wk)的模型,用下式表示:pn(nk)=12 2exp(n21k+n22k22n)(6)pw(wk)=12 2kexp(3k)w21k+w22k(7)得到 pn(n)和 pw(wk)后,可使用双变量阈值收缩函数20来估计 w1k,如式(9)所示。其中,基于贝叶斯估计的阈值T

22、 和一个二元收缩函数 g 可以分别用式(8)和式(10)表示:T=32nk(8)w1k=(y21k+y22kT)+y21k+y22ky1k(9)g=(y21k+y22kT)(10)g=0,g 0g,g 0式中。2nk2k由式(7)和式(8)可知,要得到最后的收缩系数 w1k,还需要得到噪声小波系数的方差和第 层分解系数的方差。公式(11)可由上述模型观测2n2k得到,所以方差和的估计值可由公式(12)公式(14)求得:2y=2n+2k(11)2n=median(|yi|)0.6745(12)2y=1My1kN(k)y21k(13)2k=(2y 2n)(14)k2n2n2k w1k式中:medi

23、an()表示中值估计器;yi表示 L0H1子带的小波系数;M 表示第 层小波系数局部邻域 N(k)的区域大小;y1k代表小波变换后的子信号的小波系数。为了从噪声小波系数估计出噪声方差,使用中值滤波器从最小尺度的小波系数中去估计,如式(12)所示。将得到的方差与代入式(7)和式(8)得到估计的。使用自适应加窗维纳滤波函数进一步估计小波系数,可表示为 w2h(i,j)=w1h(i,j)2s2s+20,(i,j)h(15)w1h(i,j)w2h(i,j)202s式中:表示估计前的小波系数;表示估计后的小波系数。一般设置为 4,可由下式得到:2s(i,j)=min(max(0,1w2d(i,j)hw2

24、1h(i,j)20)(16)式中窗口的尺寸 wd=3、5、7、9,将估计后的小波系数进行归一化还原,然后进行逆变换得到噪声残差。1.4 量化参数值加权的最大似然估计由于噪声残差不仅包含 PRNU 的乘性因子 K,还包含了其他过程产生的伪影,因此必须抑制估计的 PRNU 因子中不必要的伪影。然而压缩视频的每一帧甚至每一个宏块的压缩程度都是不一样的,压缩越严重,宏块包含的伪影越复杂,对 PRNU估计的负面影响越大。文献 8 根据 PCE 值和对应的 QP 值关系得到了 PCE 与 QP 的关系曲线,然后归一化权重矩阵 Ut。PRNU 加权公式如下:K=Nt=1ItWtUtNt=1(It)2Ut+(

25、17)式中:N 表示每个视频中用于估计 K 的视频帧数;It表示视频中第 t 帧图像;Wt表示视频中第 t 帧图像的噪声残差;Ut表示每个视频帧的加权系数矩阵;为一个很小的值,防止出现分母为 0 的估计错误。340应用光学第45卷第2期针对压缩程度较小的块,可以赋予较高的权重系数,对于压缩程度较大的块,则赋予较低的权重系数,不用完全去除。这种方法基本上为每个宏块分配一个对应值的权重,而不是二进制权重,因此,它能够产生更可靠的 PRNU 估计值。最后相机参考 PRNU 等于 C 个视频帧的 PRNU的平均值,用公式(18)表示为PRNU=Ct=1KItC(18)1.5 相似性检测为了计算相机的

26、PRNU 和测试视频 PRNU 的相关性,本文使用带符号的 PCE(signpeakcorrel-ationenergy,SPCE)来统计14,并且 SPCE 值越大,由参考相机拍摄测试图像的可能性就越大。SPCE(R,Q)=sign(CRQ(a,b)CRQ(a,b)1|MN|(a,b)C2RQ(a,b)(19)|式中:CRQ(a,b)为参考 PRNU 噪声 R 和查询 PRNU噪声 Q 之间的二维循环互相关系数;为(a,b)周围的一小块区域;为区域尺寸;MN 为 CRQ行列数量的乘积;sign()为符号函数。2 实验结果与分析2.1 实验设置为了评估算法识别压缩视频的性能,这里使用 VISI

27、ON 公共数据集19进行测试比较,数据集中涵盖了本地视频、YouTube 视频和 WhatsApp 视频三种视频类型。其中,YouTube 压缩视频和 Whats-App 压缩视频是通过网络共享将本地视频重新编码而成的压缩视频。就视频的压缩程度而言,本地视频具有 19201080pixels 或 1280720pixels的分辨率,以及 9.7Mbit/s19.7Mbit/s 的压缩比特率。相比之下,YouTube 视频的压缩程度约为本地视频的 6 倍左右,压缩比特率降至 1.7Mbit/s3.3Mbit/s,同时保持了视频帧的原始分辨率。Whats-App 视频经过进一步压缩,压缩比特率为1

28、.06Mbit/s1.29Mbit/s,并将所有视频的分辨率降低至 848480pixels。我们选择了本地视频分辨率为 1280720pixels 且不具备防抖功能的相机,共 9 台。实验相机选取结果如表 1 所示,每台相机选择了15 个 WhatsAPP 视频。其中,选择 3 个 Flat 视频(静止、移动和旋转运动类型各 1 个)制作参考PRNU,其余 12 个 Indoor 和 Outdoor 类型视频用来制作测试PRNU,并假设相机识别成功的 PCE 阈值为 60。通过这些测试,可以确定用于获取参考PRNU 噪声的视频类型对识别性能的影响。表 1 VISION 数据集的相机设备Tab

29、le 1 Smartphones models from VISION dataset编号相机型号D01GalaxySIIIMiniGT-I8190ND07LenovoP70-AD08GalaxyTab3GT-P5210D09iPhone4D13iPad2D22GalaxyTrendPlusGT-S7580D26GalaxySIIIMiniGT-I8190D33AscendG6-U10D35GalaxyTabASM-T555为了验证本文提出的过滤器的性能优于其他过滤器,将本文方法和Basic2、BM3D3、PCAI84、DTCWT6、WeightMLE8方法进行比较,使用不同的视频长度函数确定

30、了每种 PRNU 估计方法的成功识别率。2.2 评估指标为了证明本文提出的源相机识别方案的性能,采用了 3 种评价指标,即源相机总体识别率10、总体接收器工作特征(receiveroperatingcharacteristiccurve,ROC)曲线4,6和由混淆矩阵计算出的 Kappa统计量4。为了得到总体的 ROC 曲线,需要在给定的检测阈值下记录每个相机的真阳性个数和假阳性个数,然后将这些数字相加求平均。真阳性率(truepositiverate,TPR)和 假 阳 性 率(falsepositiverate,FPR)可以简单表示为RFP=Hq=1Fq(H1)C(20)RTP=Hq=1T

31、qC(21)式中:H 表示相机的数量;C 表示测试视频的总数;Tq和 Fq分别为第 q 个相机的真阳性和假阳性。混淆矩阵用 n 行 n 列的矩阵形式表示,可以把分类结果的精度显示在一个矩阵中。混淆矩阵的每个元素表示将视频归属于相应相机的数量,主对角线上的值之和表示正确识别视频的数量。每个混淆矩阵都可以简化为一个表示分类器性能的度量值,即 Kappa 统计量。Kappa 统计量的值为11,通常 Kappa 统计量的值落在01之间,其值越应用光学2024,45(2)陈懿辉,等:基于光响应非均匀性的 WhatsApp 压缩视频来源识别341接近 1,性能越好。2.3 性能比较源相机识别率通常可以直接

32、用来衡量 PRNU提取算法的识别效果,当参考 PRNU 从不同的视频类型中获取时,相机识别率随剪辑视频长度(1s20s)的变化而变化,如图 2 所示,同时在第20s 时源相机识别率如表 2 所示。剪辑视频长度在 2s 以前,所有算法几乎没有效果。随着视频的增长,所有算法的性能都得到提升,本文方法的识别率相较于其他方法提升更快。从表 2 可以看出,大多数源相机识别准确率集中在 15%40%,而本文方法基于 Still、Move、Parrot 类型的视频在第20s 时的识别率分别达到了 63.9%、75%、75%,识别性能相比于其他 SCI 方法也有较大提升,比识别性能第二的算法分别提升了 20.

33、4%,20.4%,27.8%。同时值得注意的是,用 Flat-move 类型视频制作参考 PRNU 时,比 Flat-still,Flat-parrot类型提取 PRNU提供了更好的源相机识别率。BasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(b)Flat-moveBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(a)Flat-stillB

34、asicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(c)Flat-parrotBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(b)Flat-moveBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(a)Flat-sti

35、llBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10准确率02468101214161820时间/s(c)Flat-parrot图 2 视频时长为 1 s20 s 时不同参考 PRNU 下的识别率Fig.2 Recognition rate of different reference PRNU whenvideo duration is 1 s to 20 s表 2 在 20 s 时 WhatsApp 视频的识别率Table 2 Recognition rate of WhatsApp videos at 20

36、s%类型PRNU提取算法BasicBM3DPCAI8DTCWTWeightMLE本文静止17.637.914.838.943.563.9移动30.645.417.638.954.675.0旋转27.836.114.839.847.275.0为了评估本文方法在提升识别性能的同时,是否会导致更高的错误识别率,用 Vision 数据集中WhatsApp 视频进行新的实验,所有 PRNU 都是利用视频的前 20s 估计。仅使用视频前 20s 情况下不同类型视频作为参考 PRNU 时的 ROC 曲线对比图如图 3 所示。图 3(a)为用 Flat-still类型视频制作参考 PRNU 时的 ROC 曲线

37、;图 3(b)为用 Flat-move类型视频制作参考 PRNU 时的 ROC 曲线;图 3(c)为用 Flat-parrot类型视频制作参考 PRNU 时的 ROC 曲线。从图 3可以看出,本文方法的曲线一直位于其他 ROC 曲线之上,表明本文算法的性能优于其他算法。在源设备识别实际应用中,最小化假阳性概率是十分重要的。表 3 给出了在 WhatsApp 视频识别中当 RFP=0.01 时不同算法的 RTP值。从表 3 可以看出,本文方法在 3 种视频的识别中都可以显著地在较低的 RFP时增加 RTP,这与图 3 中的观察结果相似。342应用光学第45卷第2期1.00.90.80.70.60

38、.50.40.30.20.10真阳性率00.10.20.30.40.50.60.70.80.91.0假阳性率(a)Flat-stillBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10真阳性率00.10.20.30.40.50.60.70.80.91.0假阳性率(b)Flat-moveBasicBM3DPCAI8DTCWTWeight MLEOurs1.00.90.80.70.60.50.40.30.20.10真阳性率00.10.20.30.40.50.60.70.80.91.0假阳性率(c)Flat-parrotB

39、asicBM3DPCAI8DTCWTWeight MLEOurs图 3 不同参考 PRNU 下的 ROC 曲线Fig.3 ROC curves of different reference PRNU为了进行更加全面比较,表 4 中列出了不同算法基于 SPCE 值的Kappa统计量数据。在 Whats-App 视频识别中 Kappa 系数分别为 0.712,0.847,0.920,相对于第二性能算法的 Kappa 系数分别提升了 0.208,0.170,0.118。表 3 当 RFP=0.01 时各算法的 TPR 值Table 3 TPR value of each algorithm when

40、 RFP is 0.01类型PRNU提取算法BasicBM3DPCAI8DTCWTWeightMLE本文静止0.1760.4910.2220.3890.3610.685移动0.1940.4350.2320.4540.5090.704旋转0.2500.3990.1760.5000.5090.787表 4 不同算法的 Kappa 统计量Table 4 Kappa statistic of different algorithms时间/sPRNU提取算法BasicBM3DPCAI8DTCWTWeightMLE本文50.2330.4690.1740.5000.5040.712100.3230.6770

41、.2430.6770.6490.847200.4310.7920.3540.8020.7540.920最后,表 5 列出了不同 PRNU 提取算法在滤波阶段的运行时间。测试图像是一张分辨率为 1280720pixles 的彩色图像,我们分别用不同算法对测试图像滤波 500 次,并计算了每个方法的平均运行时间。这些模拟是用 Matiab2020a 在一台拥有 3.7GHzAMD5900CPU 和 64G 内存的台式电脑上进行仿真的。相比 Basic,MLE,CAGIF 等速度较快的滤波器,本文方法的计算效率低,其计算效率接近 PCAI8 滤波器,计算成本远低于 BM3D 滤波器。表 5 不同算法

42、滤波阶段的运行时间Table 5 Running time of filtering phase of different al-gorithmsPRNU提取算法BasicBM3DPCAI8DTCWTWeightMLE本文时间/s0.356.632.921.130.353.362.4 消融实验为了进一步确定基于贝叶斯估计的双变量收缩算法和自适应加窗维纳滤波在 PRNU 提取模型中的作用,我们在 VISION 数据中进行了消融实验,实验设置见上述 2.1 节。其中,仅使用视频的前 20s 进行估计。消融实验具体方法是:方法一,在改进的 PRNU 提取模型中移除了基于贝叶斯估计的双变量收缩算法;方

43、法二,在改进的 PRNU 提取模型中移除了自适应加窗维纳滤波。消融实验的测试结果如表 6 所示。从表 6 可以看出,在公共数据集上性能的提升验证了本文算法的有效性。应用光学2024,45(2)陈懿辉,等:基于光响应非均匀性的 WhatsApp 压缩视频来源识别343表 6 不同模块组合的消融实验测试结果Table 6 Ablation experimental test results of differentmodule combinations%类型PRNU提取算法方法一方法二本文静止15.711.163.9移动25.921.375.0旋转16.714.875.03 结论本文提出了一种基于

44、贝叶斯阈值估计的双变量收缩结合自适应加窗维纳滤波的多尺度域滤波算法提取噪声残差,并结合去环路滤波操作和基于量化加权的最大似然估计构建了一种 PRNU 提取模型。相比于其他源相机识别算法,该算法先去除编解码器的环路滤波器,再用双密度双树复小波变换对视频帧进行多尺度分解并进行归一化;然后先用基于自适应贝叶斯阈值估计的双变量收缩对高频子带进行初步估计;再用自适应加窗维纳滤波对高频子带做进一步估计,将归一化的子带进行还原并逆变换得到噪声残差;最后用量化参数加权的最大似然估计噪声残差中的乘性因子,将乘性因子与多张视频帧的均值相乘得到PRNU。在 VISION 数据集上的实验结果表明,该算法的效果在识别

45、WhatsApp 视频方面明显优于现有的算法。参考文献:张明旺,肖延辉,田华伟,等.图像中的设备指纹提取技术研究综述J.激光与光电子学进展,2020,57(22):39-48.ZHANGMingwang,XIAOYanhui,TIANHuawei,etal.Reviewofdevicefingerprintextractiontechniquesinim-ageJ.Laser&OptoelectronicsProgress,2020,57(22):39-48.1LUKAS J,FRIDRICH J,GOLJAN M.Digital cameraidentificationfromsensorp

46、atternnoiseJ.IEEETrans-actions on Information Forensics and Security,2006,1(2):205-214.2CORTIANAA,CONOTTERV,BOATOG,etal.Per-formancecomparisonofdenoisingfiltersforsourcecam-eraidentificationJ.SPIE:MediaWatermarking,Secur-ity,andForensicsIII,2011,7880:60-65.3KANGX,CHENJ,LINK,etal.Acontext-adaptiveSPN

47、predictorfortrustworthysourcecameraidentificationJ.EURASIPJournalonImageandVideoProcessing,2014,2014(1):1-11.4LAWGALYA,KHELIFIF.Sensorpatternnoiseestima-tionbasedonimprovedlocallyadaptiveDCTfilteringandweightedaveragingforsourcecameraidentificationandverificationJ.IEEETransactionsonInformationForen-

48、sicsandSecurity,2016,12(2):392-404.5ZENGH,WANY,DENGK,etal.Sourcecameraidenti-fication with dual-tree complex wavelet transformJ.IEEEAccess,2020(8):18874-18883.6高昌锋,肖延辉,田华伟.基于多阶段渐进式神经网络的图像相机指纹提取算法J.信息网络安全,2022,22(10):15-23.GAO Changfeng,XIAO Yanhui,TIAN Huawei.Imagecamerafingerprint extraction algori

49、thm based on MPR-NetJ.NetinfoSecurity,2022,22(10):15-23.7ALTINISIKE,TASDEMIRK,SENCARHT.Mitiga-tionofH.264andH.265videocompressionforreliablePRNUestimationJ.IEEETransactionsonInformationForensicsandSecurity,2019,15:1557-1571.8CHUANGWH,SUH,WUM.Exploringcompressioneffects for improved source camera ide

50、ntification usingstronglycompressedvideoC/201118thIEEEinterna-tionalconferenceonimageprocessing.NewYork:IEEE,2011:1953-1956.9ALTINISIKE,TASDEMIRK,SENCARHT.Extract-ingPRNUnoisefromH.264codedvideosC/201826thEuropean signal processing conference(EUSIPCO).NewYork:IEEE,2018:1367-1371.10YANGWC,JIANGJ,CHEN

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服