收藏 分销(赏)

用作打印机源识别的多层次语义交互模型MSINet.pdf

上传人:自信****多点 文档编号:610641 上传时间:2024-01-15 格式:PDF 页数:7 大小:3.81MB
下载 相关 举报
用作打印机源识别的多层次语义交互模型MSINet.pdf_第1页
第1页 / 共7页
用作打印机源识别的多层次语义交互模型MSINet.pdf_第2页
第2页 / 共7页
用作打印机源识别的多层次语义交互模型MSINet.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023,59(16)打印机源识别,是通过纸质文件追溯打印机来源的一种文件检验技术,能够通过打印页面上显影碳粉不同的波动1追溯源打印机的类型、品牌、型号等信息。作为文件检验领域中的重要取证技术,打印机源识别不仅有助于刑事调查,同时也能保证行政机关和其他官方打印文件记录的安全性1,近年来受到了研究人员的关注1-3。早期的打印机源识别工作大多由专业检验人员使用物理手段对文件进行分析,但此类方法不仅对检验人员的专业要求高,同时还存在效率低、成本高、影响因素多和文件破坏等问题3。最近的研究往往通过不同的手工特征方法以及深度学习方法从图像纹理中提取特征。其优点是高效且使用成本低,但大多方法强依赖于提取特

2、定字符(例如“e”)的特征进行溯源识别,而这对待检测的打印文件具有一定限制,降低了方法的实用性。另一方面,源打印机的特性独立于字符的结构,能作为溯源的特征(如不用作打印机源识别的多层次语义交互模型MSINet邱雅文1,邹积鑫2,朱子奇11.武汉科技大学 计算机科学与技术学院,武汉 4300812.公安部物证鉴定中心,北京 100038摘要:打印源识别是文件检验领域中重要的取证技术。针对同类打印机文档中字符结构差异导致的显著性类内差异,提出了一种基于空间图像重组的微尺度特征强化方法。该方法通过重组图片字形结构,弱化因字符差异导致的大尺度结构化特征,进而强化模型对不同类型打印机印刷的判别性特征;更

3、进一步,针对不同字号、字体造成的风格差异,提出了一个基于深度学习的多层次语义交互模型MSINet(multi-level semantic interaction network),通过构建不同层次特征的交互方法,降低打印字符的风格差异所带来的影响。在Printing Technique Dataset数据集上验证了所提方法的有效性,识别准确率达到了99.4%,相比目前主流的文本无关打印机源识别方法,具有更高的识别准确率。关键词:文件取证;打印机源识别;特征融合;深度学习;卷积神经网络文献标志码:A中图分类号:TP391doi:10.3778/j.issn.1002-8331.2205-019

4、3Multi-Level Semantic Interaction Model for Printer Source IdentificationQIU Yawen1,ZOU Jixin2,ZHU Ziqi11.School of Computer Science and Technology,Wuhan University of Science and Technology,Wuhan 430081,China2.Institute of Forensic Science,Ministry of Public Security,Beijing 100038,ChinaAbstract:Pr

5、inter source identification is an important forensic technique in the field of document inspection.Due to thestructural differences of characters and stylistic differences of fonts in print documents,there are difficulties in extractingprint text features and analyzing printer specificity.To reduce

6、the structural variability among characters,a spatial imagereorganization method with enhanced fine-grained attention is proposed,which captures and enhances the detailed infor-mation of printed text by weakening the structural independence of individual characters and enhancing the attention tothe

7、basic structure of characters(e.g.,strokes,etc.).A multi-level semantic interaction network(MSINet)based on deeplearning is proposed for the style differences caused by rich fonts.By constructing interaction methods with different levelsof features,the impact of stylistic differences in printed char

8、acters is reduced.The effectiveness of the proposed method isverified on the Printing Technique Dataset,and the recognition accuracy reaches 99.4%,which is higher than the main-stream text-independent printer source identification methods.Key words:document forensics;printer source identification;fe

9、ature fusion;deep learning;convolutional neural networks基金项目:中央级公益性科研院所基本科研业务费专项资金(2020JB005)。作者简介:邱雅文(2001),女,研究方向为计算机视觉及模式识别;邹积鑫(1981),男,博士,研究方向为涉假犯罪情报信息分析、文件检验分析;朱子奇(1983),通信作者,男,博士,副教授,CCF会员,研究方向为计算机视觉、机器学习,E-mail:。收稿日期:2022-05-10修回日期:2022-08-11文章编号:1002-8331(2023)16-0101-07Computer Engineering

10、and Applications计算机工程与应用101Computer Engineering and Applications计算机工程与应用2023,59(16)同打印机墨粉的波动差异)常常体现在笔画的边界信息上。文本无关的打印机源识别方法试图解除这种限制,从而对任意文本内容进行溯源识别。但不同字符在结构和风格上都存在显著差异(如图1所示),这些差异会在提取字符特征和分析不同打印机特异性时产生一定影响4。因此如何降低不同字符结构间的巨大差异和字符大小、字体对结果的影响是此问题的难点所在。针对上述问题,本文提出一种文本无关的打印机源识别方法。一方面通过加强细粒度关注度的图像重组方法减少字符间

11、结构性的差异,使网络更多地关注于字符笔画边缘部分;另一方面设计了一个多层次语义交互模型 MSINet,通过融合不同尺度、不同网络层次的特征,从而降低不同字体、字号带来的影响。该模型首先使网络聚焦在一个小的局部区域,随着网络层次的加深,逐渐学习更大的区域直至整张图片,从而将不同大小的字符特征相关联,因此能够适当避免网络直接训练时受字符风格差异的影响。本文的主要贡献在于:(1)提出一种加强细粒度关注度的图像重组方法,能够弱化不同字符在结构上的独立性,使网络更加专注于由打印机产生的差异。(2)提出一个基于深度学习的多层次语义交互模型MSINet,通过融合多层次的特征,降低不同字号、字体的字符对结果的

12、影响。(3)使用Printing Technique Dataset数据集5进行实验,实验结果表明本文提出的方法在文本无关的打印机源识别方面优于目前其他基于纹理特征和深度学习的方法,证明了本文方法的有效性。1相关工作1.1基于相同字符的打印机源识别对于印刷文件的打印机源识别问题,近年来的研究大多围绕某一特定字符展开,即训练大量相同的字符并对目标文件中的该字符进行检测。初期的研究往往通过不同的手工特征方法从图像纹理中提取特征。例如采用灰度共生矩阵(grey-level co-occurrence matrix,GLCM)6-8、离散小波变换(discrete wavelet transform,

13、DWT)7-8、局部二值模式(local binary patterns,LBP)9以及空间滤波器10等方法从打印文档提取特征,随后计算统计特征并使用分类器进行预测。Mikkilineni等11围绕该问题展开了相关研究,最初通过分析英文字符“e”的灰度变化,提出利用灰度共生矩阵与离散小波变换等多种不同的纹理特征方法进行打印机源识别。该方法提取特定字符“e”的22维GLCM特征,并使用5-NN(5-nearest-neighbor)分类器对特征进行训练和测试;随后,在此基础上使用支持向量机代替5-NN分类器以提高分类准确率12。该团队还提出一种基于度量欧式距离的分类器13,同时证实该方法能够分辨

14、具体的打印机型号。Bulan等14则利用由感光鼓和多面镜的波动引起的几何失真来鉴定文档打印机的来源。Wu等15提出基于整页文档的投影变换方法来鉴定激光打印机。由于上述手工特征方法需要花费大量的时间进行实验来确定合适的参数,在实际应用场景中操作性不强。与此同时,卷积神经网络快速发展而显现出的强大表征能力让研究人员们打开新的研究思路。Ferreira等3首先提出并行使用多个卷积神经网络(convolution neural network,CNN),且并行输入字符“e”的中值残差和平均残差,同时也使用字母“a”进行同样的训练,该方法能够达到很高的精度,但是在检测字符不是“a”“e”时效果并不理想。

15、类似的方法中,Tsai等2,16提出了多种CNN体系结构,用于文本文件和图片文件的打印机源识别。Joshi等17提出一种新的噪声残差技术与现有的CNN网络结合,并通过实验证实原始图像和噪声残差的组合比使用相同数据集的最新技术效果更好。此外,还有针对中文字符“永”5,7和日文字符“”18的打印机源识别的研究。尽管基于相同字符的打印机源识别方法目前已经获得了较好的实验效果,但是仍存在一些问题。例如在使用中必须保证文件包含训练的相同字符,还有在改变字体类型、大小时也会影响识别效果。由于上述问题,基于相同字符的打印机源识别方法在实际应用下存在一定局限性。例如在字符少、无特定字符、字体类型不同的文件中该

16、方法并不适用。文本无关的打印机源识别即针对这些问题展开研究。1.2文本无关的打印机源识别文本无关的打印机源识别方法能够直接从多种结构不同的字符中提取同一打印机的特征用于分类,因此对文本内容没有要求。在已有的研究中,Gebhardt等5首先提出了一个包含发票、合同、论文文档的公共数据集,并在此数据集上利用边缘粗糙度的差异来区分喷墨打印机和激光打印机。在该数据集的子数据集上,Elkasrawi等19将打印文件的背景和字符前景分离,仅采Different font and sizeDifferent character structure图1同一打印机生成文件中字符差异样例Fig.1Example

17、of character differences in filesfrom same printer1022023,59(16)用前景图像检查打印机产生的噪声,并提取特征训练支持向量机分类。近年来,Joshi和Khanna2提出了一种基于局部纹理描述符的纹理识别方法,从所有字符的边缘区域提取特征,能够使用单一分类器对任意字符进行分类,但该方法仅在测试字符数量达到40个才能获得较好的准确率。Bibi等20则将该问题与神经网络相结合,在稍加修改的预训练的卷积神经网络上进行迁移学习,同时验证了该方法相较于纹理特征方法的有效性。对于同样的数据集,Gupta等21叠加使用关键打印机噪声特征(key pr

18、inter noise feature,KPNF)、加速鲁棒特征(speeded up robust feature,SURF)等特征检测方法,获得了不错的效果。文本无关打印机源识别问题的难点在于相同打印机生成的文件中不同字符的形态结构完全不同,而不同打印机打印的同样内容之间差异又比较小。因此如何排除字符间的差异,并且使网络学习到不同打印机之间真正的差异是此问题的难点。而对于以上方法,设计目的大多是在有限的图像数据中提取更多互补的特征,从而更加准确地对文件分类。但是目前暂时没有相关研究针对文本无关问题中字符差异的特点提出解决方法,即如何降低不同字符结构、大小、字体的差异对网络学习的影响。因此本

19、文分别通过减少不同字符形态结构的影响和交互多尺度、多层次的特征信息两方面来解决此问题。2多层次语义交互模型MSINet目前文献中的多数方法都是依赖于特定字符的,在真实的使用环境中具有一定的局限性。因此本文提出一种基于卷积神经网络的方法,结合图像重组方法与多层次语义交互模型进行训练,可以在较低分辨率下完成对任意文件的分类,其具体流程如图2所示。本文方法首先将整页的样本图片分为尺寸相同的图像块,随后使用加强图像细粒度关注度的重组方法打乱字符的基本结构,最后将不同尺寸的重组图像依次输入网络中进行分层训练,并使用原图融合不同层次的不同尺度特征再次训练,使不同字号、字体的字符特征之间相互联系。2.1基于

20、空间图像重组的微尺度特征强化方法打印机硬件生产工艺和配置的不同常以细微的差异体现在打印文档上,将文档或字符作为溯源的基本特征都不能直接将关注点聚焦于打印机的出墨特性上。因此本文设计了一种基于空间图像重组的微尺度特征强化方法,应用该方法的显著优势包括:(1)弱化了字符间的结构差异性;(2)通过重组,增强了笔画、笔锋处的细粒度信息,使能直接反映打印机特异性的特征更加丰富。本文将整页文件数据切割为固定大小的图片块。因为大多数神经网络的输入层尺寸要小于原始文档尺寸,所以这里通过分块的方式调整整个文档的大小以匹配网络输入层。由于打印字符主要特征存在于字符边缘区域5,首先对图像块进行切割,通过内容占比筛选

21、包含笔画边缘的部分作为拼图块,然后从同类拼图块中随机选取多个拼图块重组为新的图像。这里根据切割尺寸的不同可以得到不同尺寸的重组图像。如图3所示,IR表示整页分割后的图像块,IS表示经切割并筛选后的拼图块,IC表示经过重组后的数据集。ISi,j=S(IRi,r)(1)IRi=ISi,1ISi,2ISi,rISi,r+1ISi,r+2ISi,2rISi,r(r-1)+1ISi,r(r-1)+2ISi,rr(2)AttentionbFX2bAttentionAttentionaFX3aFXDataIRICISnFX1nabFCnFCbFCaFCRnRRbRaRLcomLbpLpLapBackward

22、Reconstructed images ofdifferent sizes图2多层次语义交互模型MSINet实现流程Fig.2Implementation process of multi-level semantic interaction model MSINet.Selected PuzzlesIRISICSRCrr图3图像重组方法示意图Fig.3Schematic diagram of image recombination method邱雅文,等:用作打印机源识别的多层次语义交互模型MSINet103Computer Engineering and Applications计算机工

23、程与应用2023,59(16)ISi,j=i1,1i1,WriHr,1iHr,Wr(3)ICi=C(R(IS,rr),r)(4)式(1)中,S表示分割函数,将任一张尺寸为WH图片IRi分割为rr个维度为WrHn的拼图块ISi,j,其中i1,2,|IR,j1,2,rr,得 到 拼 图 块 集 合IS。式(4)中函数R(IS,rr)表示随机从IS中抽取rr个拼图块。抽取的拼图块可能来自多张不同的图片,最后由函数C将拼图块拼接为一张WH的图像,得到重组数据集IC。其中r为重组图像的尺寸,r越小的重组数据集对应训练网络越浅层的部分。2.2多层次语义交互模型为了获取相同源打印机文件中不同风格的字符的统一

24、特征,本文设计了一个通用的多层次语义交互模型。首先将不同尺度的图像分多次投入同一网络进行分层学习,即由浅至深地训练网络。直至输入原图时将各层次的特征图进行融合得到最终结果再次反向传播,这里所有的反向传播都是覆盖全部参数。这样的设计是为了首先让网络学习图像中的局部细节,再进一步学习更大范围内的特征信息,其中每一步的参数更新都是为了在下一次训练时达到最优的效果。该部分能够增加模型各部分间的协作性,使网络能够准确地提取打印机特征信息,从而对不加处理的测试文档进行精准分类。首先将重组图像集记作Xr,表示重组规格为rr的IC数据集,其中X1表示原数据集。本文方法中的网络结构设计是通用的,对于常见的卷积神

25、经网络,首先将其分为n个部分。R=concat(R1,R2,Rp-1,Rp)(5)式(5)中,Ri表示各个网络部分所得到的特征向量,使用concat方法对特征进行拼接,得到融合p个特征后的特征向量R。Ri=FCi(Fi)(6)FC表示全连接层,以特征图Fi作为输入并得到特征向量Ri。将使用数据集Xr输入网络并从第i个部分抽出的特征图记为Fri,这里i=1,2,n。式(7)中Attention表示注意力模块:Fi=Fi,if i=nFi=Attention(Fi)Fi,otherwise(7)式(7)中,对于抽出的特征图和最后抽出的特征图有不同的处理,这是因为浅层的特征图不包含高级语义特征,还需

26、使用Attention模块提取特征。Lip=CrossEntropy(H(Ri),l)(8)式(8)中,i=1,2,n,H函数输入为特征向量Ri,输出为图像的预测标签。其中l为图像的本地标签。使用预测标签与其本地标签l计算交叉熵损失函数Lip,并分别进行反向传播对网络分层训练,从而获得更优的学习效果。Lres=Lcom+Lnp(9)最终的损失函数Lres由原图投入网络所得融合后的损失函数Lcom和整个网络得到的损失函数Lnp计算得到,随后进行反向传播,式(10)中和为比例参数。Lcom=CrossEntropy(H(R),l)(10)特征融合后的损失函数Lcom由特征融合后的特征向量R计算的预

27、测标签H(R)与图片的本地标签l计算交叉熵损失函数得到。在随后的测试阶段,仅需要输入分割后的图像块至网络,而无需再对图像进行重组操作即可直接进行打印机源识别。3实验实验验证了用作打印机源识别的多层次语义交互方法的有效性。首先描述本文使用的数据集以及参数设置,随后针对本文方法进行消融实验,最后与其他同类方法进行比较。为了验证本文方法的有效性,使用了Printing Tech-nique Dataset数据集5。这个数据集中包含了来自 13种激光打印机和7种喷墨打印机的1 200份文件,扫描分辨率为400 dpi,其中包括常见的发票、合同、论文三类文档。图4展示了各类数据集样例,表1描述了该数据集

28、的打印机类型及型号。为了实验的合理性,本文依据文献20中对数据集的划分方式将每类文档按7 3的比例划分为训练集和测试集,并且在分割图像之前先划分数据集,其目的是确保同一文档的不同内容不会同时出现在训练集以及测试集中。图像分割方面采用分割为256256大小的图像块。在分割图像块时,考虑到可能会裁剪到全白或者大块黑色占比的图片,因此仅保留了黑色像素点占比为20%80%的图像。3.1基于图像重组方法的性能分析首先在同一数据集上测试了只使用重组图像、混用重组图像与原始图像,以及只使用原始图像的多个实验。所有实验都采用ResNet50网络,图片预处理所切割的图像块尺寸为256256。图5展示了实验结果,

29、其中实验(1)仅使用原始数据集,实验(9)仅使用重组尺寸为44的重组数据集,其他均为混合数据集,即同时使用原始数据集和重组数据集,但重组的尺寸规格不同。实验中所有混合数据集为在原数据集上添加300张重组数据集。为了避免图像数量对准确率的影响,实验(1)和实验(9)中的数据集通过复制和添加图像保持与混合数据集数量相同。实验中文档页面级分类准确率是由文档中分割的图像块使用多数投票机制得到的。1042023,59(16)由图5可知,相较于原始数据集,添加了重组数据集的实验均表现出较好的效果。实验(2)至实验(8)表明重组的规格也对准确率产生一定影响,在重组规格为22或是88的情况下效果仍有提升空间,

30、在重组尺寸适中时能够得到最佳的效果。因此重组图像中的拼图块尺寸需要能够大致包含字符笔画,拼图块太大会使字符结构打乱不彻底,太小又会使字符边缘区域减少。对于仅使用重组数据的实验(9),其准确率反而有一定程度的下降,其原因是本文并未对测试集数据进行重组处理,测试集与所有训练集图像呈不同形态。3.2多层次语义交互模型MSINet的性能分析本节针对该数据集分别测试了使用ResNet50网络、MSINet网络以及使用原数据集和添加重组图像数据集的文件溯源结果。实验中,图片预处理所切割的图像块尺寸为256256,MSINet基于ResNet50网络,且将其分为五部分,式(5)中p设置为3,式(9)中的取值

31、为1,取值为2。实验2、4中使用的混合数据中包含原数据集与每类300张重组图像,重组图像尺寸为44。由表 2可以得出,使用 MSINet结构的效果要远好于基础的神经网络结构,这一点证明了提出方法中融合网络不同尺度特征方法的有效性。同时由实验4可得,使用重组图像进行多层次语义交互训练能够获取更多的有效信息,从而达到更好的效果,因此最终效果也要好于仅使用MSINet网络结构的实验。3.3计算代价分析本文利用浮点运算量(floating point operations,FLOPs)(a)发票(c)科学论文(b)合同图4不同类型数据集展示Fig.4Different types of dataset

32、sID01020304050608111319TypeInkLaserLaserLaserLaserLaserLaserInkInkLaserPrinterOfficejet 5610Samsung CLP 500Ricoh Aficio MPC2550HP LaserJet 4050OKI C5600HP LaserJet 2200dtnRicoh Afico Mp6001Epson Stylus Dx 7400unknownHP Color LaserJet 4650dnID20212223242631324950TypeLaserLaserInkInkLaserInkLaserInkLa

33、serLaserPrinterNashuatec DSC 38 AficioCanon LBP7750 cdbCanon MX850Canon MP630Canon iR C2620Canon MP64DHp Laserjet 4350 o.4250unknownHp Laserjet 5Epson Aculaser C1100表1数据集的打印机信息介绍Table 1Introduction of printer information in dataset 8085909510011 22 33 44 55 66 77 88 44 Image cutting sizePatch-levelP

34、age-levelAccuracy/%(1)(2)(3)(4)(5)(6)(7)(9)(8)图5验证图像重组方法有效性的实验结果Fig.5Experimental results of validating effectivenessof image reconstruction method邱雅文,等:用作打印机源识别的多层次语义交互模型MSINet105Computer Engineering and Applications计算机工程与应用2023,59(16)以及参数量对模型的时间复杂度和性能代价进行评估。本模型与其他模型算法的FLOPs以及参数量的比较如表3所示。由于本文方法在 Re

35、sNet50骨干网络的基础上,增加了注意力模块以及相应的卷积块和全连接层,浮点运算量和参数量存在一定提升,但与骨干网络基本处于同一数量级。同时,从表2和表3的实验结果中可以看出,通过增加适当的额外计算代价,模型性能得到了显著提升,证明了本文方法的有效性。3.4与现有方法的比较目前针对文本无关的打印机源识别的研究并不多,近年来主要包括基于纹理特征、基于神经网络这两类研究。其中Bibi等20集中探讨了传统纹理特征与神经网络的有效性,从文档中随机抽取图像块,一方面通过对预训练模型进行迁移学习,以对打印文档中的补丁进行分类,另一方面从图像块中提取了一组流行的纹理特征用于训练多个分类器,通过多数投票机制

36、得到最终分类结果。并且比较了两类方法在图像块和文档级别上的性能。Gupta等21则尝试叠加多种纹理特征,例如随机叠加ORB(oriented fast rotated brief)、KPNF、SURF等方法提取到的手工特征,随后利用多投票机制对KNN、决策树、随机森林等分类器的分类结果进行投票。本文与以上方法做对比实验,实验中图像预处理所切割的图像块尺寸为256256,网络分为五部分,式(5)中p设置为3,式(9)中的取值为1,取值为2,使用混合数据集,每类打印机数据中包含原数据与300张重组图像,重组尺寸为44,整页文档的识别准确率结果如表4所示。由表4可得,对于不区分字符的打印机源识别问题

37、而言,相较于各类手工特征方法,使用卷积神经网络的方法效果要更好。同时结果表明,本文方法能够在使用相同的公共数据集且基础网络均为 ResNet50 的情况下,好于以上两种方法所得到的最好效果,证明了本文方法的有效性。4结束语本文提出了一种深度学习的多层次语义交互模型MSINet,能够对任意文件进行溯源分类。首先,将数据集切分为相同大小的图像块,随后对图像块进行重组,获得有效信息更多、字符结构特征更少的重组数据集。其次,引入了多层次语义交互的网络结构,并与重组图像集共同使用,将不同大小的字符之间的特征相结合,以获得真正的打印机特征。最后,在Printing TechniqueDataset数据集5

38、上评估了本文方法。实验结果表明,本文所提出的网络结构的性能优于同类文本无关的打印机源识别方法,验证了本文方法的有效性。虽然本文所提出的方法已经能够独立于文本获得较好的效果,但仍有进一步发展的空间。MSINet模型是基于字符边缘所提取的特征来判断的,对于包含文本或表格的文档能有较好的效果,但是对于边缘特征较少的文档,如仅包含图片的文档,则本文方法不再具备优势。而目前文件溯源方法的适用领域中并不仅仅包含普通文件,更有假钞、伪造商品等包括大量图形图片的印刷文件,因此一个能够真正独立于文件内容,不但能够检测文本而且还能够检测图片文件的方法是仍需研究的方向。参考文献:1 TSAI M J,TAO Y H

39、,YUADI I.Deep learning for printeddocument source identificationJ.Signal Processing:ImageCommunication,2019,70:184-198.2 JOSHI S,KHANNA N.Source printer classification usingprinter specific local texture descryptorJ.IEEE Transac-tions on Information Forensics and Security,2019,15:160-171.3 FERREIRA

40、A,BONDI L,BAROFFIO L,et al.Data-drivenfeature characterization techniques for laser printer attri-butionJ.IEEE Transactions on Information Forensics andSecurity,2017,12(8):1860-1873.4 CHIANG P J,KHANNA N,MIKKILINENI A K,et al.Printer and scanner forensicsJ.IEEE Signal ProcessingMagazine,2009,26(2):7

41、2-83.5 GEBHARDT J,GOLDSTEIN M,SHAFAIT F,et al.Doc-ument authentication using printing technique features andunsupervised anomaly detectionC/2013 12th InternationalConference on Document Analysis and Recognition,2013:479-483.ID1234MethodResNet50ResNet50MSINetMSINetDataset原数据集混合数据集原数据集混合数据集Patch-level

42、86.1990.4195.9396.30Page-level96.3097.2098.0599.44表2验证多层次语义交互模型有效性的实验结果Table 2Experimental results of validatingeffectiveness of MSINet单位:%MethodResNet50MSINet(ours)GFLOPs4.125.29Number of parameters/1072.5563.846表3模型性能分析Table 3Analysis of model performanceTypeTextural FeaturesTextural FeaturesCNNCN

43、NMethodLBP Features20KPNF+ORB+SURF21Fine-tuning Pre-trained ResNet5020MSINet(ours)Accuracy/%93.2595.1095.5299.44表4与现有方法的对比实验Table 4Comparison experiments with existing methods1062023,59(16)6 TSAI M J,LIU J.Digital forensics for printed source iden-tificationC/2013 IEEE International Symposium on Cir

44、-cuits and Systems,2013:2347-2350.7 TSAI M J,YIN J S,YUADI I,et al.Digital forensics ofprinted source identification for Chinese charactersJ.Multi-media Tools and Applications,2014,73(3):2129-2155.8 FERREIRA A,NAVARRO L C,PINHEIRO G,et al.Laserprinter attribution:exploring new features and beyondJ.F

45、orensic Science International,2015,247:105-125.9 OJALA T,PIETIKAINEN M,MAENPAA T.Multiresolutiongray-scale and rotation invariant texture classification withlocal binary patternsJ.IEEE Transactions on Pattern Anal-ysis and Machine Intelligence,2002,24(7):971-987.10 EID A H,AHMED M N,RIPPETOE E E.EP

46、printer jit-ter characterization using 2D Gabor filter and spectralanalysisC/2008 15th IEEE International Conference onImage Processing,2008:1860-1863.11 MIKKILINENI A K,CHIANG P J,ALI G N,et al.Printeridentification based on texture featuresC/InternationalConference on Digital Printing Technologies

47、,2004:306-311.12 MIKKILINENI A K,ARSLAN O,CHIANG P J,et al.Printer forensics using svm techniquesC/International Con-ference on Digital Printing Technologies,2005:223-226.13 MIKKILINENI A K,KHANNA N,DELP E J.Forensicprinter detection using intrinsic signaturesC/Proceedingsof SPIE-The International S

48、ociety for Optical Engineering,2011,7880:278-288.14 BULAN O,MAO J,SHARMA G.Geometric distortionsignatures for printer identificationC/2009 IEEE Inter-national Conference on Acoustics,Speech and Signal Pro-cessing,2009:1401-1404.15 WU Y,KONG X,GUO Y.Printer forensics based on pagedocument s geometric

49、 distortionC/2009 16th IEEE Inter-national Conference on Image Processing,2009:2909-2912.16 TSAI M J,YUADI I,TAO Y H.Decision-theoretic modelto identify printed sourcesJ.Multimedia Tools and Appli-cations,2018,77(20):27543-27587.17 JOSHI S,LOMBA M,GOYAL V,et al.Augmented dataand improved noise resid

50、ual-based CNN for printer sourceidentificationC/2018 IEEE International Conference onAcoustics,Speech and Signal Processing,2018:2002-2006.18 TSAI M J,HSU C L,YIN J S,et al.Japanese characterbased printed source identificationC/2015 IEEE Inter-national Symposium on Circuits and Systems,2015:2800-280

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服