收藏 分销(赏)

融合卷积神经网络和Transformer的人脸欺骗检测模型.pdf

上传人:自信****多点 文档编号:3030590 上传时间:2024-06-13 格式:PDF 页数:9 大小:3.84MB
下载 相关 举报
融合卷积神经网络和Transformer的人脸欺骗检测模型.pdf_第1页
第1页 / 共9页
融合卷积神经网络和Transformer的人脸欺骗检测模型.pdf_第2页
第2页 / 共9页
融合卷积神经网络和Transformer的人脸欺骗检测模型.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、学术论文DOl:10.12379/j.issn.2096-1057.2024.01.05ResearchPapers融合卷积神经网络和Transformer的人脸欺骗检测模型黄灵何希平1.2贺丹杨楚天1旷奇弦1(重庆工商大学人工智能学院重庆400067)2(检测控制集成系统重庆市工程实验室(重庆工商大学)重庆40 0 0 6 7)()Face Spoofing Detection Model with Fusion of ConvolutionalNeural Network and TransformerHuang Ling,He Xipingl-2,He Dan,Yang Chutian,

2、and Kuang QixianI(School of Artificial Intelligence,Chongqing Technology and Business University,Chongqing 400067)2(Chongqing Engineering Laboratory for Detection,Control and Integrated System(Chongqing Technology andBusiness University),Chongqing 400067)Abstract In the field of face anti-spoofing,t

3、he methods based on Convolutional Neural Network(CNN)can learn feature representation with fewer parameters,yet their receptive fields remainlocal.In contrast,Transformer-based methods offer global perception but entail an impracticalvolume of parameters and computations,hindering widespread deploym

4、ent on mobile or edgedevices.To address these challenges,this paper proposed a face spoofing detection model thatintegrates CNN and Transformer,aiming to achieve a balance between the amount of parametersand accuracy while maintaining the ability to extract global and local features.Firstly,local fa

5、ceimages are cropped and selected as input to effectively avoid overfitting.Secondly,the featureextraction module based on coordinate attention is designed.Finally,the fusion of CNN andTransformer modules are designed to extract local and global features of images through local-global-local informat

6、ion exchange.The experimental results show that the model achieved anaccuracy of 99.31%and an average error rate of 0.54%on the CASIA-SURF(Depth modality)dataset;Moreover zero error rate is achieved on the CASIA-FASD and Replay-Attack datasets,and the model parameters are only 0.59 MB,much smaller t

7、han the Transformer series models.Key words face spoofing detection;CNN;Transformer;model fusion;attention mechanisy摘要在人脸反欺骗领域,大多数现有检测模型都是基于卷积神经网络(convolutional neuralnetwork,CNN),该类方法虽能以较少的参数学习人脸识别,但其感受野是局部的;而基于Transformer的方法虽然能够全局感知,但参数量和计算量极大,无法在移动或边缘设备广泛部署.收稿日期:2 0 2 3-0 4-2 5基金项目:重庆市教育委员会科学技术研究

8、项目(KJZD-K20220080);重庆工商大学研究生科研创新项目(yjscxx2022-112-180)引用格式:黄灵,何希平,贺丹,等.融合卷积神经网络和Transformer的人脸欺骗检测模型J.信息安全研究,2 0 2 4,10(1):2 5-33网址http:/125信息安全研究第10 卷第1期2 0 2 4年1月Journalot Informatien Security ResearchVol.10No.1Jan.2024针对以上问题,提出一种融合CNN和Transformer的人脸欺骗检测模型,旨在保持人脸全局和局部特征提取能力的前提下,实现参数量和准确度的平衡.首先,裁剪选

9、取局部人脸图像作为输入,有效避免过拟合现象;其次,设计基于坐标注意力的特征提取模块;最后,设计融合CNN和Transformer模块,通过局部一全局-局部的信息交换实现图像局部特征和全局特征的提取.实验结果表明,该模型在CASIA-SURF(Depth模态)数据集上获得了9 9.31%的准确率以及0.54%的平均错误率;甚至在CASIA-FASD和Replay-Attack这2 个数据集上实现了零错误率,且模型参数量仅0.59 MB,远小于Transformer系列模型.关键词人脸欺骗检测;CNN;T r a n s f o r m e r;模型融合;注意力机制中图法分类号TP183人脸欺骗检

10、测也称为人脸反欺骗(face anti-spoofing,FA S)1-31技术,需要针对同一张人脸图像准确识别其是真实人脸还是被攻击过的伪造人脸(如打印照片、视频重放、3D面具等).FAS在提取图像特征时更关注图像的全局细节信息是否符合人脸的自然属性,其中蕴含的细节变化是应该重点获取的特征信息.因此,在保持全局和局部特征提取能力的前提下实现参数量和准确度的平衡至关重要。基于CNN的方法在人脸欺骗检测领域因其较强的局部感知能力而比较适合应用在端设备的视觉任务中,这类方法已经取得了很好的进展:2020年,Parkin等人4从RGB视频创建人工模式,使用包含较少身份和细粒度特征的中间表征提高模型对

11、未知攻击以及未知种族的鲁棒性;2021年,George等人5提出一个新的跨模态的焦点损失函数,将RGBD通道与该损失函数结合从而调节不同通道的置信度;2 0 2 2 年,Yu等人6 1针对现有单模态和多模态FAS方法可能存在允余和低效问题,训练了一个可以在各种模态场景下灵活部署的统一模型;同年,文献7 通过多种模态信息互补逐步过滤欺骗样本.尽管基于CNN的这些模型都实现了很好的性能,但由于在提取图像特征时只能局部感知,无法实现全局特征的相关性交互,有一定的局限性.视觉 Transformer(visual transformer,ViT)8)近2 年在视觉领域十分火热,但是其在人脸欺骗检测上的

12、应用较少.2 0 2 1年,George等人9 第1次使用Transformer进行演示攻击检测;2 0 2 2 年,Huang等人Liol采用Transformer作为主干模块,并使用多层感知机(MLP)头进行分类预测,以解261决人脸反欺骗问题.虽然Transformer在性能方面效果显著,但是也存在计算成本较高、收敛慢且很难训练的问题.为了能够同时提取全局和局部特征,并且缓解CNN和 Transformer 的缺点,许多研究者开始探索两种模型的融合.2 0 2 1年,,Mehta等人11为了使Transformer模型能够用于移动视觉任务,提出了CNN和Transformer结合的模型结

13、构;2 0 2 2 年,Zhang等人12 为了将视觉Trans-former的优点融合到CNN中,提出一种具有全局感受野且带有位置嵌人的全局循环卷积.综上,针对现有人脸欺骗检测模型,基于CNN的模型架构存在无法获取全局感受野的特征相关性的缺陷,而基于Transformer的模型架构存在参数量大、不易训练等缺点.鉴于此,本文提出了融合CNN的权值共享和平移不变性以及Transformer的全局感受野优势的适用于人脸欺骗检测的模型架构.为了证明本文模型的有效性,在CASIA-FASD13、Re p l a y-A t t a c k 141数据集和CASIA-SURFL15数据集的Depth模态

14、上进行了对比实验和消融实验.结果表明,本文方法可以提高人脸欺骗检测模型性能,优于其他检测方法1本文模型为了有效结合CNN和Transformer的优点,本文对MobileViTlI改进优化,MobileViT巧妙地将MobileNetV2的逆残差块和Transformer模块进行结合叠加,从而实现局部与全局的视觉表征信息交互.其在图像分类、目标检测和语义分割等视觉任务中都取得了很好的性能。本文从CNN和Transformer这2 种模型出发,学术论文.ResearchPapers首先通过优化MobileNetV2中部分模块,设计出基于注意力机制的倒残差(attention-based inve

15、rt-ed residual,A I R)模块,缓解特征图穴余的问题,主要提取局部特征,当步长为2 时进行下采样;其次,与MobileViT中所用Transformer不同的是,本文Transformer部分结合了基于局部窗口的多头注意力和基于全局窗口的多分辨率注意力(multi-resolution overlapped attention,MOA)16),最终设计了 CNN 和 Transformer 融合(convolu-tional neural network and transformer fusion,CTF)模块,结合了CNN对空间感应偏差、数据增强的敏感性较低和Transfo

16、rmer输人自适应加权和全局处理的优点,以缓解现有人脸欺骗检测模型中CNN无法提取全局信息以及Transformer模型参数量大的问题.1.1整体框架本文模型具体结构如图1(a)所示.本文方法主要体现在CNN和Transformer的融合时局部和全局信息结合的过程,图1(b)则是局部像素与全局像素之间实现信息交互的过程效果示意图:输入人脸图像3x3Conv,12局部特征提取LayerlAIRLayer2AIR,121经过基于注意力机制的倒残差模块(AIR)实现局部感知全局特征提取经过CNN和TransformerAIR,12Layer3CTF+L=4AIR,12Layer4CTF+L=4SE3

17、x3Convstride=2输出(a)本文模型架构图1融合 CNN和Transformer的人脸欺骗检测模型首先随机裁剪图像统一大小,在注意力机制的驱动下,再随机选取局部图像作为网络结构的输人,有效地避免训练网络时的过拟合问题.然后使用常规的3X3卷积层进行下采样,保证提取到丰富的局部特征.接着,主要是AIR 和 CTF这2 个不同的功能模块进行叠加,基于CNN的AIR模块提取到的局部特征作为CTF模块的输人,然后再与经过 CTF模块中基于Transformer 提取到的全局特征进行融合,信息交互过程如图1(b)所示.最后添加的是通道注意力SE(s q u e e z e-a n d-e x-

18、融合模块(CTF)实现全局特征和局部特征的交互再次经过AIR模块实现局部感知米特征图和全局信息(b)局部-全局-局部感知实现效果图citation)17模块对输人特征图进行通道压缩,获取每个通道的重要性,从而使模型更加关注信息量大的通道特征,提升模型对通道特征的敏感性.1.2AIR模块文献18 利用特征映射之间的相关性,以低成本的操作生成更多的特征图,在一定程度上缓解了特征图余的问题.而文献19 以较少参数提取同样丰富的特征,实现结构轻量化.为了避免信息过于丰富从而引起的特征图穴余问题,以及构建各通道间的依赖关系,本文设计了基于注意力网址http:/127局部特征提取具有局部信息信息安全研究第

19、10 卷第1期2 0 2 4年1月Journalotinformatien Security ResearchVol.10No.1Jan.2024机制的倒残差网络一AIR模块,其结构如图2(b)所示.AIR模块是对MobileNetV2207进行优化输入1x1Conv,BN,Relu63x3DWConV,BN,Relu61x1Conv,BNAdd输出(a)MobileNetV2从图2 可以看出,本文AIR模块的设计主要体现在特征廉价生成(cheap feature generation,CFG)模块,它将输入通过1X1卷积得到的特征图与再通过3X3的深度卷积得到的特征图进行融合拼接,实现以更少

20、的参数通过线性变换生成更多的特征映射,降低计算成本。由于CFG模块有通道拼接的过程,需要对通道间关系进行构建,因此,在CFG模块后增加坐标注意力(coordinate attention,CA)2 1模块,用精确的位置信息对通道关系和长期依赖进行编码。1.3CTF模块为了实现局部和全局信息交互从而提升人脸欺骗检测模型性能,本文设计融合了CNN的归纳偏置特性和Transformer的全局感受野特性的CTF模块,具体结构如图3(a)所示.CTF模块主要是在CNN主干网络中使用Transformer代替部分卷积模块.对比基于Trans-former的模型,本文设计的CTF模块不需要大量数据,可以利用

21、CNN的归纳偏置特性使用少量参数对局部和全局信息进行特征编码.首先用3X3卷积学习局部空间特征,通过1X1卷积将输人特征投影到高维空间,完成局部表征提取,最终得到特征图XcERBXCxWXH.为了能够学习具有空间归纳偏置的全局表示,卷积操作后加入Transformer281设计的结果,MobileNetV2是一个带有线性瓶颈层的倒残差网络,具体结构如图2(a)所示:输入CFG模块1x1Conv,stride=s,CFGBN,Relu6CA3x3DWConv,BN,Relu61x1Conv,BNConcatAdd输出图2 MobileNetV2与AIR的结构模块,如图3(b)所示.由于经过卷积后

22、的图像不符合Transformer 的输人,因此将X展开为N个不重叠的图像块XpERBX(uXh)X(NXC).Xp=Unfold(Xc),其中N=(W/w)(H/h);经过 Transformer模块对每个图像块建模后,得到XTERBX(wXI)X(NXC)Xr=Transformer(Xp).(2)最后通过1X1卷积将输出的维度降到与CTF模块输入相同的维度,然后用3X3卷积将局部和全局特征进行融合,实现全局感知操作.在此之前,需要将特征图X折叠成卷积操作的输人,即XrERBXCXWXH.此时Xp含有全局信息,再将其和原始输入图像进行连接,使得同时包含全局和局部信息.X=Fold(Xr).

23、CTF中的Transformer模块可以获取全局信息,以弥补基于卷积的人脸欺骗检测模型只能局部感知的不足,该模块由基于局部窗口的多头注意力和基于全局窗口的MOA构成,如图4所示.常规的自注意力机制中,Q(q u e r y)、K(k e y)、V(value)通过线性变换生成过程如图4(a)所示.而MOA-Transformer16中的MOA模块中,为了实现邻域像素信息的传递,用于生成K,V 嵌人的图像块尺寸比用于生成Q嵌入的图像块尺寸稍(b)AIR模块(1)(3)学术论文ResearchPapersCHX3x3ConV局部表征1x1ConvUnfoldCHW全局表征LXCNN提取的特征与Tr

24、ansformer提取的特征进行融合大,且滑动步长比其本身要小,过程中有重叠.如图4(b)所示,橙色为重叠部分.MOA模块能够克服基于局部窗口的多头注意力不能建立长期依赖关系的问题,使所有像素之间尽可能进行信息交互,从而将基于局部窗口的多头注意力提取到的全局特征进行聚合.2实验分析与结果2.1实验基础2.1.1实验设置本文实验均在python3.7.0环境下的pytorch框架中进行,CPU 为 Intel?CoreTM i7-11800H,GPU为 NVIDIA GeForce RTX 3060,内存大小输入NormTransformer多头注意力机制Fold文DropoutHPx1Conv

25、CHW2CHW3x3ConVCWHY(a)CTF模块整体结构图3CTF模块结构为16.0 GB.本文模型的优化器使用SGD,损失函数选择常用于分类问题的交叉熵函数,初始学习率为0.0 5.批处理样本大小为6 4,循环10 次,每次送代次数为40 次.2.1.2数据集本文使用的数据集包括CASIA-SURF,Replay-Attack 和 CASIA-FASD.其中 CASIA-SURF数据集包含RGB,Depth 和IR这3种模态,本文主要在该数据集的Depth模态下进行实验.Replay-Attack和CASIA-FASD数据集是单模态的,只有RGB一种模态.2.1.3评价指标为了公平起见,

26、本文在不同数据集上作对比实验时使用了不同的评价指标.在CASIA-SURF网址http:/129Norm多层感知机MOA输出(b)Transformer模块信息安全研究第10 卷第1期2 0 2 4年1月Journalotinformatien Security ResearchVol.10No.1Jan.202477Q77:4949x9padding=1Q/K/VK/V:814四449(a)基于局部窗口的多头注意力图42 种自注意力模块Q,K,V 的生成示意图数据集上实验时,使用平均分类错误率(averageclassification error rate,A CER)、准确率(accur

27、acy,ACC)评估不同模型的精度,使用参数量(Params)以及每秒浮点运算次数(FLOPS)评估的模型计算量,ACER值越小ACC值越大,表明实验的效果越好.而在Replay-Attack和CASIA-FASD数据集上,使用等错误率(equalerrorrate,ER R)和半总错误率(half totalerrorrate,H T ER)作为对比实验的评价指标,其值越小越好。2.2消融实验在人脸欺骗检测模型的结构设计中,本文分别引人了CA模块、SE模块、MOA模块以及改进优化的AIR模块中的CFG模块,因此,在CASIA-SURF数据集的Depth模态下进行消融实验,从而验证上述4个模块

28、的有效性。由表1可知,依次增加CA,SE和MOA这3个模块后,参数量有小幅度增加,但是模型精度变化显著,这表明CA,SE和MOA模块对本文模型的性能有较好的提升作用.而最后2 行实验数据表明,在不添加CFG模块时,参数量为0.59 9 9 MB,准确率为9 8.15%,增加该模块后,不仅参数量下降为0.59 7 7 MB,且准确率提高了1.16%,验证了CFG模块的有效性.301Q/K/V(b)基于全局窗口的MOA表1在CASIA-SURF数据集的Depth模态下的消融实验结果模块CFGCASEMOAACC/%ACER/%Params/MB97.641.9198.461.19V98.7798.

29、1599.312.3不同方法效果比较2.3.1CASIA-SURF数据集上的方法比较本文融合了 CNN和Transformer这2 种模型,为了验证本文融合模型的有效性,将分别与基于CNN的模型和基于Transformer的模型在数据集CASIA-SURF(D e p t h 模态)上进行对比实验.如表2 所示。表2 中方法1是基于CNN结构的人脸欺骗检测模型,方法2 是基于Transformer结构的人脸欺骗检测模型,方法3是两者融合的模型架构,包括本文设计的模型.实验结果表明,与基于CNN的模型方法相比,本文模型的参数量达到0.59 MB,虽然比专注于轻量化的FeatherNet系列略高,

30、但受Transformer全局感知影响其精度更好,且与评价指标0.54820.55070.950.55181.640.59990.540.5977学术论文ResearchPapers其他模型无论是在参数量还是准确度上进行比较都更具竞争力;与基于标准Transformer和基于MOA-Transformer模型相比,本文模型参数量仅0.59MB,而对比的2 种 Transformer模型分别达ACC/%ResNet182296.42ShuffleNetV22398.631FeatherNetAL241FeatherNetBL24MobileNetV220ViT872MOA-Transformer

31、16MobileViT(J3本文方法2.3.2Replay-Attack和CASIA-FASD数据集上的方法比较由表3、表4可知,本文所设计的模型在 Replay-Attack 和CASIA-FASD数据集上的ERR和HTER表3在Replay-Attack数据集上与其他方法比较结果%方法Color LBP25Deep LBP26LBP+WLD27DSGNL287文献 2 9 本文方法表4在CASIA-FASD数据集上与其他方法比较结果%方法Color LBP25 Deep LBP261LBP+WLDE273D CNN+geneloss30文献 2 9 本文方法到了8 5.17 MB和9.2

32、9 MB,远大于本文的融合模型;通过与MobileViT方法比较,本文模型准确率提高1.13%,ACER降低到0.54%,表明了本文对其改进优化的有效性.表2 在CASIA-SURF数据集的Depth模态下的对比实验结果评价指标方法ACER/%3.321.4399.120.9199.200.7698.581.3391.2910.8195.635.7798.181.9799.310.54都实现了零错误率,是现有人脸欺骗检测模型中最好的结果.3 结 语实际应用中,大型模型很难在边缘设备上部评价指标署,并且影响用户体验,本文的融合方法对比基于ERRHTER0.400.100.530.130.060.

33、00评价指标ERRHTER2.102.302.641.400.110.00Params/MB1.072.90.91790.34530.35122.143585.17819.29780.49190.5977Transformer的大型模型方法在参数量方面大幅度降低,实现了网络的轻量化,更便于应用在边缘设备中.本文模型参数量为0.59 MB,仅次于部分0.69轻量级 CNN架构,在多个数据集内部测试时,实验效果明显优化其他方法,下一步工作将考虑如何提高模型的泛化能力和鲁棒性。0.00参考文献1 Frischholz R W,Werner A.Avoiding replay-attacks in a

34、face recognitionsystenm using head-pose estimation CJ IlProc of IEEE Int SOI Conf.Piscataway,NJ:IEEE,2003:234-2352 Schuckers S.Spoofing and anti-spoofing measures JJ.2.14Information Security Technical Report,2002,7(4):56-623Atoum Y,Liu Yaojie,Jourabloo A,et al.Face anti-spoofing using patch and dept

35、h-based CNNs C I/Proc ofIEEE Int Joint Conf on Biometrics.Piscataway,NJ:0.00IEEE,2018:319-328计算量/FLOPS1.45520.55500.01470.01530.05551.42996.32471.66971.2172网址 http:/ 1 31信息安全研究第10 卷第1期2 0 2 4年1月Journalotlnformation Security ResearchVol.10No.1Jan.20244 Parkin A,Grinchuk O.Creating artificial modaliti

36、es tosolve RGB liveness J.arXiv preprint,arXiv:2006.16028,20205George A,Marcel S.Cross modal focal loss for RGBD faceanti-spoofing C l/Proc of the IEEE/CVF Conf onComputer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2021:7882-78916Yu Zitong,Liu Ajian,Zhao Chenxu,et al.Flexible-modalface anti-s

37、poofing:A benchmark JJ.arXiv preprint,arXiv:2202.08192,20227 刘龙庚,任宇,王莉。基于多模态与多尺度融合的抗欺骗人脸检测算法研究 J.信息安全研究,2 0 2 2,8(5):513-5208Dosovitskiy A,Beyer L,Kolesnikov A,et al.An image isworth 16 X 16 words:Transformers for image recognitionat scaleJJ.arXiv preprint,arXiv:2010.11929,20209George A,Marcel S.On

38、the effectiveness of visiontransformers for zero-shot face anti-spoofing C/Proc of2021 IEEE Int Joint Conf on Biometrics(I JC B).Piscataway,NJ:IEEE,2021:1-8io Huang Hsinping,Sun Deqing,Liu Yaojie,et al.Adaptivetransformers for robust few-shot cross-domain face anti-spoofingJJ.arXiv preprint,arXiv:22

39、03.12175,202211 Mehta S,Rastegari M.MobileViT:Light-weight,general-purpose,and mobile-friendly vision transformer JJ.arXivpreprint,arXiv:2110.02178,202112 Ge Tao,Wei Furu.EdgeFormer:A parameter-fficienttransformer for on-device seq2seq generation J.arXivpreprint,arXiv:2202.07959,202213 Zhang Zhiwei,

40、Yan Junjie,Liu Sifei,et al.A face anti-spoofing database with diverse attacks C/Proc of the 5thIEEE IAPR Int Conf on Biometrics(ICB).Piscataway,NJ:IEEE,2012:26-3114 Chingovska I,Anijos A,Marcel S.On the effectiveness oflocal binary patterns in face anti-spoofing C/Proc of the2012 Int Conf of Biometr

41、ics Special Interest Group(BIOSIG).Piscataway,NJ:IEEE,2012:1-715 Zhang Shifeng,Wang Xiaobo,Liu Ajian,et al.A datasetand benchmark for large-scale multi-modal face anti-spoofing C/Proc of the 2019 IEEE/CVF Conf onComputer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2019:919-92816Patel K,Bur A M

42、,Li Fengjun,et al.Aggregating globalfeatures into local vision transformer JJ.arXiv preprint,arXiv:2201.12903,202217 Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitationnetworks C/Proc of the 2018 IEEE/CVF Conf onComputer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2018:7132-71413218Han Kai,Wang Yun

43、he,Tian Qi,et al.Ghost Net:Morefeatures from cheap operations C/Proc of the 2020IEEE/CVF Conf on Computer Vision and Pattern Recognition(CVPR).Piscataway,NJ:IEEE,2020:1577-158619 He Dan,He Xiping,Yuan Rui,et al.Lightweightnetwork-based multi-modal feature fusion for face anti-spoofingJJ.The Visual C

44、omputer,2022,39(4):1423-143520Sandler M,Howrd A,Zhu Menglong,et al.MobileNetV2:Inverted residuals and linear bottlenecks CJ/Proc of the2018 IEEE/CVF Conf on Computer Vision and PatternRecognition.Piscataway,NJ:IEEE,2018:4510-452021 Hou Qibin,Zhou Daquan,Feng Jiashi.Coordinateattention for efficient

45、mobile network design C/Proc ofComputer Vision and Pattern Recognition(CVPR).PiscatawayNJ:IEEE,2021:13713-1372222He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deepresidual learning for image recognition C/Proc of theIEEE Conf on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2016:770-77823

46、NMa Ningning,Zhang Xiangyu,Zheng Haitao,et al.ShuffleNet V2:Practical guidelines for efficient CNNarchitecture design CJ/Proc of the 2018 European Confon Computer Vision(EC C V).Be r li n:Sp r i n g e r,2 0 18:116-13124Zhang Peng,Zou Fuhao,Wu Zhiwen,et al.FeatherNets:Convolutional neural networks as

47、 light as feather for faceanti-spoofing C/Proc of the 2019 IEEE/CVF ComputerVision and Pattern Recognition.Piscataway,NJ:IEEE,2019:1574-158325Komulainen J,Hadid A,Matti P.Face spoofing detec-tionusing dynamic texture C/Proc of Asian Conf onComputer Vision.Berlin:Springer,2012:5-626 Li Lei,Feng Xiaoy

48、i,Jiang Xiaoyue,et al.Face anti-spoofing via deep local binary patterns CJ/Proc of IntConf on Image Processing.Piscataway,NJ:IEEE,2017:101-10527Khammari M.Robust face anti-spoofing using CNN withLBP and WLDJJ.IET Image Processing,2019,13(11):1880-188428Ning Xin,Li Weijun,Wei Meili,et al.Face anti-sp

49、oofingbased on deep stack generalization networks CJ/Proc ofthe Int Conf on Pattern Recognition Applications andMethods.Berlin:Springer,2018:317-32329栾晓,李晓双.基于多特征融合的人脸活体检测算法J.计算机科学,2 0 2 1,48(S2):40 9-415学术论文ResearchPapers3o Li Haoliang,He Peisong,Wang Shiqi,et al.Learninggeneralized deep feature re

50、presentation for face anti-spoofing JJ.IEEE Trans on Information Forensics&Security,2018,13(10):2639-265231Chingovska I,Anijos A,Marcel S.On the effectiveness oflocal binary patterns in face anti-spoofing CJ/Proc of the2012 Int Conf of Biometrics Special Interest Group(BIOSIG).Piscataway,NJ:IEEE,201

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服