收藏 分销(赏)

基于内卷神经网络的轻量化步态识别方法.pdf

上传人:自信****多点 文档编号:3010365 上传时间:2024-06-13 格式:PDF 页数:8 大小:1.82MB
下载 相关 举报
基于内卷神经网络的轻量化步态识别方法.pdf_第1页
第1页 / 共8页
基于内卷神经网络的轻量化步态识别方法.pdf_第2页
第2页 / 共8页
基于内卷神经网络的轻量化步态识别方法.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、DOI:10.11991/yykj.202303032网络出版地址:https:/ Softmaxloss 组成的联合损失函数,该函数使所提出的模型具有更好的识别性能及更高的跨视角条件的识别准确率;最后,基于 CASIA-B 步态数据集进行实验验证。实验结果表明,本文所提方法的网络模型参数量仅有 5.04MB,与改进前的残差网络相比参数量减少了 53.46%;此外,本文网络在相同视角以及跨视角条件下相比主流算法具有更好的识别准确率,解决了视角变化情况下步态识别准确率降低的问题。关键词:步态识别;内卷神经网络;残差网络;神经网络算子;内卷层;三元组损失函数;传统损失函数;联合损失函数中图分类号:

2、TP183;TH701文献标志码:A文章编号:1009671X(2024)02004008Lightweight gait recognition method based on involution neural networkWANGHongru,WANGZiwei,ChupalovALEKSANDRCollegeofInformationandCommunicationEngineering,HarbinEngineeringUniversity,Harbin150001,ChinaAbstract:Theexistinggaitrecognitionmethodshavedisadva

3、ntagessuchasheavycomputation,slowrecognitionrateandeasilybeingaffectedbytheangleofviewchanges,whichmakesitdifficulttodeploythemodelandreducestheaccuracyofgaitrecognition.Thispaperproposesahighaccuracygaitrecognitionmethodbasedoninvolutionneuralnetworktosolvetheaboveproblem.Firstly,aninvolutionneural

4、networkmodelbasedonresidualnetworkarchitectureandinvolutionneuralnetworkoperatorisproposed,inwhichthemodelusestheentrainmentlayertoextractgaitfeaturestoreducemodeltrainingparameters.Then,basedontheinvolutionneuralnetworkmodel,ajointlossfunctionconsistingofTripletlossandtraditionallossfunction(Softma

5、xloss)isestablished.Thefunctionmakestheproposedmodel have better recognition performance and higher recognition accuracy across view conditions.Finally,experimentalverificationiscarriedoutbasedonCASIA-Bgaitdataset.Theexperimentalresultsshowthatthenumberofparametersoftheproposedmethodisonly5.04MB,whi

6、chisreducedby53.46%comparedwiththeresidualnetworkbeforemodification.Inaddition,theproposednetworkhasbetterrecognitionaccuracythanthemainstreamalgorithmunderthesameangleofviewandcross-viewconditions,solvingtheproblemofreducedgaitrecognitionaccuracyundertheangleofviewchanges.Keywords:gaitrecognition;i

7、nvolutionneuralnetwork;residualnetwork;neuralnetworkoperator;involutionlayer;tripletloss;Softmaxloss;jointlossfunction步态识别是生物识别技术中的一个重要研究方向,其与指纹、人脸和虹膜等传统的生物识别技术相比具有远距离、难以伪装和无需待检测者配合等优点1,被广泛应用于安防和公共交通等领域24。目前,步态识别的方法基于有无建模分为 2 类,分别为基于模型的步态识别和基于非模型的步态识别。基于模型的步态识别是指对人体结构及人的行走过程进行建模,该方法的实质为将模型的相关参数作为步态特

8、征进行识别5。早在 1997 年,收稿日期:20230331.网络出版日期:20240204.基金项目:中央高校基础研究基金项目(3072022CF0801).作者简介:王红茹,女,副教授,博士.王紫薇,女,硕士研究生.通信作者:王红茹,E-mail:.第51卷第2期应用科技Vol.51No.22024年3月AppliedScienceandTechnologyMar.2024Cunado 等6利用人体模型表示步态特征,将人体行走状态抽象为一个时空序列和一个铰接模型进行识别,由于提取的步态特征信息较少导致方法识别性能较低。后随着步态研究的深入发展,2014 年 Tang 等7利用先进的 3D

9、成像设备进行3D 重建和目标跟踪,有效地提高了步态识别准确率,但无法仅用距离数据实现人体轮廓的精准分 割。为 了 解 决 这 个 问 题,2017 年 Tang 等8提出了一种步态特征部分相似性匹配方法,将平面外观信息转换为立体的步态信息进行识别,但在跨视角识别方面仍存在不足。为解决跨视角方面的问题,2020 年 Liao 等9提出基于人体 3D 姿态的 PoseGait 模型,通过对姿态特征识别使识别准确率提高。上述基于人体模型的步态识别技术虽然在处理噪声、遮挡等方面性能较好,但模型参数量普遍较大、难以部署。基于非模型的步态识别技术的本质是将捕捉的步态序列中的人体轮廓信息作为步态特征实现步态

10、识别。传统的非模型步态识别方法先使用主成分分析法或矩特征分割法等对步态能量图进行特征提取,再将特征信息输入到不同的分类系统中进行分类,最终达到步态识别的目的。随着深度学习的快速发展,基于深度学习的非模型步态识别方法成为非模型步态识别的主流方法之一。与传统的非模型步态识别相比,基于深度学习的算 法 结 构 更 加 简 单 且 应 用 性 更 强。2006 年Han 等10提出了步态能量图(gaitenergyimage,GEI),用一张步态图像表征一个步态周期内目标行走的静态信息和动态信息,具有输入信息量较少的优点。2017 年 Wu 等11将 GEI 与卷积神经网络相结合,得到了较好的步态识别

11、效果,但在跨视角和跨形态条件下性能相对较差。为解决此问题,2017 年 Yu 等12提出步态生成对抗网络(gaitgenerativeadversarialnetwork,GaitGAN),通过将不同外观形状和不同视角的 GEI 序列转换为指定外观形状和指定视角的 GEI 序列,有效地提高了识别准确率。2017 年 Liao 等13提出基于人体 2D姿 态 关 节 点 的 时 空 网 络(pose-based temporal-spatialnetwork,PTSN),PTSN 包括 2 路网络,分别为提取步态信息中静态特征的卷积神经网络和提取步态信息中动态特征的记忆网络,提高了跨形态条件的步

12、态识别准确率。为了获得更充分的步态信息,2019 年 Chao 等14提出基于步态侧影图集合(GaitSet)的方法,从步态视频中逐帧提取出外观轮廓后构建一个序列集,将其输入到卷积神经网络中,提取每一帧图片的步态特征,并采用多级特征池化方法融合全部步态特征。上述全部方法在一定条件下达到了理想的识别效果,但由于模型的复杂化导致参数量以及运算量增加,在实际应用中无法快速实现目标识别。此外,在训练过程中由于需要的神经网络层数较多,易出现过拟合情况,在跨视角的条件下步态识别准确率降低。基于以上问题,本文提出了基于内卷神经网络 的 步 态 识 别 方 法。该 方 法 采 用 残 差 网 络(Resnet

13、-18)作为主体框架,设计以内卷神经网络算子(Involution)为基础的内卷层进行步态特征的提取,并提出内卷神经网络(Rednet-18),有效地减少了网络模型的训练参数;并基于距离度量学习(distancemetriclearning,DML)提出由三元组损失 函 数(tripletloss)和 传 统 损 失 函 数(Softmaxloss)组成的联合损失函数,引用到 Rednet-18,通过学习一个约束来增大类间样本的距离且减小类内样本的距离,达到增加识别性能的鲁棒性及有效提高跨视角条件下步态识别准确率的目的。1算法框架本文采用 GEI 作为网络的输入。基于内卷神经网络的步态识别框架

14、如图 1 所示。反向传播模型收敛训练过程测试过程目标检测图像处理拍摄步态视频测试集(GEIs)训练集(GEIs)内卷神经网络内卷神经网络目标身份预测值真实值图1基于内卷神经网络的步态识别算法框架第2期王红茹,等:基于内卷神经网络的轻量化步态识别方法411.1内卷神经网络算子传统卷积神经网络虽然通过其突出的空间不可知性和空间紧凑性提高了完成各项任务的效率,但卷积核适应不同空间位置的视觉模式的能力并不理想,其局部性也是大大限制了卷积的感受野,这给远距离识别带来了挑战。同时,在大多数深层卷积网络中,卷积滤波器内部的通道间冗余十分突出,使得网络模型的参数量非常大。为了克服上述卷积的局限性,文献 15

15、提出了内卷神经网络算子 Involution。Involution 是一种视觉表征算子,它与卷积算子 Convolution 的空间一致性和通道特异性的设计原则相反,具有空间特异性和通道一致性的原则,即内卷核在空间上是不同的,而在通道间是共享的,这在一定程度上解决了由于感受野被限制所导致的无法捕获长距离信息的问题,避免了通道间的冗余。通过将内卷操作直接替换传统的卷积操作,可以使网络模型更加轻量高效。内卷神经网络算子示意如图 215所示。KK1HW11K2XWHYKKc11ccc图2内卷神经网络算子示意内卷神经网络算子在空间维度中采用不同的内核,在通道上共用相同的内核,根据相应位置的输入特征向量

16、生成该空间位置的特定内卷核,内卷核的生成函数通用形式如下:Hi,j=(Xi,j)i,jXi,j()式中:为坐标邻域的集合,为光谱特征向量,为关于的核生成函数。当取 为(i,j)的集合,可以得到一种简单内核形式:Hi,j=(Xi,j)=W1(W0Xi,j)Xi,jW0 RcrcW1 R(KKG)crKKr()式 中:为 像 素 点 位 置(i,j)的 输 入 特 征 图,和为一种线性的变换矩阵,为坐标(i,j)附近所取邻域大小,c 为通道数,为通道缩减比率,为关于的批处理归一化后的非线性激活函数,G 为所有通道共享数。将内卷核展平与对应位置的像素点图块在通道上进行积运算,在空间上进行和运算,最终

17、输出一个与输入维度相对应的特征映射,输出特征映射为Yi,j,p=(u,v)i,j,u+K/2,v+K/2,pG/cXi+u,j+v,p1 i H 1 j Wp=1,2,GXi+u,j+v,pXi+u,j+v,pi,j,u+K/2,v+K/2,pG/c RHWKKGHW KKGu+K/2,v+K/2pG/c式中:,为空间位置索引,其中H 为内卷核的高,W 为内卷核的宽;为比例系数;为输入;为输出特征映射;为内卷神经网络算子内核向量,为内卷算子内卷核的大小,为内卷核滑动窗口大小,为在一个通道上的共享数,为相对位置(i,j)邻域偏移集,表示为=K/2,K/2+1,K/2K/2,K/2+1,K/2根据

18、上述理论设计了内卷层 BasicBlock-invo,其包含了内卷支路和一个直连(short-cut)支路,每个内卷支路有 2 次内卷操作,通过内卷操作提取步态特征;直连支路用于将低层信息直接传递到深层,解决训练过程中浅层网络学习困难的问题。内卷层结构如图 3 所示。输入特征图归一标准化处理非线性激活函数(ReLU)处理归一标准化处理非线性激活函数(ReLU)处理通道数不一致时,输出33 内卷核操作、33内卷核操作、33 内卷核操作图3内卷层示意根据内卷层的特性,搭建了内卷神经网络(Rednet-18),网 络 中 包 括 4 层 内 卷 残 差 模 块(RednetBlock),每层 Red

19、netBlock 含有 2 个基本内卷残差块(BasicBlock-invo)。首先通过预处理模块调整特征图片的大小及参数,然后将其输入到 RednetBlock1 依次执行算法,最后输出分类结果,整体框架示意如图 4 所示。42应用科技第51卷输入预处理:BNReLUMaxpoolRednet Block1BasicBlock-invoBasicBlock-invoRednet Block2BasicBlock-invoBasicBlock-invoRednet Block3BasicBlock-invoBasicBlock-invoRednet Block4BasicBlock-invoB

20、asicBlock-invoAverage pool 全连接层分类输出Invo 77图4内卷神经网络框架示意1.2联合损失函数为解决在跨视角条件下步态识别准确率降低的问题,采用 DML16,通过学习一个约束达到增大类间样本距离并且减小类内样本距离的目的,增加识别性能的鲁棒性。本文设计了由 Tripletloss 和 Softmaxloss 组成的联合损失函数。Tripletloss 的输入分别是参考样本、正样本和负样本,其中参考样本是从数据集随机选取的一个样本,正样本与参考样本属于同类样本,负样本则与参考样本属于不同类样本。Tripletloss 样本更新过程如图 5所示。负样本参考样本正样本

21、正样本参考样本负样本学习图5Tripletloss 样本更新过程(Iai,Ipi,Ini)IaiIpiIni(w(Iai),w(Ipi),w(Ini)本文的三元组结构记为,其中为参考样本。为正样本,为负样本。三元组经过内卷 神 经 网 络 映 射 到 特 征 空 间 为,需满足如下:?w(Iai)w(Ipi)?22+1?w(Iai)w(Ini)?221l2l2式中:为阈值参数,是关于的 范数,用 范数对式进行归一化处理为D(w(Iai),w(Ipi)=?w(Iai)w(Ipi)?22D(w(Iai),w(Ipi)IaiIpi式中为归一化后和的欧氏距离,因此 Tripletloss 为Ltrip

22、let=1NNi=1max0,D(Iai,Ipi)D(Iai,INi)+1式中 N 为训练样本个数。在使用传统的 Softmax 进行分类时,个体被划分到不同类别时并不能显示个体之间的紧密程度,而使用 Triplet 分类虽然通过个体间的紧密程度提高了样本之间的辨识度,但是在训练过程中收敛较慢,且容易出现过拟合的现象。为避免以上 现 象,本 文 在 Triplet loss 的 基 础 上 加 入 了Softmaxloss,组成联合损失函数来训练学习更优的特征。2 种损失函数训练的特征分布情况如图 6 所示。(a)Softmax loss(b)Triplet loss图6损失函数模型对比LTr

23、ipletLSoftmax将各通道的输出特征送入到 Triplet 层,同时将隐藏层的输出特征送入到 Softmax 层,如图 7所示,分别得到和,通过整合得到联合损失函数为L=LTriplet+(1)LSoftmax=0通过参数 平衡 Tripletloss 和 Softmaxloss 在网 络 中 所 占 的 比 重。当时,只 用 Softmaxloss 对网络进行优化训练,此时在跨视角条件下第2期王红茹,等:基于内卷神经网络的轻量化步态识别方法43=1的步态识别准确率不理想;当时,只用 Tripletloss 对内卷网络进行训练,该网络中仍存在容易过拟合的问题。因此需适当调节参数 的大小

24、,对内卷网络进行优化。通过实验本文将参数 设置为 0.5,此时整体效果最为理想。TripletlossSoftmaxloss 隐藏层非隐藏层非隐藏层隐藏层输出Rednet-18GEI图7联合损失函数模型2实验与结果分析使用中国科学院自动化研究所的 CASIA-B 步态数据库17来验证本文所提出的内卷神经网络步态识别方法的性能。2.1CASIA-B 数据集以及参数设置CASIA-B 数据集包括 124 个人(编号 001124)、11 个视角(0,18,180)的步态序列,其中每个人每个视角分别有 10 个步态序列,包括 6 组正常条件下的行走序列(nm,01-06),2 组背包条件下的行走序列

25、(bg,01-02),2 组穿大衣条件下的行走序列(cl,01-02)。通过一系列图像处理从步态序列中提取步态能量图,并按不同的测试要求将其分成训练集和测试集。所有实验采用 Windows10 操作系统,基于Python3.8.8 的 Pytorch1.10.1 框架下实现。根据GPU 和数据集的大小,将批处理量大小(batchsize)设置为 128,初始学习率设置为 0.001,随机丢弃特征概率(dropout)设置为 0.5,迭代代数(epoch)设置为 100 次。本节所有实验数据为平均 20 次运算所得。2.2行走状态改变条件下的性能评估对本文方法在目标行走状态改变的条件下进行步态识

26、别性能评估,即目标所处视角不变,分别进行目标正常状态、背包状态和穿大衣状态的实验验证。数据集设置如表 1 所示。表1CASIA-B 数据集上的实验设置行走状态训练集测试集正常nm:01-04,bg:01,cl:01nm:05-06背包nm:01-04,bg:01,cl:01bg:02穿大衣nm:01-04,bg:01,cl:01cl:02部分训练集实例如图 8 所示。18036547290 108 126 144 162 180nmclbg图8部分训练集实例为了验证本文方法的有效性,将其与改进前的网络 Resnet-18 进行对比实验,其中在正常行走状态下,本文所提方法的网络模型训练结果如图

27、9 所示。误差020(0,4.82)(20,4.76)(40,2.80)(60,0.96)(60,0.45)(80,0.48)(80,0.25)(40,1.67)406080100543210.20.40.60.8(a)损失函数训练曲线020406080100(b)识别率训练曲线识别率(0,0.01)(20,0.02)(40,0.38)(40,0.25)(60,0.83)(60,0.71)(80,0.86)(80,0.91)迭代代数迭代代数Resent-18 网络本文方法Resent-18 网络本文方法图9正常状态下的训练结果不同状态下的实验测试结果如表 2 所示,其中加粗字体表示不同状态下最

28、优结果。表2不同状态下的识别率及参数量行走状态方法识别率/%参数量/MB正常Resnet-1897.3210.83本文97.805.04背包Resnet-1893.3410.83本文93.965.04穿大衣Resnet-1892.8310.83本文93.535.04实验结果表明,在正常状态下,本文方法的识别率为 97.80%,比改进前的方法(Resnet-18)提高了 0.48 个百分点;在背包状态下,本文方法的识别率为 93.96%,比改进前的方法(Resnet-18)提高了 0.62 个百分点;在穿大衣状态下,本文方法的识别率为 93.53%,比改进前的方法(Resnet-18)提高了 0

29、.7 个百分点。同时,本文方法的模型参数量为 5.04MB,相比改进前的模型参数量 10.83MB 减少了 53.46%。图 10 为本文方法分别与文献 11 提出的44应用科技第51卷GaitGANv2 方法、文献 12 提出的 PoseGait 方法和文献 13 提出的 GaitSet 方法在视角不变、行走状态改变(正常、背包和穿大衣状态)条件下的识别率比较,以上 3 篇文献所提方法的识别率均取自其对应原文。结果表明,在正常、背包和穿大衣 3 种状态下,本文方法的识别率均高于上述3 篇文献所提方法。其中,在正常状态下,本文方法的识别率为 97.8%,比其他 3 种方法中表现性能最好的 Ga

30、itSet 提高了 5.43 个百分点;在背包状态下,本文方法的识别率 93.96%,比其他 3 种方法中表现性能最好的 GaitSet 提高了 7.68 个百分点;在穿大衣的状态下,本文方法的识别率为93.53%,比 其 他 3 种 方 法 中 表 现 性 能 最 好 的GaitSet 提高了28.03 个百分点。结果表明本文方法有助于提高行走状态改变条件下步态识别的性能。66.3463.7892.3797.846.1742.5286.2893.9625.9131.9865.593.53穿大衣状态背包状态正常状态识别正确率/%GiatGANv2PoseGaitGaitSet本文2004060

31、80100图10不同状态下不同方法的平均识别率对比2.3跨视角条件下的性能评估本文分别从交叉视角和单一跨视角 2 个角度评估跨视角条件下步态识别方法的性能。2.3.1交叉视角在交叉视角情况下,所提出方法选取视角0、18、54、90、126和 162作为训练集视角,选取 36、72、108和 144作为测试集视角。在如上交叉视角条件下,实现了对目标正常状态、背包状态和穿大衣状态 3 种情况下的方法性能测试及分析,测试结果如表 3 所示,加粗字体表示不同状态下最优结果。测试结果表明,在交叉视角条件下,本文方法在正常状态下的识别率为 73.41%,在背包状态下的识别率为 65.56%,在穿大衣状态下

32、识别率为 66.43%,对比改进前的方法(Resnet-18)分别提高了 1.02、2.65 和 1.91 个百分点。同时,本文方法的模型参数量为 5.04MB,相比改进前的模型参数量 10.83MB 减少了 53.46%。表3不同状态下不同方法交叉视角识别结果行走状态方法识别率/%参数量/MB正常Resnet-1873.3910.83本文74.415.04背包Resnet-1862.9110.83本文65.565.04穿大衣Resnet-1864.5210.83本文66.435.042.3.2单一跨视角对本文方法在跨视角条件下的单一视角情况进行性能评估,即对 0、18、36、54、72、90

33、、108、126、144、162、180共 11 个视角分别进行实验验证,每组实验选取 1 个视角作为测试集视角,选取另外 10 个视角作为训练集视角,共进行11 组实验且每组实验结果为平均 20 次实验所得。在如上单一视角数据集设置情况下,完成了对目标在正常状态、背包状态和穿大衣状态下的实验测试。同时,为了验证本文方法在单一跨视角条件下 3 种不同状态(正常、背包、穿大衣)的识别性能,将其与改进前的网络 Resnet-18 进行单一跨视角对比实验,测试结果如表 4 所示,加粗字体表示不同状态下最优结果。表4不同状态下本文方法和 Resnet-18 在 CASIA-B 上的各视角测试结果行走状

34、态方法参数量/MB不通测试集视角识别率/%01836547290108126144162180平均正常Resnet-1810.8359.2165.9774.2269.1190.6795.1695.5192.1086.1970.1663.4778.34本文5.0470.6393.7489.6985.1895.3295.5794.9594.1389.0872.9570.5086.52背包Resnet-1810.8353.6677.7463.9371.4888.9891.1790.0778.9576.7963.2555.3873.76本文5.0459.6682.4571.7770.9393.5590

35、.3290.3278.3575.0066.9360.8476.37穿大衣Resnet-1810.8347.9381.5978.9061.5884.6990.8390.7585.0470.6866.8360.2274.46本文5.0450.4180.6578.9361.6687.1087.1091.9485.3769.9264.7563.7174.69实验结果表明,本文方法在 3 种状态下的平均识别率分别为 86.52%、76.37%、74.69%,分别比改 进 前 的 方 法(Resnet-18)提 高 了 8.18、2.61、0.23 个百分点。同时,本文方法的模型参数量为5.04MB,相比

36、改进前的模型参数量 10.83MB 减少了 53.46%。此外,本文方法在 72、90、108和第2期王红茹,等:基于内卷神经网络的轻量化步态识别方法45126的情况下识别率较高,原因在于上述 4 个视角 包 含 了 更 多 的 肢 体 摆 动 特 征 信 息;在 0和180的情况下识别率不理想,原因在于这 2 个角度属于极限视角,所包含的步态的静态特征信息以及动态特征信息较少。在正常、背包和穿大衣状态下,进行了本文方法与当前主流方法 GaitGANv211、PoseGait12和GaitSet13方法在 11 个视角的识别性能的对比分析,每个视角的识别率为平均 20 次实验所得,3 种主流方

37、法的结果均取自对应原文,测试结果为表 5、表 6 和表 7 所示,加粗字体为不同方法对比的最优结果。表 5不同方法在正常状态下的各视角识别率%方法测试集视角01836547290108126144162180平均GaitGANv248.0661.8668.7171.6966.6964.7666.0570.1671.6255.2442.1362.45PoseGait55.3069.6073.9075.0068.0068.2071.1072.9076.1070.4055.4068.72DeepCNNs88.7095.1098.2096.4094.1091.5093.9097.5095.4095.8

38、085.6094.10本文70.6393.7489.6985.1895.3295.5794.9594.1389.0872.9570.5086.52表 6不同方法在背包状态下的各视角识别率%方法测试集视角01836547290108126144162180平均GaitGANv284.6882.2674.1979.6472.5870.9765.3278.2374.1979.0377.4276.23PoseGait74.1975.8177.4276.6169.3570.1670.9769.3574.1965.3260.4871.26DeepCNNs64.2080.6082.7076.9064.806

39、3.1068.0076.9082.2075.4061.3072.40本文59.6682.4571.7770.9393.5590.3290.3278.3575.0066.9360.8476.37表 7不同方法在穿大衣条件下的各视角识别率%方法测试集视角01836547290108126144162180平均GaitGANv233.0645.9744.3544.3555.6543.5545.9744.3540.3241.1333.0642.89PoseGait46.7748.3957.2661.2958.0656.4559.6854.8455.6558.0639.5254.18DeepCNNs37

40、.7057.2066.6061.1055.2054.6055.2059.1058.9048.8039.4053.98本文50.4180.6578.9361.6687.1087.1091.9485.3769.9264.7563.7174.69在正常状态下,本文方法的平均识别率为86.52%,比 GaitGANv2 提高了 24.07 个百分点,比PoseGait 提高了 17.8 个百分点,但是比 DeepCNNs低 7.58 个百分点。DeepCNNs 方法因其采用可对比 2 个相同网络所提取的特征相似程度的孪生网络实现了在极限视角下更好的目标识别,而本文采用的是单流网络导致目标识别率较低,但

41、与DeepCNNs 方法相比具有更少的运算参数量。此外,在 72、90、108的单视角情况下可获得更多的人体躯干摆动信息,本文所设计的内卷层具有更好地处理多摆动信息的性能,所以在上述 3 个视角情况下本文方法的识别率高于 DeepCNNs 方法。在背包状态下,本文方法的平均识别率为76.37%,对比 GaitGANv2、PoseGait、DeepCNNs 分别提高了 0.14、5.11 和 3.97 个百分点。此外,在72、90和 108的单视角情况下识别准确率分别为 93.55%、90.32%、90.32%,均达到 90%以上。在穿大衣状态下,本文方法的平均识别率尤为突出,在 11 个单一视

42、角情况下的识别率均超过 50%,对比其他方法有显著提高,且平均识别率为 74.69%,分别高于 GaitGANv2、PoseGait、DeepCNNs 方法 31.8、20.51、20.71 个百分点。测试结果表明本文提出的基于内卷神经网络的轻量化步态识别方法在减少了网络模型参数量 53.46%的同时,背包和穿大衣状态下的单一跨视角的识别性能也显著提高。3结论为了解决现有步态识别方法模型参数量较大和跨视角条件下步态识别准确率降低的问题,本文提出了基于内卷神经网络的步态识别方法。1)该方法以新提出的轻量化内卷神经网络Rednet-18 为基础,并结合三元组损失函数和传统损失函数组成的联合损失函数

43、实现目标识别率的46应用科技第51卷提高。实验结果表明,本文方法在减少了网络模型参数量的同时,在正常、背包、穿大衣 3 种不同状态下相同视角和交叉视角的步态识别准确率均有不同程度的提高;在背包和穿大衣 2 种状态下,单一跨视角的步态识别准确率均有显著提高。2)在步态特征提取方面,本文采用的步态能量图有效地减少了网络的输入,但是丢失了目标行走时的时间信息,致使跨形态研究的极限视角识别率降低。因此,我们将重点研究在少量网络输入中提取更多步态特征信息,来提高跨形态情况下的识别率。参考文献:卢世军.生物特征识别技术发展与应用综述 J.计算机安全,2013(1):6367.1王科俊,丁欣楠,邢向磊,等.

44、多视角步态识别综述 J.自动化学报,2019,45(5):841852.2贲晛烨,徐森,王科俊.行人步态的特征表达及识别综述J.模式识别与人工智能,2012,25(1):7181.3何逸炜,张军平.步态识别的深度学习:综述 J.模式识别与人工智能,2018,31(5):442452.4王新年,胡丹丹,张涛,等.姿态特征结合 2 维傅里叶变换的步态识别 J.中国图象图形学报,2021,26(4):796814.5CUNADOD,NIXONMS,CARTERJN.Usinggaitasabiometric,via phase-weighted magnitude spectraC/Proceedi

45、ngsof1stIntConfonAudio-andVideo-BasedBiometric Person Authentication.Heidelberg:Springer,1997:93102.6TANGJin,LUOJian,TJAHJADIT,etal.2.5Dmulti-viewgait recognition based on point cloud registrationJ.Sensors,2014,14(4):61246143.7TANG Jin,LUO Jian,TJAHJADI T,et al.Robustarbitrary-view gait recognition

46、based on 3D partialsimilarity matchingJ.IEEE transactions on imageprocessing:a publication of the IEEE Signal Processing8Society,2017,26(1):722.LIAORijun,YUShiqi,ANWeizhi,etal.Amodel-basedgaitrecognitionmethodwithbodyposeandhumanpriorknowledgeJ.Patternrecognition,2020,98:107069.9HAN Ju,BHANU B.Indiv

47、idual recognition using gaitenergy imageJ.IEEE transactions on pattern analysisandmachineintelligence,2006,28(2):316322.10WUZifeng,HUANGYongzhen,WANGLiang,etal.Acomprehensive study on cross-view gait based humanidentification with deep CNNsJ.IEEE transactions onpattern analysis and machine intellige

48、nce,2017,39(2):209226.11YUShiqi,LIAORijun,ANWeizhi,etal.GaitGANv2:Invariantgaitfeatureextractionusinggenerativeadversarial networksJ.Pattern recognition,2019,87:179189.12LIAORijun,CAOChunshui,GARCIAEB,etal.Pose-basedtemporal-spatialnetwork(PTSN)forgaitrecognition with carrying and clothing variation

49、sC/Chinese Conference on Biometric Recognition.Cham:Springer,2017:474483.13CHAO Hanqing,HE Yiwei,ZHANG Junping,et al.GaitSet:regarding gait as a set for cross-view gaitrecognitionJ.Proceedings of the AAAI conference onartificialintelligence,2019,33(1):81268133.14LI Duo,HU Jie,WANG Changhu,et al.Invo

50、lution:inverting the inherence of convolution for visualrecognitionC/2021IEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway:IEEE,2021:1231612325.15丁韬.基于深度学习的多视角步态识别方法研究 D.重庆:重庆邮电大学,2020.16YUShiqi,TANDaoliang,TANTieniu.Aframeworkforevaluatingtheeffectofviewangle,clothingandcarryingcon

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服