收藏 分销(赏)

基于注意力机制和姿态识别的行人再识别_赵彦如.pdf

上传人:自信****多点 文档编号:368559 上传时间:2023-09-06 格式:PDF 页数:7 大小:1.94MB
下载 相关 举报
基于注意力机制和姿态识别的行人再识别_赵彦如.pdf_第1页
第1页 / 共7页
基于注意力机制和姿态识别的行人再识别_赵彦如.pdf_第2页
第2页 / 共7页
基于注意力机制和姿态识别的行人再识别_赵彦如.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 42 卷第 2 期2023 年 3 月Vol.42No.2Mar.2023JOURNAL OF HENAN POLYTECHNIC UNIVERSITY(NATURAL SCIENCE)河南理工大学学报(自然科学版)基于注意力机制和姿态识别的行人再识别赵彦如,牛东杰,杨蕙萌(河南理工大学 机械与动力工程学院,河南 焦作 454000)摘要:在解决行人再识别技术中的姿态变化、遮挡、背景等问题时,为了提高遮挡下的行人再识别性能,提出一种基于注意力机制和姿态识别的行人再识别方法。采用全局注意网络和姿态识别网络分别提取行人图像的全局特征、关节点位置热力图和对应的置信度,通过计算得到行人 13个关节

2、点和融合所有关节点的局部特征,对全局特征和 14个局部特征分别进行行人分类训练,利用多任务学习多个损失共同监督网络的优化。测试时,将关键点特征和全局特征融合后,计算行人的距离排序。在 Market1501 和 DukeMTMC-reID 数据集上测试的 Rank-1/mAP 指标分别达到了 85.1%/75.6%和 64.3%/55.3%。结果表明,所设计方法具备抗姿态变化、遮挡和背景的能力,同时具有较高的识别能力和识别精度。关键词:深度学习;行人再识别;注意力机制;姿态识别;特征融合;局部特征;全局特征中图分类号:TP391文献标志码:A文章编号:1673-9787(2023)2-120-7

3、Person re-identification based on attention mechanism and gesture recognitionZHAO Yanru,NIU Dongjie,YANG Huimeng(School of Mechanical and Power Engineering,Henan Polytechnic University,Jiaozuo 454000,Henan,China)Abstract:In the person re-identification of the posture change,occlusion,background and

4、other issues,in order to improve the performance of person re-identification under occlusion,a person re-recognition method based on the combination of attention mechanism and gesture recognition was proposed.The global attention network and the posture recognition network were used to extract the g

5、lobal features,the thermal map of the joint position and the corresponding confidence,respectively.The local features of pedestrians at 13 joint points and fusion of all joints were obtained by calculation.Pedestrian classification training was conducted for global features and 14 local features res

6、pectively,and multi-task learning was used to learn multiple losses to jointly supervise network optimization.The Rank-1/mAP values tested on the two large-scale public datasets Market1501 and DukeMTMC-reID reached 85.1%/75.6%and 64.3%/55.3%,respectively.It was shown that the designed method with hi

7、gh recognition accuracy had excellent ability resist to posture changes,occlusion and background.赵彦如,牛东杰,杨蕙萌.基于注意力机制和姿态识别的行人再识别 J.河南理工大学学报(自然科学版),2023,42(2):120-126.doi:10.16186/ki.1673-9787.2021070059ZHAO Y R,NIU D J,YANG H M.Person re-identification based on attention mechanism and gesture recogni

8、tion J.Journal of Henan Polytechnic University(Natural Science),2023,42(2):120-126.doi:10.16186/ki.1673-9787.2021070059收稿日期:2021-07-16;修回日期:2021-10-14基金项目:国家自然科学基金资助项目(51505133);河南省科技攻关计划项目(212102210316);河南理工大学光电传感与智能测控河南省工程实验室开放课题资助项目(HELPSIMC-2020-006)第一作者简介:赵彦如(1975),女,河北饶阳人,博士,副教授,主要从事传感器与智能检测方面

9、的教学和研究工作。Email:通讯作者简介:牛东杰(1997),男,河南新乡人,硕士生,主要从事计算机视觉研究。Email:O S I D第 2 期赵彦如,等:基于注意力机制和姿态识别的行人再识别Key words:deep learning;person re-identification;attention mechanism;gesture recognition;feature fusion;local feature;global feature0引 言行人再识别是指在不重叠视域下的监控环境中,利用计算机视觉技术判断图像或视频序列中是否存在特定行人。行人再识别可用于失踪人员查找、犯罪

10、嫌疑人追踪等,在智能监控迅猛发展的今天具有十分广阔的应用前景。由于摄像机分辨率低、光线差异、姿态变化、视角、遮挡、检测不准确和标注困难等因素,给行人再识别研究带来了一系列困难与挑战。同时,随着近年来深度学习技术的兴起,也使得行人再识别成为计算机视觉领域的一大研究热点。早期传统的行人再识别技术研究主要集中在手工设计特征和设计合适的距离度量方法上。在基于手工设计特征较经典的算法中,LIAO S 等1用 HSV 颜色直方图提取颜色特征,同时提出局部最大池化(local maximal occurrence,LOMO)特征解决相机视角变化问题。基于距离度量的方法利用传统的马氏距离、欧氏距离、余弦距离等

11、距离度量函数,通过设计合适的度量模型衡量特征之间的相似性,进而减小类内距离,增大类间距离。K.Q.Weinberger 等2基于马氏距离度量模型提出了一种采用三元约束的大间隔最近邻度量(large margin nearest neighbor,LMNN)。为了降低距离度量过程中的运算量,M.Kstinger 等3从统计学的角度提出了一种简单直接策略的有监督线性度量学习算法(keep it simple and straightforward metric,KissMe)。近年来,基于深度学习技术的使用使识别精度有了很大提高,远高于传统算法。基于深度学习的行人再识别方法是研究提取具有鲁棒性特征

12、的网络,通过与度量学习结合,利用欧氏距离或余弦距离,实现端到端的行人再识别。目前大多数效果较好的行人再识别方法是根据划分条状4-6、注意力机制7-10、姿态识别11-14等方式获取局部特征,再利用局部特征与全局特征结合获取行人信息。其中,ZHANG Z 等9提出了一种基于关系感知的神经网络全局注意(RGA)模块,充分利用神经网络的全局相关性推断注意力。同时,SUN Y等15利用多部件信息为行人图像描述提供细粒度信息的方法已被证实有效。除了利用局部特征和全局特征融合的方法外,刘一敏等16通过生成对抗网络获得视频帧序列增加样本数量,并且加入关节点以提升模型效率。注意力机制的目的是通过关注重要特征,

13、抑制不必要特征以增强代表力,而姿态识别集中在划分区域研究行人特征。上述这些方法都是通过研究单一方法,比如仅利用注意力机制的方法,不具有很好的鲁棒性,而基于对抗网络方法没有很理想的实验效果。受到全局特征和局部特征融合方法有效启发,为了降低背景信息和遮挡的影响,本文利用全局注意力得到全局特征,同时利用姿态识别进一步增加行人关键位置的权重,提出了一种基于注意力机制和姿态识别的行人再识别方法,通过结合全局注意模块与姿态识别网络,有效提升行人再识别性能,并通过实验验证了该方法的有效性。1注意力机制与姿态识别方法如图 1 所示,整体框架包括空间和通道全局注意(RGA)网络、姿态识别网络、特征融合和损失函

14、数。具 体 为:(1)引 入 空 间 和 通 道 全 局 注 意(RGA)模块,嵌入到 Resnet50网络中,通过利用结构关系感受全局注意力特征,得到全局特征向量;(2)利用姿态识别算法获取 13个关键点位置的热力图和置信度,与全局特征向量计算后,并融合所有关节点信息,得到 14个局部特征向量;(3)利用Resnet网络中的残差块(residual block)思想,将全局特征向量与局部特征向量结合;(4)利用多任务学习多个损失共同监督网络的优化,进而提取更为鲁棒的行人特征。训练时,给定一个行人图像,经过全局注意网络和姿态识别网络,分别得到全局特征、关节点热力图和每个关节点对应的置信度,融合

15、得到 13个关节点部位的局部特征和一个融合所有部位的局部特征,再利用残差块思想,加上全局特征后,对全局特征和 14 个局部特征分别进行分类损失和三元组损失监督网络进行优化。测试时,为提升特征的表征能力,通过融合从训练好的网络得到的全局特征和局部特征获取行人总特征,并对其进行相似度度量计算。1212023 年第 42 卷河南理工大学学报(自然科学版)1.1空间和通道全局注意(RGA)网络RGA 模块能充分利用神经网络的全局相关性推断注意力,进而提高特征的表示能力。为此,引入 RGA 模块构建基于空间和通道全局注意的网络。网络主要包括 Resnet50网络和 RGA 模块,其中 RGA 模块包括空

16、间和通道关系感知的注意块,即 RGA-S 和 RGA-C。二者的算法逻辑基本一致,本文只以基于空间的注意块为例进行说明。RGA-S模块网络的输入是一个中间特征图 XRchw,其中,c,h,w 分别为特征图的通道数、高和宽。首先将每个空间位置的 c维特征向量作为一个特征节点,所有的空间位置构成一个 N=hw 节点的图,xi(i=1,2,N)为第 i个节点,定义节点 i和 j 的成对关系 ri,j表示空间中的点积关系,具体为ri,j=fs(xi,xj)=s(xi)Ts(xj),(1)其中,s和 s为两个卷积块,s(xi)=ReLU(Wxi),s(xi)=ReLU(Wxi),省略标准化 bn 操作,

17、同理rj,i=fs(xj,xi)。用一对(ri,j,rj,i)描述 xi和 xj之间的双向关系,然后用关系矩阵 RsRNN表示所有节点的成对关系。为了利用全局的相互关系和局部的原始信息,原始的输入值经过一个卷积层,取所有通道特征图的均值,得到一个通道数为 1的矩阵,即y?i=poolc(s(xi),s(ri),(2)其中,s和 s分别为特征本身和整体关系的嵌入函数(卷积层,bn 层和 ReLU),利用 poolc对通道维度进行全局平均池化,将维度变为 1。通过学到的模型从其中挖掘有价值的值生成注意力 ai,ai=Sigmoid(W2ReLU(W1y?i),(3)其中,W1和 W2为 11 卷积

18、和 bn 操作,W1通过比例因子降维,W2将通道维度降为 1。最后得到的特征图 m 维度为 2 048hw,经全局平均池化得到一个 2 048维的特征向量,利用三元组和分类损失函数训练全局特征网络。1.2姿态识别网络由于目前许多研究方法主要研究行人的全局特征,忽略局部特征,同时行人特征提取受到姿态和遮挡因素影响较大,因此,本文利用姿态识别网络提取到行人关键点位置的热力图 Scoremap和对应的置信度 K,进而与全局注意网络提取到的特征融合,从而自动抑制无意义特征的传递,促进语义特征传递。与其他提取局部特征的方法相比,本文方法的特别之处在于只对关节点位置进行识别,不直接提取关键点的特征信息。因

19、此在对有遮挡的图像进行识别时,会降低该部位的置信度,起到相对加强其他特征的效果。提取到的关节点热力图 Soremap 经可视化后如图 2 所示,其中,有两个行人图像,标签 Sum 为13 个关节点热力图融合后形成。由 Sum 可以看出对于有遮挡的行人,遮挡部位无意义的特征信息在传播时抑制较多。对全局特征图 f分别进行均值池化和最大池化,池化后相加得到标签 Sum的特征图结果为fsum=AvgPool(f)+MaxPool(f)=1w hx=1wy=1hf(x,y)+maxx=1,y=1(f(x,y)。(4)对生成的 13个关节点置信度 K 进行归一化,即v=vmax(vp,),同时使 fsum

20、对应的置信度 K为 1,最终将二者拼接得到维度为 14的置信度 K。1.3特征融合和损失函数对行人图像进行特征提取后,得到由全局注图 1 注意力机制与姿态识别整体框架Fig.1 General framework of attentional mechanism and attitude recognition122第 2 期赵彦如,等:基于注意力机制和姿态识别的行人再识别意网络生成的全局特征 f、由姿态识别网络得到的维度为 14168 的热力图 Scoremap 和维度为 14的置信度 K,为更好地突出行人关键点部位的局部特征,对每个关键点以点乘的方式进行融合,得到 13个点的特征图,即fi

21、points=x=1wy=1h(Si f(x,y),(5)式中:f(x,y)为全局特征;Si为第 i 个节点的热力图。对于两个网络分支而言,采用多个损失函数共同监督网络进行优化。损失函数利用全局特征和局部特征的损失计算,总损失函数为Loss=L1cls+L1tri+L2cls+L2tri,(6)式中:L1cls为改进的全局特征的交叉熵分类损失;L1tri为对应的三元组损失;L2cls和 L2tri分别为 14个局部特征的分类损失总和 Batch hard 三元组损失总和。在计算局部特征的损失时,将局部特征连接全连接层进行分类,并计算分类损失,即 loss2cls=-i=014ik=0Nlog(

22、p(ki)q(ki),(7)式中:ki为第 i个关键点的特征;p(ki)为预测结果;i为对应的置信度 K;标签 q(ki)改进为q(ki)=(1-)q(ki)+N,(8)其中,N为行人类别数;取值较小,保证错误标签概率不为 0,可以有效防止正确标签的预测概率远远大于错误标签。对于 14 个特征向量分别计算三元组损失并求和,即L2tri=i=114|k=1Km=1M|+maxn=1MqAi,k,m-qPi,k,n2-minl=1Kn=1NlkqAi,k,m-qNi,l,n2+,(9)式中:K 为一个批次中的标识数量;M 为每个标识标签的图像数量;为正负样本之间的边界距离参数;A,P,N 分别为原

23、、正、负样本的特征。如,qAi,k,m为第 i 个关键点的标识为 k 的人的第 m 幅图像对应的特征。测试时,利用训练好的网络生成的 fglobal,fpoints和置信度 K 进行融合计算行人距离,对每一个关节点特征均加上全局特征,具体为fi=fipointsKi+fglobal,(10)式中,为权重值。拼接 fi得到行人排序的特征。2结果与讨论2.1数据集和评估标准本文在两个大型数据集 Market1501(ZHENG Z 等17)和 DukeMTMC-reID(SUN Y 等18)上进行实验以评估算法的有效性。采用行人再识别领域普遍使用的累计匹配曲线(cumulative match c

24、haracteristic,CMC)和 平 均 精 度 均 值(mean average precision,mAP)作为评估指标。CMC 主要反映模型的准确率,常以 Rank-n 的形式表现,Rank-n 指的是在匹配结果的前 n 幅图像的正确率,实验中采 取 Rank-1,Rank-5,Rank-10 作 为 评 测 指 标;mAP表示计算所有 query图像的准确率-召回率曲线下的面积平均值。实验结果和对比均使用单query检索配置。2.2实验配置和参数在预处理阶段,对输入图像进行初始化处理,根据实际监控视频高宽比使输入图像大小变为256128,利用随机翻转、随机裁剪、随机擦除、标准化等

25、数据增强方法。训练时,将每次输入网络中的图像个数 batchsize 设置为 8,训练总轮数 epoch 设置为 50。由于训练时需要网络快速收敛,并且消耗更少的内存,因此采用 Adam 优化算法优化模型。学习率使用 Warmup 方式改变,即在前 10 个 epoch 学习率从 810-6线性增加至 810-4,然后每隔 5个 epoch衰减至当前的 0.5倍。这样做可以有效避免模型刚开始训练时,由模型权重随机初始化带来的模型不稳定问题。训练目的为使损失在训练迭代中下降尽量小,即使原样本与正图 2 关节点热力图Fig.2 Heat maps at the key points1232023

26、年第 42 卷河南理工大学学报(自然科学版)样本间距越小、与负样本间距越大越好。因此对于困难三元组损失中的边界距离参数即式(9)中的 而言,越小时,损失比较容易趋近于 0,无法很好地区分相似图像;越大时,网络参数要尽可能地拉近原样本和正样本之间的距离,拉远原样本和负样本之间的距离,因此根据训练情况将 设置为 2.2。测试时,在特征融合阶段根据下面实验将式(10)中的权重值 设为 0.38。2.3结果与分析2.3.1与现有方法的比较在 Market1501 和 DukeMTMC-reID 数据集下,将基于注意力机制与姿态识别方法与近几年行人再 识 别 领 域 具 有 代 表 性 的 LOMO+X

27、QDA(local maximal occurrence)(LIAO S 等1),Bow+Kissme(Keep It Simple And Straightforward Metric)(ZHENG L 等19),SVDNet(Singular Vector Decomposition)(SUN Y 等18),DLPA(deeply-learned part-aligned)(ZHAO L 等20),PIE(Pose-Invariant Embedding)(LIANG Z 等11),VIM(ZHENG Z等21),DCC(Deep Co-attention based Comparator

28、s)(WU L 等22)和 DLFOS(Discriminative Local Features of Overlapping Stripes)(M.J.Khan 等23)等算法 进 行 性 能 比 较,同 时 优 先 选 用 基 础 网 络 为Resnet50的网络,结果如表 1所示。由 表 1 可 以 看 出,与 LOMO+XQDA、Bow+Kissme 对比,本文方法远远超过度量学习方法的精度值,证明了深度学习方法的有效性。与姿态相 关 的 DLPA、PIE 等 方 法 和 与 注 意 力 相 关 的DCC、DLFOS方法相比,本文基于注意力机制与姿态识别方法在 Market1501数

29、据集 4个指标上都取得了最优性能;与 SVDNet 在 DukeMTMC-reID 数据集上相比,即使 Rank 指标稍微不足,但 mAP 值提升了 9.5%,证明了本文方法的有效性。2.3.2消融实验和参数分析由于增加模块提高了模型的复杂度,为了验证姿态识别模块和残差模块是否有助于行人再识别,在 Market1501 和 DukeMTMC-reID 数据集上设计了消融实验。在特征融合阶段,增加了 Resnet网络的残差思想,在最终特征图中增加了全局特征 fglobal。令 式(10)中 =0,在 Market1501 和DukeMTMC-reID 数据集上分别验证该模块的有效性,结果如表 2

30、所示。在两个数据集中的测试结果表明,有残差模块与无残差模块各项指标均相差较大,表明全局特征对于网络性能有较大提升。同时从侧面表明,在没有全局特征 fglobal的情况下,即只有姿态识别作用下,Market1501数据集中,Rank-1指标达到42.0%,证明姿态提取到的关节点特征对最终的网络依然有效。特征融合时,为确认式(10)中的权重值,在Market1501 数 据 集 上 进 行 实 验,结 果 如 图 3所示。对比图 3 中数据可知,Rank-1 和 mAP 指标以相同趋势随着权重值 变化,因此将 设置为表 1 与现有方法的比较结果Tab.1 Comparison results wi

31、th existing methods方法传统方法深度学习LOMO+XQDABow+KissmeSVDNetDLPA(P)PIE(P)VIMDCC(A)DLFOS(A)本文文法Market1501Rank-143.844.480.581.065.779.580.362.785.2Rank-5-69.991.792.085.5-81.292.2Rank-10-72.294.794.787.9-86.895.2mAP20.820.855.963.441.159.959.2-75.60DukeMTMC-reIDRank-130.825.167.6-64.3Rank-5-80.5-75.0Rank-1

32、0-85.7-80.3mAP17.012.245.8-55.3 注:表中加粗字体为最优结果;(P)表示与姿态相关的方法;(A)表示与注意力相关的方法表 2 姿态识别模块和残差模块的实验结果Tab.2 Experimental results of attitude recognition module and residual module数据集Market1501DukeMTMC-reID残差模块无有无有Rank-142.085.219.164.3Rank-559.392.231.275.0Rank-1067.295.239.180.3mAP29.375.612.355.3124第 2 期赵

33、彦如,等:基于注意力机制和姿态识别的行人再识别0.38。测试时,=0时,识别精度 Rank-1评估指标仅为 42%,可以看出只有姿态识别提取的局部特征对模型的影响;远大于 1时,如=5时,Rank-1指 标 的 值 为 48.9%,=10 时,Rank-1 的 值 为47.7%,可以看出在只有全局特征作用下对网络模型的性能影响,从侧面突出了全局特征和姿态识别两个分支对最终模型性能的重要性。2.3.3结果可视化分析分别提取 query和 gallery的图像特征,求得其余弦距离,从小到大排序即可得匹配表,分别在Marke1501 和 DukeMTMC-reID 数据集进行测试,结果可视化如图 4

34、所示。第一列为 query图像,绿框表示正确匹配结果,红框表示错误匹配结果,上下 3行分别为 Market1501和 DukeMTMC-reID数据集匹配结果。对比图 4 结果可知,基于注意力机制与姿态识别相结合的方法不仅能匹配到更多的正确样本,而且匹配的正确样本具有较高的鲁棒性。第1行能匹配各种状态(含自行车)和姿势下的正确结果;第 2行和第 5行表明网络能对非对齐和局部特征的行人特征正确识别;第 5行第 5个匹配结果虽然存在一部分遮挡,仍然能正确匹配。同时,第4 行表明方法有减弱背景(如草地)影响的作用,与预期设计的效果一致。但是,该方法对行人的全局特征提取不够准确,容易匹配外观比较相似的

35、行人。3结 语本文提出的基于注意力机制姿态识别的行人再识别算法,通过全局注意网络和预训练的姿态识别网络提取行人的全局外观特征和局部部位特征,利用 Resnet 网络中的残差块(residual block)思想,将全局特征向量与局部特征向量进行融合,得到行人特征并进行再识别。利用 RGA 模块充分考虑到图像各个结构之间的相互关系,同时增加了部位特征的局部注意力,局部特征与全局特征的融合充分考虑到了最初的设计思路,通过实验数据和可视化结果证明了该方法的有效性,有效解决了姿态、背景、遮挡等对结果的影响。该方法仍有很多问题需要完善,如利用迁移学习的人体姿态模型获取到的关节点定位不准确会导致准确率下降

36、,利用 RGA 考虑全局关系可以增加掩膜获取人物轮廓,排除人物与背景之间的相互关系,以得到更精确、更鲁棒的全局特征。参考文献:1 LIAO S,HU Y,ZHU X,et al.Person re-identification by local maximal occurrence representation and metric learningC/Proceedings of the IEEE conference on computer vision and pattern recognition(CVPR),Jun.7-12,2015,Boston,MA,USA.IEEE,2015:

37、2197-2206.2 WEINBERGER K Q,SAUL L K.Distance metric learning for large margin nearest neighbor classification J.Journal of Machine Learning Research,2009,10(1):207-244.3 KSTINGER M,HIRZER M,WOHLHART P,et al.Large scale metric learning from equivalence constraints C/2012 IEEE conference on computer v

38、ision and pattern recognition,Jun.16-21,2012,Providence,图 4 在数据集中的匹配结果Fig.4 Matching results in the dataset图 3 不同权重值 的结果对比Fig.3 Comparison of results with different weight values 1252023 年第 42 卷河南理工大学学报(自然科学版)RI,USA.IEEE,2012:2288-2295.4 FU Y,WEI Y,ZHOU Y,et al.Horizontal pyramid matching for person

39、 re-identificationC/Proceedings of the AAAI Conference on Artificial Intelligence,Jan.27-Feb.1,2019,Honolulu,HI,USA.AAAI,2019,33(1):8295-8302.5 ZHENG F,DENG C,SUN X,et al.Pyramidal person re-identification via multi-loss dynamic training C/Proceedings of the IEEE/CVF Conference on Computer Vision an

40、d Pattern Recognition(CVPR),Jun.16-20,2019,Long Beach,CA,USA.IEEE,2019:8514-8522.6 CHI S,LI J,ZHANG S,et al.Pose-driven deep convolutional model for person re-identificationC/Proceedings of the IEEE international conference on computer vision(ICCV),Oct.22-29,2017,Venice,Italy.IEEE,2017:3980-3989.7 L

41、IU X,ZHAO H,TIAN M,et al.Hydraplus-net:Attentive deep features for pedestrian analysis C/Proceedings of the IEEE international conference on computer vision(ICCV),Oct.22-29,2017,Venice,Italy.IEEE,2017:350-359.8 LI W,ZHU X,GONG S.Harmonious attention network for person re-identificationC/Proceedings

42、of the IEEE conference on computer vision and pattern recognition,Jun.18-22,2018,Salt Lake City,UT,USA.IEEE,2018:2285-2294.9 ZHANG Z,LAN C,ZENG W,et al.Relation-aware global attention for person re-identificationC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Jun.

43、14-19,2020,Seattle,WA,USA.IEEE,2020:3186-3195.10 郑鑫,林兰,叶茂,等.结合注意力机制和多属性分类的行人再识别 J.中国图象图形学报,2020,25(5):936-945.ZHENG X,LIN L,YE M,et al.Improving person re-identification by attention and multi-attributes J.Journal of Image and Graphics,2020,25(5):936-945.11 LIANG Z,HUANG Y,LU H,et al.Pose-invariant

44、embedding for deep person re-identificationJ.IEEE Transactions on Image Processing,2019,28(9):4500-4509.12 SUN K,XIAO B,LIU D,et al.Deep high-resolution representation learning for human pose estimationC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),Jun.16-2

45、0,2019,Long Beach,CA,USA.IEEE,2019:5686-5696.13 WANG G,YANG S,LIU H,et al.High-order information matters:Learning relation and topology for occluded person re-identification C/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,Jun.14-19,2020,Seattle,WA,USA.IEEE,2020:64

46、48-6457.14 裴嘉震,徐曾春,胡平.融合视点机制与姿态估计的行 人 再 识 别 方 法J.计 算 机 科 学,2020,47(6):164-169.PEI J Z,XU Z C,HU P.Person re-identification fusing viewpoint mechanism and pose estimationJ.Computer Science,2020,47(6):164-169.15 SUN Y,ZHENG L,YANG Y,et al.Beyond part models:Person retrieval with refined part pooling(a

47、nd a strong convolutional baseline)C/Proceedings of the European conference on computer vision(ECCV),Sep.8-14,2018,Munich,Germany.ECCV,2018:480-496.16 刘一敏,蒋建国,齐美彬,等.融合生成对抗网络和姿态估计的视频行人再识别方法J.自动化学报,2020,46(3):576-584.LIU Y M,JIANG J G,QI M B,et al.Video-based person re-identification method based on G

48、AN and pose estimationJ.Acta Automatica Sinica,2020,46(3):576-584.17 ZHENG Z,ZHENG L,YANG Y.Unlabeled samples generated by GAN improve the person re-identification baseline in vitro C/Proceedings of the IEEE International Conference on Computer Vision(ICCV),Oct.22-29,2017,Venice,Italy.IEEE,2017:3754

49、-3762.18 SUN Y,ZHENG L,DENG W,et al.SVDNet for pedestrian retrievalC/Proceedings of the IEEE International Conference on Computer Vision(ICCV),Oct.22-29,2017,Venice,Italy.IEEE,2017:3800-3808.19 ZHENG L,SHEN L,TIAN L,et al.Scalable person re-identification:A benchmarkC/Proceedings of the IEEE interna

50、tional conference on computer vision,Dec.13-18,2015,Santiago,Chile.IEEE,2015:1116-1124.20 ZHAO L,LI X,ZHUANG Y,et al.Deeply-learned part-aligned representations for person re-identificationC/Proceedings of the IEEE international conference on computer vision(ICCV),Oct.22-29,2017,Venice,Italy.IEEE,20

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服