1、第40卷第2期2023年3月新疆大学学报(自然科学版)(中英文)Journal of Xinjiang University(Natural Science Edition in Chinese and English)Vol.40,No.2Mar.,2023基于无参注意力和联合损失的行人重识别程述立1,2,汪烈军1,王有丹1(1.新疆大学 信息科学与工程学院,新疆 乌鲁木齐 830017;2.新疆大学 数学与系统科学学院,新疆 乌鲁木齐 830017)摘要:现阶段行人重识别一般只考虑二维特征,将各个特征点统一处理,存在特征提取不足的问题,故提出基于无参注意力的行人重识别(PFNet)来解决上
2、述问题 该模型在 ResNet-50 网络上进行改进,分别在第一个残差块和第三个残差块后引入无参注意力机制,该注意力机制能根据图片本身特点赋予各特征点合适的权重,可以保留更丰富的信息特征且不会引入额外参数 接着使用自适应平均池化层保留主要特征且捕捉特定域的判别特征,然后使用 ID 损失、三元组损失和自适应加权排序损失的联合损失函数来训练模型 算法在 Market-1501、DukeMTMC-reID 和 CUHK03 三个主流的行人重识别数据集上的首位命中率分别达到 95.5%、90.9%和 84.3%,平均精度均值分别达到 89.6%、81.6%和 82.0%实验结果表明,使用注意力和联合损
3、失函数的策略可以提高模型精度关键词:行人重识别;残差网络;无参注意力;联合损失函数DOI:10.13568/ki.651094.651316.2022.07.09.0001中图分类号:TP391文献标识码:A文章编号:2096-7675(2023)02-0202-08引文格式:程述立,汪烈军,王有丹.基于无参注意力和联合损失的行人重识别J.新疆大学学报(自然科学版)(中英文),2023,40(2):202-209.英文引文格式:CHENG Shuli,WANG Liejun,WANG Youdan.Person re-identification based on parameter-free
4、attention and joint lossJ.Journal of Xinjiang University(Natural Science Edition in Chinese and English),2023,40(2):202-209.Person Re-Identification Based on Parameter-FreeAttention and Joint LossCHENG Shuli1,2,WANG Liejun1,WANG Youdan1(1.School of Information Science and Engineering,Xinjiang Univer
5、sity,Urumqi Xinjiang 830017,China;2.School of Mathematics and System Sciences,Xinjiang University,Urumqi Xinjiang 830017,China)Abstract:At present,pedestrian re-recognition usually only considers two-dimensional features and deals witheach feature point uniformly,which has the problem of insufficien
6、t feature extraction.In this paper,pedestrianre-recognition based on parameter-free attention(PFNet)is proposed to solve the above problems.The model isimproved on ResNet-50 network,and the non-parametric attention mechanism is introduced after the first residualblock and the third residual block re
7、spectively.The attention mechanism can assign appropriate weight to eachfeature point according to the characteristics of the image itself,and can retain richer information features withoutintroducing additional parameters.Then,the adaptive average pooling layer is used to retain the main features a
8、ndcapture the discriminant features of a specific domain.Then,the model is trained with a combined loss functionof ID loss,triplet loss and adaptive weighted ranking loss.The algorithm achieves 95.5%,90.9%and 84.3%,respectively;On the three mainstream pedestrian re-recognition datasets of Market-150
9、1,DukeMTMC-reID andCUHK03,and the average accuracy is 89.6%,81.6%and 82.0%,respectively.Experimental results show that thestrategy using attention and joint loss function can improve the model accuracy.Key words:person re-identification;residual network;parameter-free attention;joint loss function0引
10、 言随着基础设施的不断完善和公共需求的不断增长,行人重识别作为视频监控系统的一项关键技术受到了广泛的关注,并在众多领域都有很重要的应用价值 行人重识别主要研究的是从不同的摄像机中检索具有相同身收稿日期:2022-07-09基金项目:国家自然科学基金“音视频多模态协同的异常事件鲁棒性检测关键技术研究”(U1903213);新疆维吾尔自治区自然科学基金“基于深度学习的遥感变化检测方法研究”(2022D01C82)作者简介:程述立(1990-),男,博士,副教授,从事多模态信息处理研究,E-mail:通讯作者:汪烈军(1975-),男,博士,教授,从事计算机视觉研究,E-mail:第2期程述立,等:
11、基于无参注意力和联合损失的行人重识别203份的人员或在同一摄像机的不同视频片段中识别出目标行人 该任务的目的是通过图像检索实现目标匹配,将目标人物与图片库中的人物信息进行比对,筛选出图片库中含有目标人物的信息1 然而该任务也存在许多难点,如在复杂环境下出现行人部分部位遮挡的问题以及设备质量、距离导致的图像分辨率低等问题,所以如何提取行人关键特征信息进行度量判断成为了研究重点近些年,深度学习的方法在行人重识别任务上取得了一系列成果 相较传统度量学习方法,深度学习的方法代替了其特征提取配合特征度量学习的模式,使得之后能够更好地判别特征信息 基于卷积神经网络(CNN)在图像特征提取上彰显出的独特优势
12、,许多研究者将行人重识别的主干网络建立在CNN上,如残差网络(ResidualNetwork,ResNet)2、稠密连接网络(Dense Convolutional Network,DenseNet)3 虽然CNN成为解决行人重识别任务的主流手段,它也因为忽略了长距离的上下文信息之间的关系而存在着自身的局限性随着深度学习的不断发展,注意力机制得到了广泛的研究与应用 类似人类处理信息的方法,该机制能够使网络快速聚焦一部分关键信息,同时忽略其它信息 注意力机制通常在输入的特征信息上计算权重,根据权重对特征进行处理从而强化有效特征、抑制无效特征注意力机制从应用位置上可划分为三类:1)空间注意力它可以
13、对全图进行处理从而定位出感兴趣的区域,有效地弥补了卷积操作对于全局特征提取能力的不足之处,代表性的网络有动态容量网络(Dynamic Capacity Networks,DCN)4;2)通道注意力 如压缩激发网络(Squeeze-and-Excitation Networks,SENet)5,它通过建模各个特征通道的重要程度,针对不同的通道特征进行增强或者抑制;3)空间与通道混合注意力它可以同时从两个维度对特征进行选择,代表性的网络有卷积块状注意力模块网络(Convolutional Block Attention Module,CBAM)6、瓶颈注意力模块网络(BottleneckAtten
14、tion Module,BAM)7等 由于注意力机制在增强图片特征方面表现尤为突出,行人重识别任务中出现了许多基于注意力机制的方法,如自适应聚合网络(Adaptive Aggregation Network,AANet)8、基于关系感知的全局注意力网络(Relation-Aware Global Attention,RAG)9等 一般来说,对于行人重识别任务的优化主要是基于特征表示学习、深度度量学习和查询结果排序这三个方面 研究人员基于这三个方面进行了大量工作,有的改进了特征学习方法,有的提出有效的度量损失函数,也有的是在检索排序阶段进行优化一些研究人员通过引入局部特征学习或利用注意力机制聚焦
15、于人体部位的关键信息来提取更饱满的行人特征Yang等10探索了高级特征提取方法,目的是通过建模概念间关系来探索基于上下文的概念融合,而这并不是简单的基于语义推理建模 由于生成对抗网络(Generative Adversarial Network,GAN)11在生成图像和学习特征方面具有良好性能,GAN被广泛应用于人员再识别任务 也有一些研究者利用人的三维形状信息,更好地学习行人特征以提高行人重识别模型的鲁棒性Ye等1探索了封闭世界和现实世界的行人重识别系统,在标准封闭世界中系统认为特征表示学习是该系统的三要素之一,专注于开发特征构建策略,结合行人的全局特征、局部特征、辅助特征和视频特征,通过这
16、四类特征的综合分析增强了最终的特征表示Dai等12则尝试设计新的网络模型,该网络由ResNet-502和一个特征丢弃网络构成,同时学习两部分特征来增强模型的表达效果 研究者们不仅在主干网络方面有所探究,还在损失函数方面做了一些研究 有研究者设计了不同的损失函数,利用网络模型优化识别特征的学习13 这些算法大多基于ResNet-50进行改进,但存在参数繁多,结构复杂的问题,并且无法把握不同特征的重要性,导致行人识别不够准确,算法准确度有待加强行人再识别旨在解决跨摄像头、跨场景下目标行人的关联与匹配,作为智能视频监控系统的关键环节,对维护社会公共秩序具有重大作用 当前,行人再识别研究视角多样,如鸟
17、瞰行人再识别14,这类研究不仅趋向于水平视图捕获人员图像,而且关注鸟瞰图拍摄的人员信息;长时行人再识别研究15,这类研究关注服装有关的生物特征,通过服装状态意识网络,嵌入服装状态意识来规范行人的描述;跨模态行人再识别研究16,旨在从数据库匹配出该行人的红外(或可见光)照片,突破单模态行人再识别在黑暗环境中的局限性,减轻模态差异的影响;无监督行人重识别17,旨在学习识别表征,从无标签数据中检索行人;遮挡行人重新识别18,这是一种基于变换器的姿势引导特征分解方法,利用姿势信息来明确分解语义部分;域适应性行人重识别19,研究表明时间上的连续性先验是有益的,它为区分一些相貌相似的人提供了线索 总之,这
18、些研究利用更多的补充信息来协助行人重识别任务总结上述行人重识别研究,其核心在于网络模型的构建和度量学习策略的研究,基于以上考虑,本文从网络模型和损失函数两个角度进行算法设计,提出一种基于无参注意力的行人重识别算法它是在ResNet-204新疆大学学报(自然科学版)(中英文)2023年50网络上进行改进,分别在残差模块的末端引入无参注意力机制(Simple,Parameter-Free Attention Module,SimAM)20,这是一个简单而有效的注意力模块,增强了网络特征提取及表达能力;然后联合ID损失、Triplet损失和WRLL损失,共同形成联合损失函数来优化网络参数;最后在三个
19、公开数据集Market-1501、DukeMTMC-reID和CUHK03上评估算法的识别性能 所提模型参数量少、鲁棒性高,具有较好的应用市场和研究价值1PFNet网络结构本文将无参注意力模块应用在行人重识别模型中进行训练,可以对任务中更为相关的内容自适应地赋予更高的权重,使得该网络框架能有效提高行人识别的准确率 整体框架结构如图1所示,它由三个重要的部分构成:主干网络ResNet-50、SimAM模块和联合损失函数图 1模型整体框架结构由图1可知,分别在第一个残差块和第三个残差块后加入SimAM模块,这种方式可以在不同的网络深度提取到更为丰富的特征SimAM模块是一种通过能量函数赋予权值的无
20、参注意力机制,不会额外增加参数同时在损失函数前加入可训练池化层(Generalized-Mean,GeM)21压缩特征来提高检索能力 最后采用ID损失、Triplet损失和WRLL损失组成的联合损失函数对网络进行训练 将在下文对每一部分进行具体介绍1.1主干网络ResNet-50残差网络可以有效抑制卷积网络中梯度爆炸的影响从而提高模型性能,该优点使其在行人重识别领域有广泛应用ResNet-50结构简单,主要由残差块构成,在网络加深的同时有效减少梯度消失且不会增加实验误差,使得训练结果有很好的提升 残差块是规避梯度消失的关键,它采用简单的跳跃式加法来保留更多信息,只在原网络上增加很小的计算复杂度
21、就能使模型在训练速度和网络性能方面均有所提升,这对网络效果的提升有很大的价值 常用的残差网络深度有34层、50层、101层等,综合考虑模型的性能和复杂度,本文使用ResNet-50网络模型作为算法的主干网络1.2无参注意力SimAM无参数的注意力模块SimAM20是目前较为先进的注意力机制,能通过特征图本身推导出3D注意力权值,可以更好地进行特征增强以提升模型性能,同时不会引入额外的参数,因此被称为“无参注意力”SimAM解决了通道空间注意力无法同步进行的问题 由于人类视觉机制是“通道和空间注意力”同时进行的,SimAM以能量函数的方式让通道和空间进行同步加权,可以充分发掘每个神经元的重要性并
22、赋予其合适的权值,从而改善特征丢失的问题SimAM注意力结构如图2所示c表示通道数,X表示每个通道输入H W矩阵的维度,也是通道中神经元的数量图 2无参注意力模块20一般来说,信息丰富的神经元通常会抑制周围神经元,具有抑制效应的神经元应当赋予更高的权重 为了评估每个神经元的重要性,通过能量函数的方式给每个神经元赋予合适的权值 能量函数的表达式如公式(1)第2期程述立,等:基于无参注意力和联合损失的行人重识别205所示:et(t,bt,xi)=2t+1M 1M1i=1(1(txi+bt)2+(1(txi+bt)2(1)式中:t和xi是输入特性X RCHW中同一通道的目标神经元和其它神经元,(tt
23、+bt)和(txi+bt)是关于目标神经元和其它神经元的线性变换,i是空间维度的索引,M是该通道上的神经元数量,t是变换的权值,bt是变换的偏差 通过计算得到t和bt解析解和通道中所有神经元的均值和方差,得到最小能量函数如公式(2)所示:et=4(2+)(t)2+2 2+2(2)式中:=1MMi=1xi,2=1MMi=1(xi)2 能量越低,目标神经元与其它神经元的区别越大,重要性越高,通过对能量函数求倒数即可知道每个神经元的重要性SimAM模块充分考虑输入特征之间的差异性,从神经元的角度考虑权值分配,这种方式不会限制它们学习更多区别性线索的能力 为了提取输入特征的关键信息并且正确区分该特征和
24、其它特征之间的区别,需要根据每个神经元的重要程度 最后对特征进行加强即可得到所需的权值信息,SimAM模块的表达式如公式(3)所示:?X=sigmoid(1En)X(3)式中:E表示为能量函数et跨通道和空间维度进行的分组,加入sigmoid函数不但能使E值范围可控,而且能正确映射每个神经元的相对重要性 综上所述,SimAM模块通过3-D权值对每个神经元进行重要性分析,再对特征进行增强,从而达到提取更丰富特征的目的 该模块产生权值的过程不需要引入额外参数,可以直接由特征图推导出,相比其它注意力机制避免了过多的结构调整,极大减少模型的复杂度1.3损失函数本文涉及的损失函数分别为ID损失(Soft
25、max Loss)、三元组损失(Triplet Loss)和自适应加权排序损失(Adaptive Weighted Rank List Loss,WRLL)2122 使用的总损失函数如下:Ltotal=LID+LTriplet+LWRLL(4)式中:LID代表交叉熵损失函数,LTriplet代表三元组损失函数,LWRLL代表自适应加权排序损失函数1.3.1ID损失行人重识别模型中,ID损失就是Softmax损失,这是由Softmax函数和交叉熵损失函数组成的损失函数Softmax损失用来衡量预测样本和真实样本的误差,所得到的损失函数值越小表明误差越小1.3.2三元组损失三元组损失是数据集中随机
26、样本的损失和集,而随机样本的损失由目标样本与正负样本之间的欧式距离判别 三元组损失主要使具有相同标签的图片在空间位置上更加接近,同时令具有不同标签的图片在空间位置上更加疏远23 该功能在个体级别上有很显著的效果,使三元组损失函数在行人重识别领域得到广泛应用1.3.3自适应加权排序损失WRLL是一个可以同时优化正样本和负样本的自适应损失函数,可以根据样本与输入图片的欧氏距离自适应分配权重,有效拉近正样本的距离并拉开负样本的距离 在训练集X=(xi,yi)Ni=1中,有C类样本,(xi,yi)表示第i个样本和样本标签,yi的样本标签取值为1,2,C 训练集中所有样本可表示为(xci)NCi=1,其
27、中正样本集合为Pc,i,负样本集合为Nc,i 若给定一张目标图片,损失函数Lm(xi,xj;f)的目的是使目标图片的正负样本最少拉开m的距离,正样本聚集到m的超球面范围内,负样本在的距离外Lm(xi,xj;f)表达式如公式(5)所示,其中dij=|f(xi)f(xj)|2是目标图片与样本之间的欧氏距离 当yi=yj时,yij值为1,反之则为0Lm(xi,xj;f)=(1yij)|dij|+yij|dij(m)|(5)LP(xci;f)表示正样本损失函数,主要是优化输入与正样本集之间的距离,如公式(6)所示 由于负样本数量远远大于正样本数量,采用softmin函数可以有效缓解网络泛化能力差的问题
28、,如公式(7)所示:LP(xci;f)=1|Pc,i|xjPc,iLm(xci;xcj;f)(6)206新疆大学学报(自然科学版)(中英文)2023年wij=exp(dnij)xcjNc,jexp(dnij)(7)式中:dnij是输入图片和负样本的欧氏距离wij会根据输入图片和dnij的距离为负样本损失函数动态地赋予权值dnij越小,输入图片和负样本越接近,越容易误判,导致性能下降 采用softmin函数为负样本损失函数赋予一个较大的权值来提取负样本信息 负样本损失函数的表达式如公式(8)所示:LN(xci;f)=xkj|Nc,j|wijxkj|Nc,j|wijLm(xci;xcj;f)(8)
29、本文损失函数中,既优化了正样本又优化了负样本,表达式如公式(9)所示:LWRLL(xci;f)=LP(xci;f)+LN(xci;f)(9)2实验结果与分析本节首先介绍PFNet模型的数据集和评价指标,然后详细说明实验环境以及参数配置,再将GeM、三元组损失、WRLL和SimAM注意力机制依次叠加到基线上进行消融实验 最后将PFNet与其它先进行人重识别算法进行对比,实验表明PFNet模型有较为优秀的表现2.1数据集为了验证PFNet模型的有效性,本文在Market-1501、DukeMTMC-reID和CUHK03三个权威行人重识别数据集上进行了大量实验 每个数据集均被分为三个集合:训练集、
30、测试集和查询集 模型通过训练集进行训练,然后通过查询集进行评估和模型调优,最后通过测试集进行测试和验证Market-1501、DukeMTMC-reID和CUHK03数据集的具体信息如表1所示表 1数据集信息描述数据集训练集(行人/图片)测试集(行人/图片)查询集(图片)Market-1501751/13 936750/19 7323 368DukeMTMC-reID702/16 522702/17 6612 228CUHK03767/7 356700/5 3337002.2评价指标在行人重识别领域,首位命中率(Rank-1)和平均检测精度(mAP)是两个广泛使用的评价指标 行人重识别模型以待
31、检测图片作为输入,最终输出一个排序列表Rank-1就是输出列表中第一张匹配结果为正确的精度,是行人重识别领域评价模型性能优劣的一项重要指标mAP是多个带检测图片的精准率均值,适用于多标签数据集,是行人重识别中常用的度量标准2.3实验环境与参数配置本实验基于PyTorch深度学习框架进行训练,实现代码为Python,操作系统为Ubuntu16.04,在GPU配置为4片Tesla v100的终端进行训练与测试 在训练阶段,将输入图片大小调整为256128,使用水平翻转和随机擦除进行数据增强 用Adam优化器训练所有模型,批量大小为48,训练周期为50,初始学习率设置为0.000 5 为了验证PFN
32、et的有效性,在三个主流数据集Market-1501、DukeMTMC-reID和CUHK03上进行实验,并采用Rank-1和mAP作为评价指标2.4消融实验本文分别基于池化层GeM、损失函数Triplet、损失函数WRLL以及注意力机制SimAM四个部分在Market-1501、DukeMTMC-reID和CUHK03这三个数据集上进行实验,实验结果如表2所示 由表2可知,本文使用ResNet-50和交叉熵损失函数作为基线 在三个数据集上,本文算法较基线均有很明显的提升,Rank-1分别提升了1.8%、5.3%和25.0%,mAP分别提升了5.7%、6.8%和27.0%在CUHK03数据集上
33、效果尤为明显,主要是WRLL能充分挖掘样本信息,为每个类学习超球面保护样本结构从而提升模型性能 在基线上叠加GeM、Triplet、WRLL和SimAM这四个模块的算法精度高于其它实验,达到最优效果 表明SimAM也会使行人重识别精度有所提升,这是因为该模块从神经元的角度赋予每个特征点合适的权重,一定程度上丰富输入特征,提升模型性能第2期程述立,等:基于无参注意力和联合损失的行人重识别207表 2在三个数据集上的消融实验ResNet-50GeMTripletWRLLSimAMMarket-1501DukeMTMC-CUHK03reID+LID(基线)Rank-1mAPRank-1mAPRank
34、-1mAP/%/%/%/%/%/%93.783.985.674.859.355.094.184.586.875.462.156.495.187.989.980.063.862.795.389.690.780.883.380.995.589.690.981.684.382.0实验过程中,验证了注意力模块在四个残差块中不同位置插入的情况,实验结果表明,在残差块1、3之后插入注意力模块,所提出的算法性能最优 因此,将SimAM注意力模块放在残差块1和残差块3之后,此时算法获得最优的识别性能 相关消融分析的实验结果如表3所示由表3可知,注意力模块嵌入在四个残差块的任何一个后面,或者同时嵌入在四个残差块
35、之后,算法均未获得最优性能 而当SimAM注意力模块放在残差块1和残差块3之后,算法获得最优的识别性能,因此在表2以及后续的实验中,注意力模块默认的嵌入位置为残差块1和残差块3之后表 3注意力模块的嵌入位置消融实验注意力模块的嵌入位置Market-1501DukeMTMC-reIDCUHK03Rank-1mAPRank-1mAPRank-1mAP/%/%/%/%/%/%放在残差块 1、2 之后95.189.089.879.783.381.5放在残差块 1、3 之后95.589.690.981.684.382.0放在残差块 1、4 之后94.788.989.680.982.881.3放在残差块
36、2、3 之后94.688.789.180.883.081.3放在残差块 2、4 之后95.389.290.581.383.981.5放在残差块 3、4 之后94.288.488.480.582.781.0放在残差块 1 之后93.487.986.679.281.280.1放在残差块 2 之后93.788.087.780.381.179.5放在残差块 3 之后94.187.387.479.980.778.8放在残差块 4 之后93.887.287.979.781.379.9放在残差块 1、2、3、4 之后94.188.589.380.782.581.12.5与先进实验进行对比为了验证所提模型的优
37、越性,本文选择5个较为先进的行人重识别算法进行对比分析 采用联合损失函数训练模型的方法(BagTricks24、AGW1)、注意力机制的方法(AANet24、GLWR22)以及多尺度、多分支的方法(Auto-ReID+25),主干网络均是ResNet-50 表2和表4展示了算法在Market-1501、DukeMTMC-reID和CUHK03这三个数据集上的性能对比结果由表4可知,在三个数据集上,本文算法的Rank-1分别达到95.5%、90.9%和84.3%,mAP分别达到89.6%、81.6%和82.0%GLWR算法和本文算法模型相似,也是采取将注意力机制插入到残差网络不同层级中的方法,以
38、此获取更为丰富的特征,但是它的注意力只是从通道和空间的维度获取特征,而本文的注意力还能从图片本身提取特征 在Market-1501数据集上,本文算法的mAP比GLWR算法提升了0.1%在DukeMTMC-reID和CUHK03数据集上,本文算法的Rank-1比GLWR算法分别提升了0.2%和2.0%,mAP分别提升了0.2%和3.1%根据实验结果分析,本算法在三个数据集上表现都优于其它先进算法,是一个拥有较好的鲁棒性和先进性的行人重识别模型由表4可知,本文提出的网络架构相对BagTricks、GLWR参数略有提升,但本文算法相对BagTricks在Rank-1上提升了25.5%,在mAP上提升
39、了25.4%相对GLWR,本文算法在Rank-1和mAP上分别提升了208新疆大学学报(自然科学版)(中英文)2023年2.0%和3.1%虽然AGW整体参数量较少,但AGW的Rank-1和mAP整体得分相对本文算法较低,这说明AGW难以获得到特征图中大部分重要的前景信息整体来看,相对其它网络,本文在微增参数的前提下Rank-1和mAP取得了较大的改善表 4在三个数据集上与前沿算法的对比方法Market-1501DukeMTMC-reIDCUHK03网络复杂度Rank-1mAPRank-1mAPRank-1mAP/%/%/%/%/%/%BagTricks2494.585.986.476.458.
40、856.663.15 MAGW195.187.889.079.663.662.025.11 MAANet2493.982.586.472.6GLWR2295.589.590.781.482.378.964.17 MAuto-ReID+2595.888.290.180.178.174.2本文95.589.690.981.684.382.064.28 M2.6实验可视化本文将算法的排序结果进行了可视化展示,如图3所示,第1列红色框为输入的待检索图片,后7列图片是输入样本(红色框图片)经过模型可视化得到的最终结果 可以观察到,本文的算法没有匹配错误,且在一些特殊情况下也能准确识别 不仅对正常行走且周
41、围无遮挡的行人能准确识别其身份,而且对面部遮挡的戴帽子行人或只有背部特征的行人也能精准匹配其行人身份 另外通过查询结果的第3组第3张图片也可以观察到,在含有并行行人信息的情况下,本算法也能准确进行识别通过客观性能对比和主观可视化分析,实验结果图 3行人检索排序展示显示,本文的算法能够在行人所处环境相对复杂的情况下进行高准确率的识别工作,验证了本算法具有较好的识别性能、较强的鲁棒性优势3结 论针对行人重识别中存在的遮挡和相似外观等问题,本文设计了一个新的行人重识别算法,经过实验验证,发现所提算法在一定程度上缓解了以上问题 该算法的主干网络为ResNet-50,通过在网络的第一层残差块和第三层残差
42、块后嵌入SimAM注意力模块为每个神经元赋予合适的权重,并采用GeM模块获取具有区分性的特征,最后基于提出的联合损失函数来训练该网络模型 这里,SimAM注意力模块属于无参注意力模块,整体而言,与基线对比算法相比,本文在增加少量参数的前提下,所提出的算法在Rank-1和mAP指标上取得了较大的性能改善 所提模型在三个公共数据集上进行测试,并将其和目前较先进的算法进行对比,实验结果表明本文设计的基于无参注意力机制的行人重识别模型具有很高的精准度,其性能领先目前大部分行人重识别算法 后期将进一步轻量化行人重识别网络架构,以促进本文网络在较低网络复杂度的前提下取得更好的性能参考文献:1YE M,SH
43、EN J,LIN G,et al.Deep learning for person re-identification:a survey and outlookJ.IEEE Transactions on PatternAnalysis and Machine Intelligence,2022,44(6):2872-2893.2HE K,ZHANG X,REN S,et al.Deep residual learning for image recognitionC/2016 IEEE/CVF Conference on ComputerVision and Pattern Recognit
44、ion(CVPR).Las Vegas:IEEE,2016.3HUANG G,LIU Z,LAURENS V,et al.Densely connected convolutional networksC/2017 IEEE/CVF Conference on ComputerVision and Pattern Recognition(CVPR).Honolulu:IEEE,2017.第2期程述立,等:基于无参注意力和联合损失的行人重识别2094ALMAHAIRI A,BALLAS N,COOIJMANS T,et al.Dynamic capacity networksC/The 33rd
45、 International Conference onMachine Learning(ICML).New York:ACM,2016.5JIE H,LI S,GANG S,et al.Squeeze-and-excitation networksJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023.6WOO S,PARK J,LEE J Y,et al.CBAM:convolutional block attention moduleC/The European Confe
46、rence on ComputerVision(ECCV).M unchen:Springer,2018.7PARK J,WOO S,LEE J Y,et al.BAM:bottleneck attention moduleC/British Machine Vision Conference(BMVC).Newcastle:Springer,2018.8TAY C P,YAP K H,ROY S.AANet:attribute attention network for person re-identificationsC/2019 IEEE/CVF Conferenceon Compute
47、r Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019.9ZHANG Z,LAN C,ZENG W,et al.Relation-aware global attention for person re-identificationC/2020 IEEE/CVF Conferenceon Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020.10YANG B,SHAN Y,PENG R,et al.A feature extraction method fo
48、r person re-identification based on a two-branch CNNJ.Multimedia Tools and Applications,2022,81(1):39169-39184.11WEI L,ZHANG S,WEN G,et al.Person transfer GAN to bridge domain gap for person re-identificationC/2018 IEEE/CVFConference on Computer Vision and Pattern Recognition(CVPR).Salt Lake City:IE
49、EE,2018.12DAI Z,CHEN M,GU X,et al.Batch dropblock network for person re-identification and beyondC/2019 IEEE/CVF Conferenceon Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019.13MENG Z,KARANAM S,WU Z,et al.Re-identification with consistent attentive siamese networksC/2019 IEEE/CVF C
50、onfer-ence on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019.14YAN C,PANG G,WANG L,et al.BV-person:a large-scale dataset for bird-view person re-identificationC/2021 IEEE/CVFInternational Conference on Computer Vision(ICCV).Montreal:IEEE,2021.15GU X,CHANG H,MA B,et al.Clothes-cha