收藏 分销(赏)

结合特征融合和任务分组的人脸属性识别.pdf

上传人:自信****多点 文档编号:3079956 上传时间:2024-06-15 格式:PDF 页数:9 大小:2.18MB
下载 相关 举报
结合特征融合和任务分组的人脸属性识别.pdf_第1页
第1页 / 共9页
结合特征融合和任务分组的人脸属性识别.pdf_第2页
第2页 / 共9页
结合特征融合和任务分组的人脸属性识别.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 49卷 第 11期2023年 11月Computer Engineering 计算机工程结合特征融合和任务分组的人脸属性识别刘英芳1,王松1,2,马亚彤1(1.兰州交通大学 电子与信息工程学院,兰州 730070;2.甘肃省人工智能与图形图像处理工程研究中心,兰州 730070)摘要:针对现有人脸属性识别模型存在的特征提取不足、划分属性组时未充分考虑属性相关性强弱等问题,为了实现对多个人脸属性的同时识别,建立一种结合特征融合和任务分组的人脸属性识别模型。在参数共享部分,通过多尺度特征融合模块将不同尺度的特征进行融合增强特征相关性,同时设计基于中心核对齐和谱聚类的属性分组策略进行属性识别,通

2、过中心核对齐方法度量属性的相关程度,并以此为基础使用谱聚类算法得到属性的合理分组,使同一组内的属性相关性尽可能大,提高属性识别准确率。在分支部分,使用注意力机制加强对目标区域的关注,并通过不确定性加权方法表示任务间的相对难度,自动调整每组任务损失之间的相对权重,进一步优化模型性能。在 CelebA 公开数据集上的实验结果表明,所提模型的分类准确率相较于 MOON、GNAS和 DMM-CNN 模型提升了 0.78、0.09和 0.02个百分点,参数量仅为上述对比模型的 1.10%、17.08%和 0.37%。关键词:人脸属性识别;特征融合;中心核对齐;属性分组;注意力机制开放科学(资源服务)标志

3、码(OSID):中文引用格式:刘英芳,王松,马亚彤.结合特征融合和任务分组的人脸属性识别 J.计算机工程,2023,49(11):211-219.英文引用格式:LIU Y F,WANG S,MA Y T.Face attribute recognition combining feature fusion and task grouping J.Computer Engineering,2023,49(11):211-219.Face Attribute Recognition Combining Feature Fusion and Task GroupingLIU Yingfang1,WA

4、NG Song1,2,MA Yatong1(1.School of Electronic and Information Engineering,Lanzhou Jiaotong University,Lanzhou 730070,China;2.Gansu Provincial Engineering Research Center for Artificial Intelligence and Graphic and Image Processing,Lanzhou 730070,China)【Abstract】To address the issues of insufficient f

5、eature extraction and inadequate consideration of attribute correlation in existing face attribute recognition models,a face attribute recognition model combining feature fusion and task grouping is proposed to achieve the simultaneous recognition of multiple face attributes.In the parameter sharing

6、 part,features of different scales are fused using multiscale feature fusion modules to enhance feature relevance.Simultaneously,an attribute grouping strategy based on Centered Kernel Alignment-Spectral Clustering(CKA-SC)is designed for attribute identification.The extent of correlation of the attr

7、ibutes is measured using CKA.Based on this,the SC algorithm is utilized to obtain reasonable attribute groups,maximizing the relevance of attributes within the same group to improve attribute recognition accuracy.In the branch part,attention mechanisms are employed to enhance the focus on target reg

8、ions,and the Uncertainty Weighting(UW)method is used to represent the relative difficulty between tasks.This automatically adjusts the relative weights between the losses of each task group to further optimize the model performance.Experimental results on the publicly available CelebA dataset demons

9、trate that the proposed model achieves classification accuracy improvements of 0.78,0.09,and 0.02 percentage points compared with the MOON,GNAS,and DMM-CNN models,respectively,with parameter counts accounting for only 1.10%,17.08%,and 0.37%of the mentioned comparison models.【Key words】face attribute

10、 recognition;feature fusion;Centered Kernel Alignment(CKA);attribute grouping;attention mechanismDOI:10.19678/j.issn.1000-3428.0066051基金项目:国家自然科学基金(62067006);甘肃省自然科学基金(21JR7RA291);甘肃省教育科技创新项目(2021jyjbgs-05);甘肃省高校产业支撑计划项目(2020C-19)。作者简介:刘英芳(1998),女,硕士研究生,主研方向为计算机视觉、人脸属性识别;王 松(通信作者),副教授、博士;马亚彤,硕士研究生。收

11、稿日期:2022-10-20 修回日期:2022-12-26 Email:图形图像处理文章编号:1000-3428(2023)11-0211-09 文献标志码:A 中图分类号:TP3912023年 11月 15日Computer Engineering 计算机工程0概述 随着人脸识别技术在人机交互1、视频监控2-3、图 像 检 索4-5等 场 景 的 广 泛 应 用,人 脸 属 性 分 类(Face Attribute Classification,FAC)成为了计算机视觉方向研究的热点问题之一,属性分类的准确性和实时性备受关注。然而,姿态、光照等因素的不确定性给人脸属性分类带来较大困难。传统

12、人脸属性识别方法通过人工标注特征,容易受到环境影响且识别过程耗时长,识别准确性又依赖于特征标注的有效性,识别效果不理想。在这种情况下,现有方法多数利用深度学习技术的端到端识别特点,开展基于深度学习的人脸属性识别。基于深度学习6-8的人脸属性识别方法避免了人工提取特征的不完备性,相较于传统方法表现更加出色,在当今研究中占据主导地位。RUDD 等9使用多任务方法同时学习多个属性标签,提出混合目标优化网络(MOON)以处理数据集中多标签不平衡问题,使用最小均方损失得到多个预测分数,减少回归误差。MAO 等10设计深度多任务多标签网络(DMM-CNN),通过多任务学习方法提升属性识别性能,从主观和客观

13、角度将属性划分为两组,设计两种网络分别提取特征。ZHENG 等11提出双向阶梯注意力网络(BLAN)得到层次表示,设计残差双重注意力模块连接局部和全局属性的层次特征。姚树婧等12提出 FD-SDGCN 网络结构,通过特征解耦模块,获得不同属性的对应特征,然后联合不同属性间关系的动态图和静态图以更好地识别人脸属性。HAND 等13认为属性之间存在联系,通过构建多任务网络(MCNN-AUX),达到属性之间的信息共享。HUANG 等14通过一种贪婪神经网络结构搜索(GNAS)方法自动生成有效的网络,克服了人工设计网络在应用中的不灵活问题。ZHUANG 等15提出 一 种 新 的 级 联 卷 积 神

14、经 网 络 多 任 务 学 习 方 法(MCFA),用于同时预测多个人脸属性,利用 3 个级联的子网络,对多个任务进行由粗到精的联合训练,实现端到端优化。SAVCHENKO16研究基于轻量级卷 积 神 经 网 络 的 多 任 务 学 习 框 架,提 出 基 于MobileNet、EfficientNet 和 RexNet 架构的模型,用于无裁剪情况下的面部属性分类和人脸识别。LIU等17提出一种自适应多层感知注意力网络(AMP-Net),利用不同的细粒度特征提取面部全局、局部和显著特征,学习面部关键信息且对遮挡和姿态具有鲁棒性,提高了潜在面部多样性信息学习的有效性。综上所述,现有的基于深度学习

15、的人脸属性识别方法基本采用多任务学习框架,通过属性分组反映不同属性间的关系,但属性分组策略多数根据属性位置信息,人为地划分为不同的属性组而未深入考虑属性相关程度的强弱。此外,在提取特征的过程中,多数网络模型忽略了层间语义信息的作用,导致特征提取不充分,识别准确度不高。针对以上问题,本文提出结合多尺度特征融合和任务分组的人脸属性识别模型(Slim-FAC),实现对人脸属性的有效识别,主要工作包括:1)在 Slim-CNN 网络的基础上,通过两个特征融合模块融合不同层之间的语义信息;2)通过中心核对齐和谱聚类(Centered Kernel Alignment-Spectral Clusterin

16、g,CKA-SC)分组策略进行属性分组,将相关性强的属性划分在同一个分支,有利于在识别每种属性时能够利用相关属性的特征信息;3)引入 ECA 注意力机制,提高特征利用率,加强对目标区域的关注;4)考虑任务权重对于模型性能的影响,通过不确定性加权(Uncertainty Weighting,UW)方法来平衡不同任务之间的损失值,自动调整任务的相对权重,达到优化模型的目的。1Slim-CNN网络 Slim-CNN18是一个轻量级网络模型,通过轻量化模块(Slim Module)构造深度神经网络,在降低模型参数量的同时保证模型性能良好。Slim-CNN网络结构如图 1所示(彩色效果见 计算机工程 官

17、网 HTML版),使用轻量化模块作为深度神经网络构建块,4个轻量化模块堆叠在一起,构成网络特征提取部分。Slim Module 和 可 分 离 的 压 缩 扩 展(Separable Squeeze-Expand,SSE)模块(SSE Block)结构如图 2所示(彩色效果见 计算机工程 官网 HTML 版)。Slim Module 由 2 个可分离的 SSE Block 以及 1 个深度可分离卷积构成,第 1个 SSE Block上存在跳跃连接,第 2 个 SSE Block 的输入为第 1 个 SSE Block 的图 1Slim-CNN网络结构Fig.1Slim-CNN network

18、structure212第 49卷 第 11期刘英芳,王松,马亚彤:结合特征融合和任务分组的人脸属性识别输入和输出之和。SSE Block 由 2 个1 1逐点卷积和 1 个3 3深度可分离卷积组成多层排列结构。第 1层为挤压层,特征维度低于特征表示的前一层。第 2 层为扩展层,由1 1逐点卷积和3 3深度可分离卷积形成串联结构,增加输出通道的数量。2结合特征融合和任务分组的人脸属性识别模型 2.1整体框架经典的神经网络对于设备性能要求高且计算量大,轻量化网络提高了计算效率,降低了对设备的要求。现有的一系列轻量化的神经网络在特征提取过程中通过卷积操作获得图像的单尺度特征,会出现图像特征提取能力

19、弱的问题。多数人脸属性识别模型在需要识别多个人脸属性的情况下未充分考虑属性之间相关性的强弱。本文在 Slim-CNN 的基础上,建立一种结合特征融合和任务分组的人脸属性识别模型,整体框架如图 3 所示(彩色效果见 计算机工程 官网 HTML版)。该模型主要分为两个部分:1)参数共享部分。在 Slim-CNN 的基础上,通过两个特征融合模块,克服原有网络特征提取不充分,识别准确度不高的问题。通过参数共享的形式达到信息共享的目的,提升属性识别准确率的同时减少了模型参数量。2)分支部分。通过 CKA-SC分组策略将 40个属性划分为 6 组,克服了依据位置信息划分属性组对属性相关性考虑不充分的问题。

20、在分支部分,通过ECA注意力机制增强有用信息的利用。使用二元交叉熵损失函数,每个分支部分得到一个损失值,通过不确定性加权方法自动调整每组任务损失之间的相对权重,以提高模型性能。2.2多尺度特征融合模块在使用卷积神经网络提取特征过程中,浅层提取的特征分辨率高且包含更多细节信息,但是包含的噪声多且语义性不强;深层提取的特征噪声更少,但缺乏细节信息,分辨率低。将不同层的特征融合可以更好地表示特征。相关研究19表明,神经网络的中层特征在人脸属性识别中表现出极为重要的作用,受此启发,通过两个特征融合结构实现不同尺度特征的有效利用,以此提高人脸属性识别的性能。1)融合模块 1当人脸图像目标特征不明显时,出

21、现特征提取困难的问题,影响人脸属性识别的准确率,而且随着神图 2Slim Module和 SSE Block结构Fig.2Slim Module and SSE Block structure图 3结合特征融合和任务分组的人脸属性识别模型整体框架Fig.3Overall framework of face attribute recognition model combining feature fusion and task grouping2132023年 11月 15日Computer Engineering 计算机工程经网络层数的加深,语义信息逐渐丰富,提取的特征图逐渐变小,分辨率逐渐

22、降低,融合模块 1通过融合特征金字塔网络(Feature Pyramid Network,FPN)20连接浅层特征和深层特征,构建不同尺寸的特征金字塔结构,更充分地利用特征信息。特征金字塔融合结构如图 4 所示(彩色效果见计算机工程 官网 HTML版),左侧为 Slim-CNN,通过自下而上的方式提取语义信息。C1、C2、C3、C4、C5分别对应 Slim-CNN 特征提取过程中 5 个阶段的特征输出,选择C3、C4、C5这 3 个阶段的信息进行特征融合。在提取人脸图像的高层语义特征后,通过自上而下的方式,将经过上采样后的深层语义特征和浅层的细节信息相融合。将C5通过1 1卷积减少通道数得到特

23、征图M5,通过上采样操作后与浅层特征元素相加得到融合特征。M4特征信息包括M5的特征信息和对应的横向连接信息。M3特征信息包括M4的特征信息和对应的横向连接信息。特征融合过程表示如下:M5=f1 1()C5M4=f1 1()C4fup()M5M3=f1 1()C3fup()M4(1)其中:f1 1()为1 1的卷积;fup()为上采样操作;为对应元素相加的融合操作。最后通过3 3卷积操作消除上采样的混叠效应21,得到最终P3、P4、P5层的特征。通过金字塔结构联合不同尺度的特征,将浅层和深层信息进行融合,获得更准确的特征图。2)融合模块 2随着网络深度的增加,在特征提取过程中,网络中间层提取特

24、征的信息逐渐减少,使得每个任务的特征表示能力降低。通过融合模块 2 将 Slim-CNN中 stage 4 和 stage 5 的特征再次融合。在融合模块中,将 stage 4 的特征通过池化操作来匹配 stage 5 特征图的长和宽。使用通道连接操作进行通道叠加。在串联后,采用1 1卷积进行降维,减少融合特征图的通道数,最后得到 stage 4 和 stage 5 两个阶段的特征融合表示。在原始的 Slim-CNN 网络的基础上,通过两个特征融合模块,融合了不同感受野下的人脸属性的特征信息,联合浅层得到的高分辨率低级特征和深层得到的低分辨率高级语义特征,有效改善原始人脸图像中存在的人脸特征信

25、息丢失问题,提升了对人脸特征信息的利用率,克服了现有人脸属性识别模型中存在的特征提取不充分问题。2.3ECA注意力机制模块在识别人脸属性时,识别效果受环境复杂度以及光照等因素的影响。为了提高复杂背景下的人脸属性的识别准确性,通过注意力机制减少无用信息,将识别的重点区域放在人脸部分,有助于从人脸图像的复杂背景中获取目标区域。ECA22是一种轻量化的通道注意力模块,在增加少量计算量的情况下,提高模型的分类准确率,通过一维卷积实现不降维的局部跨信道交互策略,增强有效特征权重。ECA 结构如图 5 所示(彩色效果见 计算机工程 官网 HTML版)。输入大小为F RC H W的特征图,首先通过全局平均池

26、化操作得到1 1 C的全局描述特征,然后通过卷积核大小为k的一维卷积操作获得局部的跨通道交互信息,其次通过 Sigmoid函数得到通道权重占比,反映通道的重要性,最后输入的特征图与权重进行相乘,获得通道注意力特征。ECA 根据输入特征通道数C自适应地选择卷积核尺度k,如式(2)所示,无需手动调优,提高了学习性能和效率。图 4特征金字塔融合结构Fig.4Feature pyramid fusion structure图 5ECA结构Fig.5ECA structure214第 49卷 第 11期刘英芳,王松,马亚彤:结合特征融合和任务分组的人脸属性识别k=(C)=|lb C+b|odd(2)其中

27、:|*|odd为最近邻奇数;=2;b=1。在 ECA 中考虑相邻通道信息的交互,权重表示如下:i=(j=1kjiyji)yji ki(3)其中:为 Sigmoid激活函数;yi为第 i个通道;wi为通道yi的权重;ki为yi的k个相邻通道集合。使用卷积核大小为k的一维卷积实现通道注意力模块,权重的计算公式表示如下:w=(C1Dk(y)(4)其中:C1Dk为卷积核大小为k的一维卷积操作;y表示通道。2.4CKA-SC分组策略人脸的属性之间有不同程度的相关性,相关属性之间的特征相互辅助,以提高属性的识别准确度。多数现有研究基于位置对属性进行手动分组,属性的相关性考虑不充分,本文进一步考虑属性之间的

28、相关性。属性之间相关性的强弱由 CKA23计算得到并以矩阵形式表示。CKA 是一种核度量方法24,基于核对齐的概念计算两个核矩阵(核函数)之间的相关性。设需要比较的两层网络中的神经元的个数分别为p1、p2,样本个数为n,得到X Rn p1、Y Rn p2的表征矩阵,基于点积的相关性表示如下:vec XXTvec YYT=tr(XXTYYT)=YTX2F(5)根据式(5),可得:1()n-12tr(XXTYYT)=Cov()YTXT2F(6)根据 HSIC25的表达式,将X、Y中的列通过核函数对应到K、L上,使得Kij=k(xixj)、Lij=l(yiyj),得到 HSIC的经验估计值:HSIC

29、(KL)=1()n-12tr(KHLH)(7)其中:H为中心矩阵;Hn=In-1n11T。归一化后得到CKA指标:CKA(KL)=HSIC()KLHSIC()KK HSIC()LL(8)以单属性模型不同层的 CKA 平均值作为两个任务的相关程度表示,得到矩阵A以表示单任务之间的相关性:A(mn)=1si=1sCKA(TmiTni)(9)其中:m、n分别为第m个属性(任务)、第n个属性(任务);Tmi、Tni分别表示m、n两个单属性模型中的第 i层;s表示模型层数,以单属性模型中对应层相关性 的 平 均 值 作 为 两 个 属 性 的 相 关 性 系 数。使 用CKA 计算不同模型层与层之间相关

30、性的优点在于通过对核矩阵的中心化处理有效解决了因原点远离映射样本而导致的核信息表达能力降低问题。由于以客观衡量单属性之间的相关性为基础,需要得到属性分组,因此本文提出 CKA-SC 分组策略。CKA 用来衡量神经网络中层与层之间表示的相关性,以 CKA 计算结果作为相关性指数,再利用谱聚类26得到属性分组结果。谱聚类以图论为基础,通过图的最优划分解决分组问题。利用 CKA 度量 CelebA 数据集中 40种属性之间的相关性,将每个需要识别的属性抽象为图的顶点,由 CKA 计算得到的属性之间的相关程度的平均值作为不同顶点(属性)之间连接边的权重(相关性)。将图通过谱聚类算法划分得到若干子图。在

31、划分之后的子图内部相关性要尽可能大,子图之间的相关性要尽可能小。根据划分结果,将同一子图内的属性识别任务放在模型的同一个分支中,共享相同的特征提取模块,提高模型性能。通过分组策略将 CelebA 数据集的 40 种属性划分成 6组,组内属性信息互补,反映了属性识别受属性关系的影响,分组结果如表 1所示。表 1属性分组结果 Table 1Results of the attribute grouping组号group 0group 1group 2group 3group 4group 5属性名称Arched Eyebrows,Bags Under Eyes,Big Nose,Chubby,Ey

32、eglasses,Straight HairAttractive,Double Chin,Goatee,Gray Hair,Heavy Makeup,High Cheekbones,Male,Mouth Slightly Open,Oval Face,Smiling,Wavy Hair,Wearing Lipstick5 o Clock Shadow,Mustache,Pointy Nose,Rosy Cheeks,Wearing Necktie,YoungBald,Bangs,Black Hair,Blond Hair,Brown Hair,Receding HairlineBig Lips

33、,Narrow Eyes,No Beard,Pale Skin,Sideburns,Wearing Earrings,Wearing NecklaceBlurry,Bushy Eyebrows,Wearing Hat2152023年 11月 15日Computer Engineering 计算机工程2.5损失函数人脸属性识别是一个多标签分类问题。使用二分类交叉熵损失(Binary Cross Entropy Loss,BCELoss)作为每个任务中的损失函数。将每个组视为一个独立的任务,第i个任务Ltaski定义如下:Ltaski=-(yni loga(xni)+(1-yni)loga(1-x

34、ni)(10)其中:yni、xni分别表示第i个任务的第n个属性的标签和预测结果。使用不确定性加权27平衡 6 组任务之间的损失函数的权重,不确定性加权使用同方差不确定性平衡任务损失,最终的损失函数表示如下:Ltotal=i=16()122iLtaski+logai(11)其中:i是噪声参数,可通过反向传播进行更新;122i为每个任务损失函数的权重;logai是正则项,控制噪声参数不会增加太多。3实验结果与分析 3.1实验平台实 验 环 境 为:Windows 10 操 作 系 统,Intel CoreTM i7-10875H CPU2.3 GHz,显卡 NVIDIA Geforce RTX

35、2060,采用 PyCharm 2020.1 x64作为开发环境。3.2实验数据集及参数设置为了验证 Slim-FAC 的有效性,在 CelebA 数据集28上进行实验评估和分析。CelebA 数据集包括202 599张人脸图像,用 40种人脸属性进行标注。数据分为训练集(162 770 张图像)、验证集(19 867 张图像)和测试集(19 962张图像)。实验以开源的深度学习框架 PyTorch 为基础实现,学习率设置为 0.001,批处理大小为 128,训练总轮次为 50。现有模型多数以人脸属性识别准确率作为 评 价 指 标,本 文 也 采 用 相 同 的 指 标 评 价Slim-FAC

36、,并取 10 次实验结果的平均值作为最终结果。3.3属性组数选择实验为了分析人脸属性划分组数对模型性能的影响,将属性分别划分为 5、6、7、8组进行实验,实验结果如表 2所示。由表 2可以看出,将属性划分为 6组时 模 型 识 别 效 果 最 好,最 终 将 40 种 属 性 划 分成 6组。3.4分组策略比较将文献 13 分组策略应用于 Slim-FAC,结果如表 3 所示,分析可得在模型相同的情况下,CKA-SC分组策略优于文献 13 分组策略,证实了 CKA-SC分组策略的有效性。3.5消融实验为了直观反映 Slim-FAC中的特征融合、CKA-SC分组策略、ECA 注意力机制与不确定性

37、加权等对模型 性 能 的 影 响,通 过 消 融 实 验 进 行 证 明,在 原Slim-CNN 上依次添加不同模块进行训练和测试,以人脸属性识别准确率作为评价指标,验证 Slim-FAC的有效性,并给出了不同模型在 CelebA 数据集上所需 的 训 练 时 间,如 表 4 所 示,其 中 表 示 具 有 该模块。消融实验结果如图 6 所示(彩色效果见 计算机工程 官网 HTML版),由图 6可以得出:1)在 CelebA 数 据 集 上,Slim-FAC 及 其 变 体(Variant 1、Variant 2、Variant 3、Variant 4)对于人脸属性的识别效果总体优于 Base

38、line,其中 Slim-FAC 的准确率最高,说明了特征融合、ECA 注意力机制、CKA-SC 分组策略以及不确定性加权等都可使模型表 2不同属性组数的实验结果 Table 2Experimental results of different number of attribute groups组数5678识别准确率/%91.6791.7291.7191.69表 3不同分组策略的实验结果 Table 3Experimental results of different grouping strategies%分组策略文献13策略CKA-SC识别准确率91.5491.72表 4不同模型的训练时

39、间对比 Table 4Comparison of training time for different models单位:h模型BaselineVariant 1Variant 2Variant 3Variant 4Slim-FACFusion Module 1Fusion Module 2CKA-SCECAUW训练时间9.0089.1179.1929.6039.6179.916216第 49卷 第 11期刘英芳,王松,马亚彤:结合特征融合和任务分组的人脸属性识别性能提升,Slim-FAC 更能有效学习人脸属性间的关系表示,提高相关属性的识别准确率。2)分析 Variant 1 及 Vari

40、ant 2 的实验结果可得,通过两个特征融合模块将不同尺度的特征联合用于人脸属性识别,模型性能有所提升,验证了不同尺度特征对于人脸属性识别的有效性;分析 Variant 3 的实验结果可得,通过任务分组将相关性强的任务划分到同一个组,通过相关信息的共享进一步提高了属性识别的准确率;分析 Variant 4的实验结果可得,通过 ECA注意力机制减少了无用信息,从人脸图像的复杂背景能更准确地获取目标区域;分析 Slim-FAC的实验结果可得,通过不确定性加权动态调整任务权重,能获得更高的平均分类准确率,说明了使用不确定性加权方案的有效性。3.6对比实验为了评估 Slim-FAC 的性能,分别比较不

41、同模型的人脸属性识别准确率以及模型参数量,对比结果如表 5 所示,最优指标值用加粗字体表示。由表 5 可以得出:Slim-FAC 以轻量化 Slim-CNN 为基础网络,对整体框架进行改进,在尽可能获得较高的人脸属性识别准确率的前提下,使模型参数量减少。1)人脸属性识别准确率。Slim-FAC 的平均准确率达到 91.72%,分类误差为 8.28%,相较于 MOON9、MCNN-AUX13、GNAS14以及 DMM-CNN10平均识别准确率提高了 0.78、0.43、0.09、0.02 个百分点,分类误差分别降低了 8.61、4.94、1.08、0.24 个百分点。Slim-FAC 在 Cel

42、ebA 数据集的 Bald、Big Lips、Black Hair等多种属性上取得了最高的识别准确率。2)模型参数量。Slim-FAC 参数量为 1.32106,分 别 为 MOON、GNAS 以 及 DMM-CNN 参 数 量 的1.10%、17.08%以及 0.37%,参数量远小于上述 3个模型,可以部署在存储资源受限的硬件设备上。可见,Slim-FAC 在参数量显著降低的情况下保证了对人脸不同属性的较高识别准确率,证明了Slim-FAC的有效性。图 6CelebA数据集上的消融实验结果对比Fig.6Comparison of the results of ablation experim

43、ents on the CelebA dataset2172023年 11月 15日Computer Engineering 计算机工程3.7算法泛化性实验通过跨数据集的方法验证 Slim-FAC 的泛化性,将在 CelebA 数据上训练好的 Slim-FAC 在 LFWA 数据集28上进行实验,并与 MCFA15、DMM-CNN10和LNets+ANet28模型进行对比,实验结果如表 6所示。由表 6 可以看出,在未做任何微调的情况下通过跨数据集的方法,Slim-FAC 在 LFWA 数据集上的平均识别准确率达到 84.04%,相较其他模型,性能表现更好,验证了 Slim-FAC具备一定的泛

44、化能力。4结束语 为了提高人脸属性识别性能,针对现有人脸属性识别模型中存在特征提取不足且未充分考虑不同属性之间相关性的问题,在Slim-CNN的基础上,建立一种基于多尺度特征融合和任务分组的 Slim-FAC模型。通过两个特征模块融合了不同尺度的特征信息,有效改善了特征提取过程中存在的特征信息丢失问题,提高了人脸属性识别准确率。利用 CKA-SC分组策略,更加充分地度量了不同属性相关性的强弱。同时,引入 ECA 注意力机制减少无用信息,使得人脸属性识别效果更好。采用不确定性加权方法动态调整每组任务损失之间的相对权重,提升了模型性能。在 CelebA 数据集上的实验结果表明,Slim-FAC具有

45、较高的人脸属性识别准确率,平均识别准确率达到 91.72%,且模型参数量仅为 1.32106,满足实际应用需求。但由于当前数据集中标签存在噪声,因此下一步将对噪声标签进行预处理,构建噪声模型以及通过推理步骤对噪声标签进行校正,在训练过程中减少噪声标签对模型训练过程的影响,进一步提高人脸属性的识别准确率。参考文献 1 PARIKH D.Visual attributes for enhanced human-machine communicationC/Proceedings of the 51st Annual Allerton Conference on Communication,Cont

46、rol,and Computing.Washington D.C.,USA:IEEE Press,2014:1126-1127.2 VAQUERO D A,FERIS R S,TRAN D,et al.Attribute-based people search in surveillance environments C/Proceedings of Workshop on Applications of Computer Vision.Washington D.C.,USA:IEEE Press,2010:1-8.3 KIM J,PAVLOVIC V.Attribute rating for

47、 classification of 表 5不同模型在 CelebA数据集上的实验结果 Table 5Experimental results of different methods on the CelebA dataset%属性名称5 o Clock ShadowArched EyebrowsAttractiveBags Under EyesBaldBangsBig LipsBig NoseBlack HairBlond HairBlurryBrown HairBushy EyebrowsChubbyDouble ChinEyeglassesGoateeGray HairHeavy Ma

48、keupHigh CheekbonesMaleMouth Slightly OpenMustacheNarrow EyesNo BeardOval FacePale SkinPointy NoseReceding HairlineRosy CheeksSideburnsSmilingStraight HairWavy HairWearing EarringsWearing HatWearing LipstickWearing NecklaceWearing NecktieYoungAverage参数量/106MOON94.0382.2681.6784.9298.7795.8071.4884.0

49、089.4095.8695.6789.3892.6295.4496.3299.4797.0498.1090.9987.0198.1093.5496.8286.5295.5875.7397.0076.4693.5694.8297.5992.6082.2682.4789.6098.9593.9387.0496.6388.0890.94119.73MCNN-AUX94.5183.4283.0684.9298.9096.0571.4784.5389.7896.0196.1789.1592.8495.6796.3299.6397.2498.2091.5587.5898.1793.7496.8887.23

50、96.0575.8497.0577.4793.8195.1697.8592.7383.5883.9190.4399.0594.1186.6396.5188.4891.29GNAS94.7684.2583.0685.8798.9696.2071.7985.1090.2496.1196.4289.7592.9995.9396.4899.6997.5998.3791.8288.0598.5094.1697.0387.6696.3075.5797.2478.2493.9495.0197.9693.2484.7784.5290.9899.1294.4187.6196.7688.8991.637.73DM

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服