收藏 分销(赏)

人脸识别综述.doc

上传人:a199****6536 文档编号:2778188 上传时间:2024-06-05 格式:DOC 页数:10 大小:81.54KB 下载积分:8 金币
下载 相关 举报
人脸识别综述.doc_第1页
第1页 / 共10页
人脸识别综述.doc_第2页
第2页 / 共10页


点击查看更多>>
资源描述
(word完整版)人脸识别综述 人脸识别综述 1 引言 人脸识别技术的研究始于20世纪50年代,当时的研究人员主要涉及的是社会心理学领域;最早AFR(Auto Face Recognition)的研究论文见于 1965 年陈(Chan)和布莱索(Bledsoe)在Panoramic Research Inc.发表的技术报告。近年来,人脸识别研究得到了诸多研究人员的青睐,涌现出了诸多技术方法。尤其是 1990 年以来,人脸识别更得到了长足的发展。几乎所有知名的理工科大学和主要IT产业公司都有研究组在从事相关研究。 人脸识别研究的发展可分为以下三个阶段: 第一阶段(1964 年~1990年)。这一阶段人脸识别通常只是作为一个一般性的模式识别问题来研究,所采用的主要技术方案是基于人脸几何结构特征(Geometric feature based)的方法。 第二阶段(1991 年~1997年)。这一阶段尽管时间相对短暂,但却是人脸识别研究的高潮期,可谓硕果累累:不但诞生了若干代表性的人脸识别算法,美国军方还组织了著名的 FERET 人脸识别算法测试,并出现了若干商业化运作的人脸识别系统,比如最为著名的 Visionics(现为 Identix)的 FaceIt 系统。 美国麻省理工学院(MIT)媒体实验室的特克(Turk)和潘特(Pentland)提出的“特征脸”方法无疑是这一时期内最负盛名的人脸识别方法。 第三阶段(1998 年~现在)。 FERET’96 人脸识别算法评估表明:主流的人脸识别技术对光照、姿态等由于非理想采集条件或者对象不配合造成的变化鲁棒性比较差。因此,光照、姿态、表情、遮挡问题逐渐成为研究热点。 人脸识别是一项既有科学研究价值,又有广泛应用前景的研究课题.国际上大量研究人员几十年的研究取得了丰硕的研究成果,自动人脸识别技术已经在某些限定条件下得到了成功应用,人脸识别技术的研究对模式识别,人工智能,计算机视觉,图像处理等领域的发展有巨大的推动作用。 人脸识别问题可以定义成: 输入(查询)场景中的静止图像或者视频, 使用人脸数据库识别或验证场景中的一个人或者多个人。基于静止图像的人脸识别通常是指输入(查询)一幅静止的图像, 使用人脸数据库进行识别或验证图像中的人脸。 而基于视频的人脸识别是指输入(查询)一段视频, 使用人脸数据库进行识别或验证视频中的人脸. 如不考虑视频的时间连续信息, 问题也可以变成采用多幅图像(时间上不一定连续)作为输入(查询)进行识别或验证. 人脸自动识别系统包括三个主要模块[1]:首先是图像预处理模块,由于实际成像系统多少存在不完善的地方以及外界光照条件等因素的影响,在一定程度上增加了图像的噪声,使图像变得模糊、对比度低、区域灰度不平衡等。为了提高图像的质量,保证提取特征的有有效性,进而提高识别系统的识别率,在提取特征之前,有必要对图像进行预处理操作;其次人脸的检测和定位模块,即从预处理的图像中,利用人类检测器(目前人脸检测方法主要以Adaboost算法为主,OPENCV在这方面做的比较好)找出人脸及人脸所在的位置,并将人脸从背景中分割出来,对库中所有的人脸图像大小和各器官的位置归一化;最后是对归一化的人脸图像进行特征提取(提取局部特征已逐渐成为主流),建立特征描述子,将图像之间的特征进行匹配进而完成识别. 人脸检测与定位 特征提取与识别 标准人脸图像 识别结果 输入图像 图像预处理 准图像 2概述 人脸识别方法大致分为以下几种:基于几何特征、基于代数特征[2]、基于神经网络模型以及基于三维模型。 (1)基于几何特征 基于几何特征的人脸识别方法是在抽取人脸图像上显著特征的相对位置及其参数的基础上进行识别。最早的人脸识别是用手工的方法确定人脸特征点的位置并将其输入计算机中。识别工作的流程大体如下:首先检测出面部特征点,通过测量这些关键点之间的相对距离(欧式距离、马氏距离等),得到描述每个脸的特征矢量,比如眼睛、鼻子和嘴的位置和宽度,眉毛的厚度和弯曲程度等,以及这些特征之间的关系,用这些特征来表示人脸.比较未知脸和库中已知脸中的这些特征矢量,来决定最佳匹配[3]。基于小模板匹配的方法属于几何特征识别,是已知一个小模板,在人脸的大图像中进行匹配,如果匹配成功,就可以确定其坐标位置[4]。 基于几何特征的缺点显而易见,对获得的图像要求很高,特征点的定位非常重要,通常人脸特征点的定位会存在误差,这种方法对正面人脸可以取得一定识别效果,如果人脸姿态存在一定的偏转或有遮挡都会很大程度上影响识别的准确性. (2)基于代数特征 基于代数特征的人脸识别方法具有代表性的是PCA(主元分析法)[5]、K-L(卡胡南-列夫)[6]变换和SVD(奇异值分解)[7]等方法。其主要思想:对于一副由N个象素组成的图像,可以看作是一个N维矢量空间,采用不同的变换方法,能够有效的提取主分量,通过对人脸样本集的自相关矩阵的特征矢量的选取,构成一个正交的低维人脸空间,从而达到降低冗余、提高识别率的目的。 利用主元分析法(Principle Component Analysis简称PCA)进行识别是由Anderson和Kohonen提出的。PCA方法最早由Sirovitch和Kirb[8,9]引入人脸识别领域,并因为它的有效很快流行起来.简单地说,它的原理就是将一高维的向量,通过一个特殊的特征向量矩阵,投影到一个低维的向量空间中,表征为一个低维向量,并不会损失任何有用信息。也就是说,通过低维表征的向量和这个特征向量矩阵,可以完全重构出所对应的原来的高维向量。 K—L变换与SVD分解的思想同PCA都差不多,降维到低维向量空间后要运算的分量大大地减少了。 采用代数特征识别人脸具有以下的特征:良好的稳定性;位移不变性;特征向量与图像的高度成比例变化;转置不变性等。但是代数特征对表情不能很好地描述,难以用于表情分析和表情识别. (3)基于神经网络模型 神经网络由许多并行运算的功能简单的单元组成,是一个非线性动力学系统,其特色在于信息的分布式存储的并行协同处理,具有良好的容错能力.神经网络主要的应用是对已经提取主特征的特征值进行分类。比较成熟的是PCA+ANN(主元分析+人工神经网络),用K—L+ANN(K—L变换+人工神经网络)[10]、SVD+ANN(奇异值分解+人工神经网络),也有直接用NN+NN(神经网络+神经网络)进行人脸识别的,不过这样所要计算的分量太大了,训练与工作的时间要长很多. 输入层 输出层 隐层 低维分量作为输入向量 BP神经网络 有代表性的神经网络模型有:BP网络、RBF网络、Hopfield模型等。如图所示的是PCA+BP神经网络的例子,其中输入层结点的个数与主元分析后低维向量的个数相等输入到BP神经网络的输入层结点中,隐层结点的个数在构造BP网络时就已经定义好了,输出层结点的个数与样本的数量有关,要能达到分类的目的。 基于神经网络的方法,结构上类似于人脑,但由于原始灰度图像数据量十分庞大,神经元数目通常很多,训练时间很长,而基于冯诺伊曼结构也受到了限制。 (4)基于三维模型 三维人脸识别[11]最初是从几何方法发展来的,出发点是希望利用三维的人脸识别处理技术,解决传统二维照片识别中因为人脸的姿态、光照等对识别造成的干扰问题,在三维的基础上进行特征的提取和识别将有更为丰富灵活详尽的信息可以利用。三维数据获取已经成为可能(如三维激光扫描技术、CT成像技术、结构光方法等),使得图形技术得到了应用的可能,可以完成人头三维面貌数据获取。 在合成特定人的头部模型时,需要一个基本头部模型,该模型是一个通用的模型,特定人的模型都可以通过对该模型的修改得到。人类面部特征的位置、分布基本上是一样的,因而特定人脸的模型可以通过对一个原始模型中的特征和其它一些网络点位置进行自动或交互调整而得到。系统的内部有一个原始的人头模型,以后所有特定模型的建立都是基于这个原始模型。 基于三维模型的识别方法是未来的对人进行识别的方向,因为在三维模型中,可以对人的头部从任意角度获得信息,具有良好的抗干扰能力,该方法的重点和难点是如何建立人脸三维模型以及如何在模型之间实现匹配。基于三维的人脸识别还需要做很多的工作,目前还没有什么实质性的研究应用成果。 由文献[12]看出早期的图像目标识别技术采用基于模型的方法,这种方法需要以目标的三维模型作为系统的输入,由于图像中通常存在遮挡、背景干扰以及光照等成像条件变化,建立目标的三维模型往往比较困难,因此基于模型的方法通常在图像背景较简单的情况下可以取得较好的效果。 文献[13—26]看出人们逐渐将研究的重点转向了基于目标表象的识别方法。 其中文献[13][14][15] 是基于全局特征的方法,根据图像整体的信息建立模型,因此这类方法对于图像中的背景干扰和遮挡比较敏感,当待识别图像中背景干扰和遮挡影响较小,或者待识别目标可以较好地从待识别图像中分割出来时,这类方法可以取得理想的识别效果。 文献[16-26]是基于局部特征的方法. 其中[17][18][22][23][24][25][26]是基于局部不变特征的方法,此方法利用从图像中提取的局部不变特征来对图像目标建模,可以有效克服背景杂波以及遮挡等的影响,综合近年文献资料及VOC(Visual Object Class Challenge)竞赛报告不难看出,基于外观表象的局部不变特征方法已经取代全局特征方法成为了主流方法。 文献[27][28][29][30][31]介绍了在图像局部不变特征提取的基础上,基于词汇包(Bow)的图像表征和目标建模方法是目前的典型方法。 文献[32]利用奇异值提取人脸的全局特征和6个关键部分的局部特征进行加权融合得出特征融合矩阵有效解决了SVD识别率不高和LDA小样本空间问题。 文献[33,34]采用的人脸识别方法都是以提取SIFT(Scale Invariant Feature Transform)特征为基础。其中文献[33] 基于SIFT算子识别方法,结合K-means聚类的模式匹配策略,采用局部相似性和全局相似性的计算方法对人脸图像进行相似度匹配,并在匹配过程中使用基于概率统计的权值赋予方案和相似度的平方来提高识别的准确性.文献[34] 提出一种基于尺度不变特征变换(SIFT)和增强 Hough 变换的人脸识别方法。利用 SIFT 的位置、尺度、方向和描述符 4 个信息,通过增强 Hough 变换消除错配,将候选匹配点和离散点距离进行加权累计获得高辨别力的匹配分. 文献[35]中介绍了在随着目标数目及特征样本数量的增加,关键特征词类属概率倾向性逐渐减弱的情况下,采用基于SOM神经网络的聚类树方法对近500类目标5万多幅图片提取的2百多万个SIFT特征描述子进行聚类,得到了25300多个特征词汇。 文献[35] 提出了一种基于 RSOM ( recursive sel-f organizing mapping, RSOM )树、利用 SIFT ( scale invariant feature trans-form )特征为索引的海量图像集中 K 近邻的求解方案 。对图像编号并提取 SIFT 特征, 依据 SIFT 特征将图像的编号存储至 RSOM 树的叶节点中; 搜索时用匹配的 SIFT特征个数作为指标获得 K 近邻图像的候选集, 用迭代 Pro—crustes方法几何约束得到精确求解结果。 文献[37]介绍了属性图理论,他为将一幅图像的局部特征及其空间布局关系作为一个整体这种结构化数据的表示和分析提供了理论基础。 由于现有的大部分人脸数据库都是静止图像人脸数据库, 如何充分利用视频中的人脸信息更好地进行人脸识别是现阶段迫切需要解决的问题。解决这类问题的传统做法[38—40]可以分成两大类: 一类方法对输入视频中的人脸进行跟踪, 寻找满足一定规则(如大小、姿态、清晰度等)的人脸图像, 然后利用基于静止图像的人脸识别方法;另一类方法利用视频中的空间信息进行人脸识别, 通过对输入视频中每一幅人脸或者若干幅人脸采用基于静止图像的人脸识别方法[41—43]。 近年来, 一些研究者开始利用视频中人脸的时间和空间连续信息进行识别。文献[44]讨论了在贝叶斯理论的框架下统一解决人脸识别和跟踪问题。 采用时间序列模型刻画人脸的动态变化, 把身份变量和运动矢量作为状态变量从而引进时间和空间的信息。 文献[45]进一步提出了自适应外观变化模型并且采用自适应运动模型更准确地处理姿态的变化。并且对运动模型中噪声的方差和采样算法中的粒子数根据计算得到外观模型的误差进行更新。 文献[46][47]通过对输入视频中人脸的脸部特征或外观的跟踪进行人脸验证。 文献[48]对数据库中的每类人脸建立一个PCA子空间, 利用与各个人脸子空间的距离对输入视频中的所有人脸进行标注。 文献[49,50]提出的特征脸(Eigenfaces)方法是PCA方法中最具代表性的方法,并成为应用于人脸识别问题的最流行的算法之一.特征脸方法与经典的模板匹配算法一起成为测试人脸识别系统性能的基准算法。 文献[51]提出了Fisherfaces方法.Fisherfaces由Fisher线性判别式(Fisher's lineardiscriminant, FLD)思想派生而来,同时考虑类间离散度和类内离散度,使这两者的比率达到最大。Belhumeur的实验证明,Fisherfaces的性能优于Eigen-faces。但即便如此, Fisherfaces还是存在两个明显的问题,即小样本问题(样本数目小于样本维数),以及多数实际问题属于非线性可分,传统的Fisher线性分析在这些问题上不能取得良好的结果。因此,一系列Fisherfaces的改进方法被提出。文献[52]提出了KFDA方法,将核技术引入Fisher判别分析中;文献[53]提出了利用核的广义的判别分析法;文献[54]提出了KDDA方法.近期,文献[55]提出了一种改进的核直接Fisher描述分析方法;文献[56]的直接LDA方法也是为了解决这两个问题而提出的;文献[57]基于此法并引入加权函数提出了一种改进的线性判别分析方法。 由于人脸在姿态、光照、表情变化时呈现非线性分布, 文献[58]在线性空间中通过核的方法映射到高维的非线性空间(核Hilbert空间), 在高维空间中的夹角(核主成分夹角)作为矩阵的相似性度量, 并且利用正定的核函数就可以和SVM(support vector machine)结合起来提高分类的性能. 文献[59, 60]首先通过LDA进行线性降维, 然后对每个人的人脸视频通过矢量量化技术或者K均值聚类形成K个类别, 每个类别用聚类中心和聚类的权重来表示,最后采用EMD(earth mover’s distance)距离作为相似性度量进行人脸识别。 文献[61]介绍了一种基于视频的人脸验证方法, 采用形状和归一化纹理的联合外观模型(Active Appearance Model, AAM)来表示人脸, 通过加入类别信息的改进线性鉴别分析(Linear Discriminant Analysis, LDA)分离出身份变量(identity)和其他变化因素(姿态、光照和表情)。 文献[62]采用基于核函数方法把低维空间映射到高维空间, 这样就可以在高维空间中利用低维空间中的线性方法(如PCA)来解决一般的复杂的非线性问题, 采用RAD(resistor-average distance)作为人脸相似性度量。为了解决配准误差所带来的识别率下降的问题, 利用了多幅图像和RANSAC(random sample consensus)算法来解决. 另外文献[63]利用了核的方法, 把原来的矢量空间映射到高维非线性空间中RKHS(reproducing kernel Hilbert space)中计算概率分布之间的距离。 3 总结 本文简单介绍了人脸识别的发展历程、应用背景和意义、人脸识别的定义以及人脸识别的主要组成模块,对人脸识别的四大主流方法进行了概述并指出了各方法的优点和缺点,对人脸识别技术发展过程中各专家或学者提出的人脸识别或目标识别处理方法做了总结。 近年来人脸识别成为了最热研究课题之一,各国科技巨头和IT巨头对人脸识别,机器视觉领域的涉入更是推动了人脸识别技术的迅速发展,近几年不少人脸识别产品和系统进入了市场,比较有代表性的有Google Face++, Luxand,汉王人脸识别考勤系统等等。人脸识别技术虽然走向了应用并取得不错的成果,但是限制其应用主要难题依然存在:人脸姿态、光照变化和表情变化对人脸识别效果会产生很大的影响。 人脸识别技术需要攻克的问题有: 复杂背景和大姿态变化下的人脸目标检测。当前人脸检测算法适应于小范围的姿态变化和简单的背景,成像背景变得复杂时虚警率会变得很高,同时当姿态变化稍大时,人脸漏检率也会提升,这对后续的识别会造成一定的影响。 动态人脸识别。现有的人脸识别技术适合于静态人脸识别,无法满足安防监控视频中人脸动态跟踪和识别的需求,主要体现在两方面:一方面是处理速度跟不上,另一方面是动态过程中识别率低。所以动态人脸识别技术研究具有很好的应用价值和前景。 多种特征融合。从本文的概述中可知每一种人脸识别方法都有一定的缺陷性,基于单一特征(几何特征、局部特征等)的人脸识别方法显然无法很好的满足人脸识别技术的应用需求。将不同的人脸识别技术和特征有效地融合是未来人脸识别发展的方向之一。 三维人脸识别研究。人脸识别技术发展至今,许多成果仍然是在二维人脸信息基础上取得的,而现实世界中的人脸是三维的,三维信息特别是三维图像较二维图像更能提供完整而真实的内容,如何有效地利用人脸的三维信息进行识别,将是一个具有挑战性的研究课题。 4 参考文献 [1] 王昆翔,李衍达,周杰.关于人脸图象自动识别研究中的几个问题.公安大学学报,2001(1)。 [2] 周激流,张晔。人脸识别理论研究进展。计算机辅助设计与图形学学报 1999(3). [3] 王伟 , 马建光. 人脸识别常用方法及其发展现状[J] . 自动检测技术 , 2002 (1) . [4] 章高清, 王申康. 人脸的层次化描述模型及识别研究[J] . 计算机研究与发展, 1999 (12) . [5] 杨奕若 , 王煦法. 利用主元分析与神经网络进行人脸识别[J] . 电子技术应用, 1998 (3) . [6] 高秀梅, 李淑琴 , 杨静宇. 一种广义的 K —L变换与人脸识别[J] . 青岛化工学院学报 , 2003 (6) . [7] 周德龙, 高文, 赵德斌. 基于奇异值分解和判别式 K-L 投影的人脸识别[J] . 软件学报 , 2003 (14) . [8] SIROVITCH L, KIRBYM. Low-dimensionalprocedure for the characterization of human face[ J].Journal of the Optical Society of America, 1987,4(3): 519-524. [9] KIRBYM, SIROVITCH L。 Application ofKarhunen—Loeve procedure for the characterization ofhuman faces[J].IEEE Trans on Pattern Analysis and Machine Intelligence, 1990,12(1): 103—108. [10] 金忠 , 胡钟山, 杨静字. 基于 B P 神经网络的人脸识别方法[J] . 计算机研究与发展, 1999 (3) . [11] 张九龙, 胡正国. 基于照片的人脸三维建模[J] . 西北大学学报(自然科学版) , 2001(10) . [12] Bebis G, Georgiopoulos M and Lobo N V。 learning Geometric Hashing Functions for Model—based Object Recognition [C]。 International Conference on Computer Vision, 1995:543-548. [13] Cyr C and Kimia B. 3D Object Recognition Using Similarity—based Aspect Graph [C]. International Conference on Computer Vision, 2001:254-261. [14] Murase H and Nayar S. Visual Learning and Recognition of 3D Objects from Appearance [J]. International Joural of Computer Vision, 1995, 14(1)。 [15] Swain M J and Ballard B H。 Color Indexing [J]。 International Joural of Computer Vision, 1991, 7(1):11-32。 [16] Selinger A and Nelson R C. A Perceptual Grouping Hierarchy for Appearance-based 3d Object Recognition [J]. Computer Vision and Image Understanding, 1999, 76(1):83-92. [17] Lowe D。 Distinctive Image Features from Scale-invariant Keypoints [J]。 International Joural of Computer Vision, 2004, 60(2):91—110。 [18] Mikolajczyk K and Schmid C. An Affine Invariant Interest Point Detector [C]。 European Conference on Computer Vision, 2002:128—142. [19] Obrdzalek S and Matas J. Object Recognition Using Local Affine Frames on Distinguished Regions [C]. BMVC, 2002:414-431。 [20] Rothganger F Lazebnik S Schmid C and Ponce J。 3D Object Modeling and Recognition Using Local Affine—invariant Image descriptors and Multi-view Spatial Constraints [J]。 International Joural of Computer Vision, 2006, 66(3):231—259. [21] Tuyelaars T and Van-Gool L。 Wide Baseline Stereo Based on Local, Affinely Invariant Regions [C]。 BMVC, 2000. [22] Mikolajczyk K and Schmid C. Indexing Based on Scale—invariant Interest Points [C]. International Conference on Computer Vision, 2001, 1:525-531. [23] Baumberg A. Reliable Feature Matching Across Widely Separated Views [C]. International Conference on Computer Vision, 2000:774—781。 [24] Matas J, Chum O, Urban M and Pajdla T. Robust Wide Baseline Stereo from Maximally Stable Extremal Regions. BMVC, 2002:384—393. [25] Schaffalitzky F and Zisserman A。 Automated Scene Maching in Movies [C]。 In Workshop on Content—Based Image and Video Retrieval, 2002:186—197. [26] Tuytelaars T, Van—Gool L and Koch R. Matching Affinely Invatiant Regions for Visual Servoing [C]。 In Intl。 Conference on Robotics and Automation, 1999:1601—1606. [27] Li F F and Perona P. A Bayesian Hierarchical model for Learning Natural Scene Categories [C]. International Conference on Computer Vision and Pattern Recognition, 2005, 2(2):524—531。 [28] Sivic J, Russell B C, Efros A A, Zisserman A and Freeman W T。 Discovering Objects and Their Location in Images [C]。 International Conference on Computer Vision, 2005, 1(1):872-877。 [29] Torralba A, Fergus R and Weiss Y. Small Codes and Large Image Databases for Recognition [C]. International Conference on Computer Vision, 2008. [30] Eric Nowak etc。 al. Sampling Strategies for Bag-of—Features Image Classification [C]. European Conference on Computer Vision, 2006, 3954:490-503. [31] Philbin J, Sivic J and Zisserman A。 Geometric Latent Dirichlet Allocation (gLDA) Model for Unsupervised Particular Object Discovery in Unordered Image Collections [C]。 BMVC, 2008. [32] 王宏勇,廖海斌,段新华,丁汨。 基于奇异值与特征融合矩阵的自适应人脸识别[J]。 计算机工程与应用,2010,46(7):162—174。 [33] 罗佳,石跃祥,段德友。 基于SIFT特征的人脸识别方法.计算机工程,2010,36(13) 1000-3428(2010)13-0173—02. [34] 叶汉能,姚茂群,赵武锋等. 基于 SIFT 和 和和 和 Hough 变换的人脸识别。 计算机工程,2012,38(14)1000—3428(2012)14—0144-03. [35] 夏胜平,刘建军,袁振涛,虞华,张乐锋,郁文贤。 基于集群的并行分布式RSOM聚类 [J]. 电子学报,2007,35(3):385-391. [36] 郑君君, 夏胜平, 李新光等,基于RSOM数的图像K近邻求解算法. 山东大学学报(工学版) 第41卷第2期1672-3961(2011)02-0080—05。 [37] Chung F. Spectral Graph Theory [C]. CBMS Regional Conference Series in Mathematics, Conference Board of the American Mathematical Science, Washington, DC。 1997, 92. [38] Wechsler H, Kakkad V, Huang J, Gutta S, Chen V. Automatic Video Based Person Authentication Using the RBF Network//Proceedings of the International Conference on Audio- and Video—Based Person Authentication. Crans—Montana, 1997: 85-92。 [39] Steffens J, Elagin E, Neven H. PersonSpotter: fast and robust system for human detection, tracking and recognition//Proceedings of the 3rd IEEE International Conference on Automatic Face and Gesture Recognition。 Nara, 1998: 516—521. [40] Mckenna S J, Gong S. Non-intrusive person authentication for access control by visual tracking and face recognition//Proceedings of the International Conference on Audio— and Video—Based Person Authentication. Crans— -Montana, 1997: 177—183。 [41] Chellappa R, Wilson C, Sirohey S. Human and machine recognition of faces: A survey。 Proceedings of the IEEE, 1995, 83(5): 705—740。 [42] Zhao W, Chellappa R, Rosenfeld A, Phillips P J. Face recognition: A literature survey. ACM Computation Survey, 2003, 35(4): 399-458。 [43] Li S Z, Jain A K. Handbook of Face Recognition, Springer, New York, 2005. [44] Zhou S, Krueger V, Chellappa R. Probabilistic recognition of human faces from video。 Computer Vision and Image Understanding, 2003, 91(1): 214—245. [45] Zhou S, Chellappa R, Moghaddam B。 Visual tracking and recognition using appearance—adaptive models in particle filters。 IEEE Transactions on Image Processing, 2004, 13(11): 1434-1456. [46] Li B, Chellappa R。 Face verification through tracking facial features。 Journal of the Optical Society of America A, 2001, 18(12): 2969-2981。 [47] Li B, Chellappa R。 A generic approach to simultaneous tracking and verification in video. IEEE Transactions on Image Processing, 2002, 11(5): 530-554。 [48] Torres L, Vila J. Automatic face recognition for video indexing applications. Pattern Recognition, 2002, 35(3): 615—625. [49] TURKM, PENTLAND A. Eigenfaces for recognition[J]。Journalof Cognitive Neuroscience, 1991,3(1): 71-86. [50] TURKM, PENTLAND A。 Face recognition using eigenfaces[C]。Proc of IEEE Conference on Computer Vision and Pattern Recognition。 1991: 586-590. [51] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfacesvs. Fisherface: rocognition using class specific linear projection[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1997,19(7): 711-720. [52] MIKA S, RATSCH G, WESTON J,etal. Fisherdiscriminantanaly-siswith kernels[C] //Proc of IEEE InternationalWorkshop onNeural Networks forSignalProcessing. 1999: 41—48。 [53] GAUDATG, ANOUAR F。 Generalized discriminate analysis using akernel approach [J].NeuralComputation, 2000,12(10): 2385-2404. [54] LU Ju—we,i PLATANIOTIS K N, VENETSANOPOULOS A N。 Face recognition using kernel direct discriminant analysis algorithms [J]。IEEE Trans on NeuralNetworks, 2003,14(1): 117—126。 [55] 厉小润,赵光宙,赵辽英.改进的核直接Fisher描述分析与人脸识别[J]。浙江大学学报:工学版, 2008,42(4): 583—589。 [56] YU Hua, YANG Jie。 A direct LDA algorithm for high-dimensionaldatawith application to face recognition [J]
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 包罗万象 > 大杂烩

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服