1、单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,本幻灯片资料仅供参考,不能作为科学依据,如有不当之处,请参考专业资料。,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,本幻灯片资料仅供参考,不能作为科学依据,如有不当之处,请参考专业资料。,哈尔滨工业大学,课程总复习,第1页,主要内容,1.,关于期末考试,/,考查,2.,章节知识点整理,第2页,2,1.,关于期末考试,/,考查,第3页,3,1.,确认考试人员名单;,2.,考试,/,考查方式,学位课:考试,70%+,汇报,30%,;,选修课:汇报,100%,(不用考试)。,3.,汇报形式,(,见,word,文档,),4
2、考试题目(,100,分),1,简答题(,35,分),7*5=35,分,2,推导题(,8,分),3,证实题(,8,分),4,问答题(,24,分),3*8=24,分,5,计算题(,25,分),9+8+8=25,分,(,记得要带尺子,铅笔,橡皮擦,),【,关于期末考试,】,第4页,4,2.,章节知识点整理,第5页,5,哈尔滨工业大学,第,1,章 模式识别绪论,第6页,主要内容,模式识别基本概念,模式识别系统组成,模式识别基本问题,应用领域,小结,第7页,模式识别系统组成,第8页,【,模式识别系统组成,】,1.,信息获取:经过测量、采样、量化并用矩阵或向量表示。通常输入对象信息有三个类型:二维图像
3、文字、指纹、地图、照片等)、一维波形(脑电图、心电图、机械震动波形等)、物理参量和逻辑值(体检中温度、血化验结果等),2.,预处理:去除噪声,加强有用信息,并对输入测量仪器或其它原因造成干扰进行处理。,3.,特征提取与选择:为了实现有效识别分类,要对原始数据进行变换得到最能反应分类本质特征,此过程为特征提取和选择。,4.,分类决议:在特征空间中用统计方法把被识别对象归为某一类。基本作法是在样本训练集基础上确定某个判决规则,使按这种判决规则对被识别对象进行分类所造成错误识别率最小或引发损失最小。,5.,后处理:针对决议采取对应行动。,信息,获取,预处理,特征提取与选择,分类,决议,后处理,模式
4、识别系统组成框图,第9页,哈尔滨工业大学,第,2,章 贝叶斯决议理论,第10页,主要内容,概率论基础知识,贝叶斯决议基础知识,基于最小错误率贝叶斯决议,基于最小风险贝叶斯决议,贝叶斯分类器设计,正态分布时统计决议,小结,第11页,贝叶斯决议基础知识,第12页,【,贝叶斯决议基础知识,】,贝叶斯决议理论,先验概率:,后验概率:,类条件概率:,贝叶斯公式:,第13页,基于最小错误率贝叶斯决议,第14页,【,基于最小错误率贝叶斯决议,】,(,4,),第15页,【,基于最小错误率贝叶斯决议,】,第16页,【,基于最小错误率贝叶斯决议,】,第17页,【,基于最小风险贝叶斯决议,】,概念,决议,决议空间,
5、前面所讲错误率抵达最小。在一些实际应用中,最小错误率贝叶斯准则并不适合。以癌细胞识别为例,诊疗中假如把正常细胞判为癌症细胞,当然会给病人精神造成伤害,但伤害有限;相反地,若把癌症细胞误判为正常细胞,将会使早期癌症患者失去治疗最正确时机,造成验证后果。,第18页,【,基于最小风险贝叶斯决议,】,数学描述,第19页,【,基于最小风险贝叶斯决议,】,期望风险:,条件期望损失:,目标:期望风险最小化,第20页,【,基于最小风险贝叶斯决议,】,最小风险贝叶斯决议规则:,第21页,【,基于最小风险贝叶斯决议,】,算法步骤,:,第22页,【,基于最小风险贝叶斯决议,】,例题,2:,第23页,【,基于最小风险
6、贝叶斯决议,】,第24页,【,基于最小错误率贝叶斯决议与最小风险贝叶斯决议关系,】,定理:,0-1,风险,第25页,哈尔滨工业大学,第,3,章 概率密度函数预计,第26页,主要内容,引言,参数预计,正态分布参数预计,非参数预计,本章小结,第27页,参数预计,第28页,【,参数预计,】,最大似然预计,贝叶斯预计,贝叶斯学习,第29页,【,最大似然预计,】,基本假设,第30页,【,最大似然预计,】,基本概念,第31页,【,最大似然预计,】,基本原理,第32页,【,最大似然预计,】,预计量,预计值,第33页,【,最大似然预计,】,一元参数,第34页,【,最大似然预计,】,多元参数,第35页,【,最大
7、似然预计,】,例子(梯度法不适合):,不成功!,第36页,【,贝叶斯预计,】,采取最小风险贝叶斯决议,第37页,【,贝叶斯预计,】,第38页,【,贝叶斯预计,】,第39页,【,贝叶斯学习,】,第40页,【,三种方法总结,】,第41页,【,三种方法总结,】,第42页,哈尔滨工业大学,第,4,章 线性判别函数,第43页,主要内容,线性判别函数基本概念,Fisher,线性判别准则函数,感知准则函数,最小平方误差准则函数,多类问题,第44页,4.1.1,概念提出,【,线性判别函数,】,定义,第45页,4.1.1,概念提出,【,线性判别函数,】,分类决议,第46页,4.1.1,概念提出,【,线性判别函数
8、分析,第47页,4.1.1,概念提出,【,线性判别函数,】,分析,说明:判别函数,g,(,x,),正比于任意一点,x,到超平面代数距离。,第48页,Fisher,线性判别准则函数,第49页,【Fisher,线性判别准则函数,】,概念,应用统计方法处理模式识别问题时,往往碰到维数问题(举例:图像识别),降维是有效方法。考虑到降d维空间样本投影到一条直线上,假如投影到任意一条直线上则可能造成原来有很好区分度样本在直线上线性不可分。所以,直线方向很关键。,第50页,【Fisher,线性判别准则函数,】,基本思绪,Fisher判别基本思想:希望投影后一维数据满足:,两类之间距离尽可能远;,每一类
9、本身尽可能紧凑。,第51页,【Fisher,线性判别准则函数,】,第52页,【Fisher,线性判别准则函数,】,第53页,【Fisher,线性判别准则函数,】,第54页,【Fisher,线性判别准则函数,】,第55页,哈尔滨工业大学,第,5,章 非线性判别函数,第56页,主要内容,基本概念,基于距离分段线性判别函数,分段线性分类器设计,二次判别函数,程序设计方法,实际应用系统设计研究汇报,第57页,哈尔滨工业大学,第,6,章 特征选择与提取,第58页,主要内容,1.,引言,2,类别可分离性判据,3,特征选择,4.,特征提取,第59页,哈尔滨工业大学,第,7,章 近邻法,第60页,60,主要内
10、容,0.,引言,1.,近邻法原理及其决议规则,2.,快速搜索近邻法,3.,剪辑近邻法,4.,压缩近邻法,第61页,61,1.,近邻法原理及其决议规则,第62页,62,【,基本原理,】,最小距离分类器是将各类训练样本划分成若干子类,并在每个子类中确定代表点,普通用子类质心或邻近质心某一样本为代表点。测试样本类别则以其与这些代表点距离最近作决议。该法缺点是所选择代表点并不一定能很好地代表各类,后果将使错误率增加。,近邻法基本思想:,增加代表点数量有没有可能取得性能好分类器呢,?,一个极端情况是以全部训练样本作为“代表点”,计算测试样本与这些“代表点”,即全部样本距离,并以最近邻者类别作为决议。此为
11、近邻法基本思想。,第63页,63,【,最近邻法决议规则,】,若,则,其中 表示是 类第,个样本。决议规则为,:,定义:将与测试样本最近邻样本类别作为决议方法。,对一个,类别问题,每类有 个样本,则第,类 判别函数,第64页,64,最近邻法能够扩展成找测试样本 个最近样本作决议依据方法。其基本规则是,在全部 个样本中找到与测试样本,个最近邻者;,其中各类别所占个数表示成,则决议为:,【,-,近邻法决议规则,】,注意:,近邻普通采取 为奇数,跟投票表决一样,防止因两种票数相等而难以决议。,若,则,第65页,65,【,问题提出,】,上述讨论中能够看出,尽管近邻法有其优良品质,不过它一个严重弱点与问题
12、是需要存放全部训练样本,以及繁重距离计算量。但以简单方式降低样本数量,只能使其性能降低,这也是不希望。为此要研究既能降低近邻法计算量与存放量,同时又不显著降低其性能一些改进算法。,改进算法大致基于两种原理,。一个是对样本集进行组织与整理,分群分层,尽可能将计算压缩到在靠近测试样本邻域小范围内,防止与训练样本集中每个样本进行距离计算。,另一个原理则是在原有样本集中挑选出对分类计算有效样本,使样本总数合理地降低,以同时到达既降低计算量,又降低存放量双重效果。,第66页,66,2.,快速搜索近邻法,第67页,67,3.,剪辑近邻法,第68页,68,4.,压缩近邻法,第69页,69,哈尔滨工业大学,第
13、8,章 主成份分析,(PCA),第70页,70,主要内容,1.,引言,2,主成份分析,(PCA),3,基于,K-L,展开式特征提取,4.,应用举例,第71页,71,2.,主成份分析,第72页,72,依据方差最大化原理,用一组新、线性无关且相互正交向量来表征原来数据矩阵行(或列)。这组新向量(主成份)是原始数据向量线性组合。,经过对原始数据,平移、尺度伸缩,(,减均值除方差,),和,坐标旋转,(,特征分解,),,得到,新坐标系,(,特征向量,),后,用原始数据在新坐标系下,投影,(,点积,),来替换原始变量。,一,.,主成份分析基本原理,第73页,73,主成份分析优点,它能找到表现原始数据阵最
14、主要变量组合,经过表示最大方差,能有效地直观反应样本之间关系,能从最大几个主成份得分来近似反应原始数据阵信息,第74页,74,图像预处理,【,人脸识别,】,第75页,75,【,人脸识别,】,第76页,76,【,人脸识别,】,第77页,77,【,人脸识别,】,第78页,78,基于,PCA,构建特征脸空间是对图像进行,K-L,变换,以去除样本间相关性,然后依据特征值大小选择特征向量。,这种方法首先将人脸图像映射为高维空间向量,然后应用基于统计离散,K-L,变换方法,结构一个各分量互不相关特征空间,即特征脸空间,再将人脸图像在高维空间中向量映射到特征脸空间,得到特征系数。,PCA,构建特征脸空间,第
15、79页,79,哈尔滨工业大学,第,9,章 人工神经网络,第80页,主要内容,1.,基础知识,2.,前馈神经网络,3.,反馈神经网络,4.,自组织映射神经网络,第81页,神经网络学习方法,神经网络学习,:从环境中获取知识并改进本身性能,主要指调整网络参数使网络到达某种度量,又称为,网络训练,。,学习方式,:,监督学习,非监督学习,再励学习,学习规则,:,误差纠正学习算法,竞争学习算法,第82页,4.,自组织映射,自组织映射,Self-Organizing Map,亦称,SOFM,。,Kohonen,提出(,1980s,),第83页,SOM,用于非监督模式识别,自组织学习过程本身就是一个非监督学习
16、过程,SOMA(,自组织分析,),基本思绪:,用未知样本集训练,SOM;,计算象密度图,;,依据象密度图划分聚类,(,把结点代表小聚类合并,),。,特点:对数据分布形状少依赖性;可反应真实存在聚类数目,尤其适合人机合作分析,(,高维数据有效二维显示,),数学上待研究问题多:,象密度与样本分布密度之间关系?,拓扑保持特征?,怎样在,SOM,平面上聚类?,第84页,哈尔滨工业大学,第,10,章 无监督学习,第85页,主要内容,1.,引言,2.,单峰子集(类)分离方法,3.,类别分离间接方法,4.,分级聚类方法,第86页,监督模式识别:,(已知)样本集 训练(学习)识别(分类),非监督模式识别:,(
17、未知)样本集 非监督学习(聚类分析)后处理,【,引言,】,经过寻找可能存在分类来了解某一对象,将复杂多样对象用有限经典来代表,依据:某种假设(对聚类应含有性质认识),结果:聚类(,clusters,),属中间结果(数学结果),需经解释赋予物理含义(后处理),应用:,复杂系统未知特征分析(举例),航天、航空、航海(详细阐述),直接方法,:,基于概率密度函数预计,相间接聚类方法,:,基于样本间似性度量,第87页,【,动态聚类,】,屡次迭代,逐步调整类别划分,最终使某准则到达最优。,三个关键点:,选某种距离作为样本相同性度量,定义某个准则函数,用于评价聚类质量。,初始分类方法及迭代算法,C-,均值聚
18、类,ISODATA,聚类,惯用算法:,第88页,【,动态聚类,】,C,均值算法,第89页,【,动态聚类,】,C,均值算法,第90页,【,动态聚类,】,C,均值算法,初始划分:普通可先选代表点,再进行初始分类。,代表点选择方法:,1.,经验选择,2.,随机分成,c,类,选各类重心作为代表点,3.,“,密度,”,法。,计算每个样本一定球形邻域内样本数作为,“,密度,”,,选,“,密度,”,最大样本点作为第一个代表点,在离它一定距离选最大,“,密度,”,点作为第二个代表点,,,依次类推。,4.,用前,c,个样本点作为代表点。,5.,用,c,1,聚类求,c,个代表点:各类中心外加离它们最远样本点,从,
19、1,类开始。,第91页,【,动态聚类,】,C,均值算法,初始分类方法:,1.,最近距离法。离哪个代表点近就归入哪一类。,2.,最近距离法归类,但每次都重新计算该类代表点。,3.,直接划分初始分类:每一个样本自成一类,第二个样本若离它小于某距离阈值则归入这类,不然建新类,,4.,将特征归一化,用样本各特征之和作为初始分类依据。,说明:,初始划分无一定之规,多为启发式方法。,C,均值方法结果受初值影响,是局部最优解。,第92页,【,动态聚类,】,C,均值聚类方法用于非监督模式识别问题:,要求类别数已知;,是最小方差划分,并不一定能反应内在分布;,与初始划分相关,不确保全局最优。,C,均值算法,第9
20、3页,4.,分级聚类方法,(Hierachical Clustering),第94页,【,分级聚类方法,】,思想:从各类只有一个样本点开始,逐层合并,每级只合并两类,直到最终全部样本都归到一类。,Hierarchical tree-dendrogram,聚类过程中逐层考查类间相同度,依此决定类别数,第95页,树枝长度:反应结点,/,树枝之间相同度或距离,树枝位置:在不改变树结构情况下能够任意调整,调整方法需研究,距离,/,相同性度量:各种选择,如欧式距离、相关、,City Block,、,【,分级聚类方法,】,第96页,距离(相同性度量):,样本之间度量,聚类之间度量,算法(从底向上):,(,
21、1,)初始化,每个样本形成一类,(,2,)把相同性最大(距离最小)两类合并,(,3,)重复(,2,),直到全部样本合并为两类。,【,分级聚类方法,】,第97页,【,分级聚类方法,】,第98页,哈尔滨工业大学,第,11,章 含糊模式识别,第99页,主要内容,1.,引言,2.,含糊集基本知识,3.,含糊特征和含糊分类,4.,特征含糊评价,5.,含糊聚类方法,6.,含糊,k,近邻分类器,第100页,【,含糊,C,均值方法(,FCM,),】,C,均值算法,第101页,【,含糊,C,均值,】,第102页,【,含糊,C,均值,】,第103页,【,含糊,C,均值,】,含糊,C,均值算法:,第104页,【,改
22、进含糊,C,均值算法,】,含糊,C,均值算法一个缺点:,第105页,【,改进含糊,C,均值算法,】,第106页,【,改进含糊,C,均值算法,】,特点,AFC,有更加好鲁棒,且对给定聚类数目不十分敏感。但有时可能会出现一个类中只包含一个样本情况,可经过在距离计算中引入非线性,使之不会小于革值来改进。,AFC,、,FCM,与,C,均值一样,依赖于初值。,试验效果举例,例一:类别重迭及类别不显著情况,+,:,C,圴值,:,FCM,O,:,AFC,第107页,【,改进含糊,C,均值算法,】,正确聚类,(C=4),CM,聚类,(C=3),FCM,聚类,(C=3),AFC,聚类,(C=3),例二:给定类别
23、数与实际类别数不一致情况,第108页,改进含糊,C,均值算法,改进含糊,C,均值算法较前面提到含糊,C,均值算法含有更加好,鲁棒性,,它不但能够在有孤立样本存在情况下得到很好聚类效果,而且能够放松隶属度条件,而且因为放松了隶属度条件,使最终聚类结果对,预先确定聚类数目不十分敏感,。,与确定性,C,均值算法和含糊,C,均值算法一样,改进含糊,C,均值算法依然对聚类中心,初值十分敏感,,为了得到很好结果,能够用确定性,C,均值算法或含糊,C,均值算法结果作为初值。,【,改进含糊,C,均值算法,】,第109页,109,哈尔滨工业大学,第,12,章 统计学习理论,第110页,主要内容,1.,统计学习理
24、论,2.,支持向量机,3.,核方法,第111页,2.,支持向量机,第112页,依据统计学习理论,学习机器实际风险由经验风险值和置信范围值两部分组成。而基于经验风险最小化准则学习方法只强调了训练样本经验风险最小误差,没有最小化置信范围值,所以其推广能力较差。,【,基本概念,】,Vapnik,与,1995,年提出支持向量机(,Support Vector Machine,SVM,)以训练误差作为优化问题约束条件,以置信范围值最小化作为优化目标,即,SVM,是一个基于结构风险最小化准则学习方法,其推广能力显著优于一些传统学习方法。,第113页,【,基本概念,】,因为,SVM,求解最终转化成二次规划问
25、题求解,所以,SVM,解是全局唯一最优解,SVM,在处理,小样本、非线性及高维,模式识别问题中表现出许多特有优势,并能够推广应用到函数拟合等其它机器学习问题中,Joachims,最近采取,SVM,在,Reuters-21578,来进行文本分类,并声称它比当前发表其它方法都好,第114页,【,基本概念,】,因为,SVM,求解最终转化成二次规划问题求解,所以,SVM,解是全局唯一最优解,SVM,在处理小样本、非线性及高维模式识别问题中表现出许多特有优势,并能够推广应用到函数拟合等其它机器学习问题中,Joachims,最近采取,SVM,在,Reuters-21578,来进行文本分类,并声称它比当前发
26、表其它方法都好,第115页,特点:,非线性映射是,SVM,方法理论基础,SVM,利用内积核函数代替向高维空间非线性映射,;,对特征空间划分最优超平面是,SVM,目标,最大化分类边际思想是,SVM,方法关键,;,支持向量是,SVM,训练结果,在,SVM,分类决议中起决定作用是支持向量。,SVM,是一个有坚实理论基础新奇小样本学习方法。它基本上不包括概率测度及大数定律等,所以不一样于现有统计方法。从本质上看,它避开了从归纳到演绎传统过程,实现了高效从训练样本到预报样本“转导推理”,(transductive inference),大大简化了通常分类和回归等问题。,【,基本概念,】,第116页,特点
27、SVM,最终决议函数只由少数支持向量所确定,计算复杂性取决于支持向量数目,而不是样本空间维数,这在某种意义上防止了,“,维数灾难,”,。,少数支持向量决定了最终止果,这不但能够帮助我们抓住关键样本、,“,剔除,”,大量冗余样本,而且注定了该方法不但算法简单,而且含有很好,“,鲁棒,”,性。这种,“,鲁棒,”,性主要表达在,:,增、删非支持向量样本对模型没有影响,;,支持向量样本集含有一定鲁棒性,;,有些成功应用中,SVM,方法对核选取不敏感。,【,基本概念,】,第117页,【SVM,示意图,】,支持向量网络,第118页,118,3.,核方法,第119页,2,、核方法处理非线性映射问题,【,基本概念,】,第120页,3,、核函数表示非线性映射例子,【,基本概念,】,第121页,4,、怎样使用核函数?,图,3.1,核学习非线性特征提取示意图,【,基本概念,】,第122页,祝各位同学,学业有成,第123页,123,
©2010-2025 宁波自信网络信息技术有限公司 版权所有
客服电话:4009-655-100 投诉/维权电话:18658249818