收藏 分销(赏)

第三章-统计模式识别中的概率分类法PPT课件.ppt

上传人:w****g 文档编号:2302434 上传时间:2024-05-27 格式:PPT 页数:127 大小:2.79MB
下载 相关 举报
第三章-统计模式识别中的概率分类法PPT课件.ppt_第1页
第1页 / 共127页
第三章-统计模式识别中的概率分类法PPT课件.ppt_第2页
第2页 / 共127页
第三章-统计模式识别中的概率分类法PPT课件.ppt_第3页
第3页 / 共127页
第三章-统计模式识别中的概率分类法PPT课件.ppt_第4页
第4页 / 共127页
第三章-统计模式识别中的概率分类法PPT课件.ppt_第5页
第5页 / 共127页
点击查看更多>>
资源描述

1、第三章第三章-统计模式识别中的概率分类法统计模式识别中的概率分类法3.1引言3.2最小错误率判决规则3.3最小风险判决规则3.4最大似然比判决规则3.5Neyman-Pearsen判决规则3.6最小最大判决规则3.7分类器设计3.8正态分布时的统计决策3.9参数估计与非参数估计通过判决函数,特征空间被区分界面划分成两种类型的区域A和B。由于模式样本的观测值是确定性的,经常被正确分配到类型区域A、B之中。假如我们用概率的形式来表达,就是:在类型A的条件下观测模式样本x,则x位于区域A的概率为1,而位于区域B的概率为0。同样,在类型B的条件下观测模式样本x,情况正好相反,x位于区域A的概率为0,而

2、位于区域B的概率为1。这实际上是将概率的方法引入到确定模式,对于大多数实际情况,这是非常理想的概率分布。许多实际情况,即使在类型A的条件下,模式样本x位于区域A的概率也往往小于1,而位于区域B的概率也不为0。对于类型B的条件也一样。这种交错分布的样本使分类发生错误,是模式随机性的一种表现。此时,分类方法就从确定性模式转到随机模式。“如何使分类错误率尽可能小,是研究各种分类方法的中心议题。”Bayes决策理论是随机模式分类方法最重要的基础。下面是几个重要的概念:例例1:为了对癌症进行诊断,对一批人进行:为了对癌症进行诊断,对一批人进行一次普查,各每个人打试验针,观察反应,一次普查,各每个人打试验

3、针,观察反应,然后进行统计,规律如下:然后进行统计,规律如下:这一批人中,每这一批人中,每1000个人中有个人中有5个癌症病人;个癌症病人;这一批人中,每这一批人中,每100个正常人中有一个试验呈阳个正常人中有一个试验呈阳性反应;性反应;这一批人中,每这一批人中,每100个癌症病人中有个癌症病人中有95人试验人试验呈阳性反应。呈阳性反应。问:若某人(甲)呈阳性反应,甲是否正常问:若某人(甲)呈阳性反应,甲是否正常?聂曼皮尔逊判决规则的基本思想是:在一种错误率不变的条件下,使另一种错误率最小。这是具有实际意义的,例如,在细胞的化验中,由于把异常细胞错判为正常细胞的风险较大,可以要求这种错判的错误

4、率不大于某个指定的常数作为前提条件,使正常细胞错判为异常细胞的错误率尽可能小,以此为原则来选择判决门限t,这就是聂曼皮尔逊判决规则的基本思想。v所以此时聂曼皮尔逊分类器的分界线为:v由图可知为保证2足够小,边界应向1一侧靠,则1vT与2的关系表如右:T42120.040.090.160.250.38使最大可能的平均风险为最小但是b0又意味着由于类型区域的划分使平均风险达到曲线极值,如下图所示。此时,为曲线的最大值。即在训练过程中使平均风险达到最大值,恰好在分类判决中使最大可能的平均风险达到最小值,这就是最小最大判决规则的基本思想。3.7 分类器设计分类器设计1.判别函数和决策面判别函数和决策面

5、定义:用于表达决策规则的函数称为判别函数。决策面:将划分决策域的边界面称为决策面。可用数学表达式表达为决策面方程。指x的维数:在一维空间,对应的是点在二维空间,对应的是曲线在三维空间,对应的是曲面在四维空间对应的是超曲面3)分类器设计功能:先设计出c个判别函数,再从中选出对应于判决函数为最大值的类作为决策结果。g1(x)Maxg(x)g2(x)gn(x)3两类情况(1)判决函数决策规则:具体来说,可定义:(2)决策面方程也可以表示为:(3)分类器设计通过计算,根据计算结果的符号将x分类。g(x)阈值单元v3.8 正态分布决策理论正态分布决策理论 一、正态分布判别函数 1、为什么采用正态分布:a

6、、正态分布在物理上是合理的、广泛的。b、正态分布数学上简单,N(,)只有均值和方差两个参数。2、单变量正态分布:3、(多变量)多维正态分布(1)函数形式:(2)、性质:、与对分布起决定作用P()=N(,),由n个分量组成,由n(n+1)/2元素组成。多维正态分布由n+n(n+1)/2个参数组成。、等密度点的轨迹是一个超椭球面。区域中心由决定,区域形状由决定。常记为:。、不相关性等价于独立性。若xi与xj互不相关,则xi与xj一定独立。不相关:独立:、线性变换的正态性Y=AX,A为线性变换矩阵。若X为正态分布,则Y也是正态分布。、线性组合的正态性其中,a与x同维。判别函数:类条件概率密度用正态来

7、表示:决策面方程:二、最小错误率(Bayes)分类器:从最小错误率这个角度来分析Bayes 分类器 1.第一种情况:第一种情况:各个特征统计独立,且同方差情况。(最简单情况)判别函数:v如果M类先验概率相等:最小距离分类器:未知x与i相减,找最近的i把x归类讨论:未知x,把x与各类均值相减,把x归于最近一类。最小距离分类器。2、第二种情况:、第二种情况:i 相等,即各类协方差相等。讨论:针对1,2二类情况,如图:3、第三种情况、第三种情况(一般情况):为任意,各类协方差矩阵不等,二次项xT x与i有关。所以判别函数为二次型函数。w指向的一侧为正,是w1的区域R1,负向的一侧为w2。3.12 参

8、数估计与非参数估计参数估计与非参数估计参数估计与监督学习参数估计理论非参数估计理论3.12.1参数估计与监督学习贝叶斯分类器中只要知道先验概率,条件概率或后验概概率P(i),P(x/i),P(i/x)就可以设计分类器了。现在来研究如何用已知训练样本的信息去估计P(i),P(x/i),P(i/x)一参数估计与非参数估计参数估计:先假定研究的问题具有某种数学模型,如正态分布,二项分布,再用已知类别的学习样本估计里面的参数。非参数估计:不假定数学模型,直接用已知类别的学习样本的先验知识直接估计数学模型。二监督学习与无监督学习监督学习:在已知类别样本指导下的学习和训练,参数估计和非参数估计都属于监督学

9、习。无监督学习:不知道样本类别,只知道样本的某些信息去估计,如:聚类分析。3.12.2参数估计理论一最大似然估计一最大似然估计假定:待估参数是确定的未知量按类别把样本分成M类X1,X2,X3,XM其中第i类的样本共N个Xi=(X1,X2,XN)T并且是独立从总体中抽取的Xi中的样本不包含(ij)的信息,所以可以对每一类样本独立进行处理。第i类的待估参数根据以上四条假定,我们下边就可以只利用第i类学习样本来估计第i类的概率密度,其它类的概率密度由其它类的学习样本来估计。1.一般原则:一般原则:第i类样本的类条件概率密度:P(Xi/i)=P(Xi/ii)=P(Xi/i)原属于i类的学习样本为Xi=

10、(X1,X2,XN,)Ti=1,2,M求求i的最大似然估计就是把的最大似然估计就是把P(Xi/i)看成看成i的函数,求的函数,求出使它最大时的出使它最大时的i值。值。学习样本独立从总体样本集中抽取的N个学习样本出现概率的乘积取对数:对i求导,并令它为0:有时上式是多解的,上图有5个解,只有一个解最大即.P(Xi/i)2.多维正态分布情况已知,未知,估计服从正态分布所以在正态分布时代入上式得所以这说明未知均值的最大似然估计正好是训练样本的算术平均。,均未知A.一维情况:n=1对于每个学习样本只有一个特征的简单情况:(n=1)由上式得即学习样本的算术平均样本方差讨论:1.正态总体均值的最大似然估计

11、即为学习样本的算术平均2.正态总体方差的最大似然估计与样本的方差不同,当N较大的时候,二者的差别不大。B多维情况:n个特征(学生可以自行推出下式)估计值:结论:的估计即为学习样本的算术平均估计的协方差矩阵是矩阵的算术平均(nn阵列,nn个值)二.贝叶斯估计最大似然估计是把待估的参数看作固定的未知量,而贝叶斯估计则是把待估的参数作为具有某种先验分布的随机变量,通过对第i类学习样本Xi的观察,使概率密度分布P(Xi/)转化为后验概率P(/Xi),再求贝叶斯估计。估计步骤:确定的先验分布P(),待估参数为随机变量。用第i类样本xi=(x1,x2,.xN)T求出样本的联合概率密度分布P(xi|),它是

12、的函数。利用贝叶斯公式,求的后验概率下面以正态分布的均值估计为例说明贝叶斯估计的过程 一维正态分布一维正态分布:已知2,估计假设概率密度服从正态分布P(X|)=N(,2),P()=N(0,02)第i类学习样本xi=(x1,x2,.xN)T,i=1,2,M第i类概率密度P(x|i,xi)=P(x|xi)所以后验概率(贝叶斯公式)因为N个样本是独立抽取的,所以上式可以写成其中为比例因子,只与x有关,与无关P(Xk|)=N(,2),P(u)=N(0,02)其中a,a包含了所有与无关的因子P(|xi)是u的二次函数的指数函数P(|xi)仍然是一个正态函数,P(|Xi)=N(N,N2)可以直接写成正态形

13、式:比较以上两个式子,对应的系数应该相等解以上两式得将N,N2代入P(|Xi)可以得到后验概率,再用公式 对的估计为若令P()=N(0,02)=N(0,1),2=1与最大似然估计相似,只是分母不同 三贝叶斯学习1.贝叶斯学习的概念:求出的后验概率之后,直接去推导总体分布即当观察一个样本时,N=1就会有一个的估计值的修正值当观察N=4时,对进行修正,向真正的靠近当观察N=9时,对进行修正,向真正的靠的更近当N,N就反映了观察到N个样本后对的最好推测,而N2反映了这种推测的不确定性,N,N2,N2 随观察样本增加而单调减小,且当N,N20当N,P(|xi)越来越尖峰突起N,P(|xi)函数,这个过

14、程成为贝叶斯学习。2类概率密度的估计在求出u的后验概率P(|xi)后,可以直接利用式推断类条件概率密度。即P(x|xi)P(x|i,xi)一维正态:已知2,未知的后验概率为结论:把第i类的先验概率P(i)与第i类概率密度P(x|xi)相乘可以得到第i类的后验概率P(i/x),根据后验概率可以分类。对于正态分布P(x|xi),用样本估计出来的N代替原来的用代替原来的方差即可。把估计值N作为的实际值,那么使方差由原来的变为,使方差增大多维正态(已知,估计)设P(x|)=N(,)P()=N(0,0).根据Bayes公式,仿上面步骤可以得到:N,N有以下关系其中a与无关这就是在多维情况下,对的估计3.

15、12.3非参数估计参数估计要求密度函数的形式已知,但这种假定有时并不成立,常见的一些函数形式很难拟合实际的概率密度,经典的密度函数都是单峰的,而在许多实际情况中却是多峰的,因此用非参数估计。非参数估计:直接用已知类别样本去估计总体密度分布,方法有:用样本直接去估计类概率密度p(x/i)以此来设计分类器,如窗口估计用学习样本直接估计后验概率p(i/x)作为分类准则来设计分类器如k近邻法.1.密度估计:一个随机变量X落在区域R的概率为PP(X)为P(X)在R内的变化值,P(X)就是要求的总体概率密度RP(x)假设有N个样本X=(X1,X2,XN)T都是按照P(X)从总体中独立抽取的若N个样本中有k

16、个落入在R内的概率符合二项分布其中P是样本X落入R内的概率 Pk是k个样本落入R内的概率数学期望:E(k)=k=NP对概率P的估计:。是P的一个比较好的估计设P(x)在R内连续变化,当R逐渐减小的时候,小到使P(x)在其上几乎没有变化时,则其中是R包围的体积条件密度的估计:(V足够小)讨论:当V固定的时候N增加,k也增加,当时反映了P(x)的空间平均估计而反映不出空间的变化N固定,体积变小当时,k=0时时所以起伏比较大,噪声比较大,需要对V进行改进.对体积V进行改进:为了估计X点的密度,我们构造一串包括X的区域序列R1,R2,.RN.对R1采用一个样本进行估计,对R2采用二个样本进行估计.。设

17、VN是RN的体积,KN是N个样本落入VN的样本数则密度的第N次估计:VN是RN的体积KN是N个样本落入VN的样本数PN(x)是P(x)的第N次估计若若PN(x)收敛于收敛于P(x)应满足三个条件:应满足三个条件:,当N时,VN,N,VN0这时虽然样本数多,但由于VN,落入VN内的样本KN也减小,所以空间变化才反映出来,N,kN,N与KN同相变化,KN的变化远小于N的变化。因此尽管在R内落入了很多的样本,但同总数N比较,仍然是很小的一部分。如何选择VN满足以上条件:使体积VN以N的某个函数减小,如(h为常数)使KN作为N的某个函数,例VN的选择使RN正好包含KN个近邻V1K1,V2K2,.VRK

18、RKn近邻法窗口法2.Parzen窗口估计假设RN为一个d维的超立方体,hN为超立方体的长度超立方体体积为:,d=1,窗口为一线段d=2,窗口为一平面d=3,窗口为一立方体d3,窗口为一超立方体窗口的选择:方窗函数指数窗函数(u)(u)(u)正态窗函数(u)是以原点x为中心的超立方体。在xi落入方窗时,则有在VN内为1不在VN内为0落入VN的样本数为所有为1者之和密度估计讨论:每个样本对估计所起的作用依赖于它到x的距离,即|x-xi|hN/2时,xi在VN内为1,否则为0。称为的窗函数,取0,1两种值,但有时可以取0,0.1,0.2多种数值,例如随xi离x接近的程度,取值由0,0.1,0.2到

19、1。要求估计的PN(x)应满足:为满足这两个条件,要求窗函数满足:窗长度hN对PN(x)的影响若hN太大,PN(x)是P(x)的一个平坦,分辨率低的估计,有平均误差若hN太小,PN(x)是P(x)的一个不稳定的起伏大的估计,有噪声误差为了使这些误差不严重,hN应很好选择例1:对于一个二类(1,2)识别问题,随机抽取1类的6个样本X=(x1,x2,.x6)1=(x1,x2,.x6)=(x1=3.2,x2=3.6,x3=3,x4=6,x5=2.5,x6=1.1)估计P(x|1)即PN(x)解:选正态窗函数0123456x6x5x3x1x2x4xx是一维的上式用图形表示是6个分别以3.2,3.6,3

20、,6,2.5,1.1为中心的丘形曲线(正态曲线),而PN(x)则是这些曲线之和。由图看出,每个样本对估计的贡献与样本间的距离有关,样本越多,PN(x)越准确。例2:设待估计的P(x)是个均值为0,方差为1的正态密度函数。若随机地抽取X样本中的1个、16个、256个作为学习样本xi,试用窗口法估计PN(x)。解:设窗口函数为正态的,1,0hN:窗长度,N为样本数,h1为选定可调节的参数。v用 窗法估计单一正态分布的实验N=N=256N=16N=1讨论:由图看出,PN(x)随N,h1的变化情况当N1时,PN(x)是一个以第一个样本为中心的正态形状的小丘,与窗函数差不多。当N16及N=256时h10

21、.25曲线起伏很大,噪声大h11起伏减小h14曲线平坦,平均误差当N时,PN(x)收敛于一平滑的正态曲线,估计曲线较好。例3。待估的密度函数为二项分布解:此为多峰情况的估计设窗函数为正态x-2.5-210.2502P(x)-2.5x-20 x2x为其它N=N=256N=16N=1v用 窗法估计两个均匀分布的实验当N=1、16、256、时的PN(x)估计如图所示当N1时,PN(x)实际是窗函数。当N16及N=256时h10.25曲线起伏大h11曲线起伏减小h14曲线平坦当N时,曲线较好。结论:由上例知窗口法的优点是应用的普遍性。对规则分布,非规则分布,单锋或多峰分布都可用此法进行密度估计。要求样

22、本足够多,才能有较好的估计。因此使计算量,存储量增大。3.KN近邻估计:近邻估计:在窗口法中存在一个问题是对hN的选择问题。若hN选太小,则大部分体积将是空的(即不包含样本),从而使PN(x)估计不稳定。若hN选太大,则PN(x)估计较平坦,反映不出总体分布的变化,而KN近邻法的思想是以x为中心建立空胞,使v,直到捕捉到KN个样本为止。称KN-近邻估计v的改进,样本密度大,VN;样本密度小,VN;P(x)的估计为:使使PN(x)收敛于收敛于P(x)的充分必要条件:的充分必要条件:,N与KN同相变化,KN的变化远小于N的变化V1为N=1时的VN值KN近邻估计对KN和VN都作了限制KN近邻法作后验

23、概率的估计近邻法作后验概率的估计由KN近邻估计知N个已知类别样本落入VN内为KN个样本的概率密度估计为:N个样本落入个样本落入VN内有内有KN个,个,KN个样本内有个样本内有Ki个样本属于个样本属于i类类则联合概率密度:根据Bayes公式可求出后验概率:类别为i的后验概率就是落在VN内属于i的样本ki与VN内总样本数KN的比值 K近邻分类准则:对于待分样本x,找出它的k个近邻,检查它的类别,把x归于样本最多的那个类别。K近邻分类的错误率随K,Pk,最低的错误率为Bayes分类。P*PK 4、最近邻分类准则:待分样本x,找一个离它最近的样本,把x归于最近的样本一类。错误率:M为类别数P(e)为Bayes估计的错误率最近邻分类法则的错误率P比K近邻错误率还大,但最大不会超过贝叶斯分类器错误率的二倍。PP(e)BayesK近邻最近邻

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
搜索标签

当前位置:首页 > 考试专区 > 中考

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服