收藏 分销(赏)

湘潭大学-人工智能-机器学习PPT课件.ppt

上传人:精*** 文档编号:7397425 上传时间:2025-01-02 格式:PPT 页数:75 大小:3.98MB
下载 相关 举报
湘潭大学-人工智能-机器学习PPT课件.ppt_第1页
第1页 / 共75页
湘潭大学-人工智能-机器学习PPT课件.ppt_第2页
第2页 / 共75页
湘潭大学-人工智能-机器学习PPT课件.ppt_第3页
第3页 / 共75页
湘潭大学-人工智能-机器学习PPT课件.ppt_第4页
第4页 / 共75页
湘潭大学-人工智能-机器学习PPT课件.ppt_第5页
第5页 / 共75页
点击查看更多>>
资源描述

1、,Click to edit Master text styles,Second level,Third level,Fourth level,Fifth level,Click to edit Master title style,Artificial Intelligence(AI),人工智能,第七章:机器学习,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,阿法狗通过,神经网络学习,所有高水平围棋棋谱,大概是历史上有的,20,万个左右职业棋谱,从而获得了

2、在盘面上如何落子的直觉。,类似的,深度学习,是在近几年出现的,,,目前,这项科技也有了一些应用,最简单的例子就是通过深度学习识别猫。通过这项识别验证,已经引申出了更多具有实际意义的,应用,,比如,识别某一个图片中是否有癌细胞,,,某一个铁路沿线上的轨道是否存在磨损,,甚至军事作战中,,对方的视线中是否有坦克,,都可以通过深度学习实现。,谷歌的自动驾驶,其中很重要的就是识别道路、交通信号灯、路标等,这都是通过深度学习获得,。,阿法狗走的是通用学习的道路。它的估值函数,不是专家攻关捣哧出来的。它的作者只是搭了一个基本的框架(一个多层的神经网络),除了围棋最基本的规则外,,没有任何先验知识,。你可以

3、把它想象成一个新生儿的大脑,一张白纸。然后,直接用人类高手对局的,3000,万个局面,训练,它,,自动调节,它的,神经网络参数,,让它的行为和人类高手接近。这样,阿法狗就具有了基本的棋感,看到一个局面大致就能知道好还是不好。,阿法狗的,核心技术,还包括,策略网络的训练,和,蒙特卡洛树搜索,。,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中获得经验,从而改善其整体性能,重组内在知识结构

4、,并对未知事件进行准确的推断。机器学习在科学和工程诸多领域都有着非常广泛的应用,例如金融分析、数据挖掘、生物信息学、医学诊断等。生活中常见的一些智能系统也广泛使用机器学习算法,例如电子商务、手写输入、邮件过滤等。,人类的未来生活和工作,还将有机器人参与。机器人的自主学习,更离不开人脸识别技术。,2015,年,3,月,16,日,马云在德国参加活动时,为嘉宾演示了一项“,Smile,to,Pay”,的扫脸技术。在网购后的支付认证阶段,通过扫脸取代传统的密码,实现“刷脸支付”。,机器学习的基本概念,机器学习的两大学派,机器学习:人工智能的重要分支,构造具有学习能力的智能系统,知识、推理、学习,手段:

5、统计,逻辑,代数,统计机器学习,从大量样本出发,运用统计方法,发现统计规律,有监督学习、无监督学习、半监督学习,问题:分类,聚类,回归,机器学习的基本概念,机器学习的定义,西蒙(,Simon,1983,):,学习就是系统中的适应性变化,这种变化使系统在重复同样工作或类似工作时,能够做得更好。,明斯基(,Minsky,1985,):,学习是在人们头脑里(心理内部)有用的变化。,学习,是一个有特定目的知识获取和能力增长过程,其内在行为是,获得知识,、,积累经验,、,发现规律,等,其外部表现是,改进性能,、,适应环境,、,实现自我完善,等。,机器学习,是研究如何使用机器来模拟人类学习活动的一门学科。

6、,机器学习的基本概念,机器学习的任务,根据有限样本集,Q,,推算这个世界,W,的模型,使得其对这个世界为真。,机器学习的基本概念,机器学习的三要素,一致性假设:,假设世界,W,与样本集,Q,具有某种相同性质机器学习的条件。,样本空间划分:,将样本集放到一个,n,维空间,寻找一个决策面,(,等价关系,),,使得问题决定的不同对象被划分在不相交的区域。,泛化能力:,从有限样本集合中获得的规律是否对学习集以外的数据仍然有效。泛化能力 决定模型对世界的有效性。,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,

7、神经网络学习,8.,其他,7.,知识发现,机器学习策略与基本结构,机器学习的主要策略:,按照学习中,使用,推理,的多少,机器学习所采用的策略大体上可分为,4,种,机械学习:,记忆学习方法,即把新的知识存储起来,供需要时检索调用,而,不需要计算和推理,。,示教学习:,外界输入知识与内部知识的表达不完全一致,系统在接受外部知识时,需要推理、翻译和转化,。,类比学习:,需要发现当前任务与已知知识的相似之处,通过类比给出完成当前任务的方案。,示例学习:,需要从一组正例和反例中分析和总结出一般性的规律,在新的任务中推广、验证、修改规律。,机器学习策略与基本结构,学习系统的基本结构,影响学习系统设计的要素

8、,环境:,环境向系统提供信息的水平(一般化程度)和质量(正确性),知识库:,表达能力,易于推理,容易修改,知识表示易于扩展。,环 境,学 习,知识库,执 行,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,归纳学习,归纳学习(,Induction Learning,),归纳学习是应用归纳推理进行学习的一种方法。,归纳学习的模式:,解释过程,实例空间,规则空间,规划过程,实验规划过程通过对实例空间的搜索完成实例选择,并将这些选中,拿到的活跃实例提交给解释过程。解

9、释过程对实例加以适当转换,把活,跃实例变换为规则空间中的特定概念,以引导规则空间的搜索。,归纳学习,归纳学习(,Induction Learning,),归纳学习是目前研究得最多的学习方法,其学习目的是为了获得新概念、构造新规则或发现新理论。,根据归纳学习有无教师指导,可把它分为,示例学习:,给学习者提供某一概念的一组,正例,和,反例,,学习者归纳出一个总的,概念描述(规则),,并使这个描述适合于所有的正例,排除所有的反例。,观察发现学习:,概念聚类:,按照一定的方式和准则分组,归纳概念,机器发现:,从数据和事例中发现新知识,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器

10、学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,类比学习,类比推理和类比学习方式,类比学习(,learning by analogy,),就是通过类比,即通过对相似事物加以比较所进行的一种学习。,类比学习是利用二个不同领域(,源域、目标域,)中的知识相似性,可以通过类比,从源域的知识(包括相似的特征和其它性质)推导出目标域的相应知识,从而实现学习。,例如:,1.,一个从未开过,truck,的司机,只要他有开,car,的知识就可完成开,truck,的任务。,2.,若把某个人比喻为消防车,则可通过观察消防车的行为,推断出这个人的性

11、格。,类比学习,类比推理和类比学习方式,类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域,来完成原先没有设计的相类似的功能。,类比推理过程:,回忆与联想:,找出当前情况的相似情况,选择:,选择最相似的情况及相关知识,建立对应关系:,建立相似元素之间的映射,转换:,求解问题或产生新的知识,类比学习,类比学习研究类型,问题求解型的类比学习:,求解一个新问题时,先回忆以前是否求解过类似问题,若是,则以此为依据求解新问题。,预测推理型的类比学习,传统的类比法:,用来推断一个不完全确定的事物可能还有的其他属性,因果关系型:,已知因果关系,S1:A-B,,如果有,AA,,则可能有,B,满足,

12、A-B,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,解释学习,解释学习,(Explanation-based learning,EBL),解释学习兴起于,20,世纪,80,年代中期,根据任务所在,领域知识,和正在学习的,概念知识,,对当前,实例,进行分析和求解,得出一个表征求解过程的,因果解释树,,以获取,新的知识,。,例如:,学生根据教师提供的,目标概念,、该概念的一个,例子,、,领域理论,及,可操作准则,,首先构造一个解释来说明为什么该例子满足目标概念

13、,然后将解释推广为目标概念的一个满足可操作准则的充分条件。,解释学习,解释学习过程和算法,米切尔提出了一个解释学习的统一算法,EBG,,建立了基于解释的概括过程,并用知识的逻辑表示和演绎推理进行问题求解。其一般性描述为:,给定,:,领域知识,DT,目标概念,TC,训练实例,TE,操作性准则,OC,找出:,满足,OC,的关于,TC,的充分条件,目标概念,新规则,操作准则,训练例子,知识库,解释学习,EBG,算法可概括为两步:,1.,构造解释:,运用领域知识进行演绎,证明提供给系统的训练实例为什么是满足目标概念的一个实例。,例如:,设要学习的,目标概念,是,“一个物体(,Obj1,)可以安全地放置

14、在另一个物体(,Obj2,)上”,,即:,Safe-To-Stack(Obj1,obj2),领域知识是把一个物体放置在另一个物体上面的安全性,准则,:,解释学习,EBG,算法可概括为两步:,领域知识:,Fragile(y)Safe-To-Stack(x,y):,如果,y,不是易碎的,则,x,可以安全地放到,y,的上面,Lighter(x,y)Safe-To-Stack(x,y):,如果,x,比,y,轻,则,x,可以安全地放到,y,的上面,Volume(p,v)Density(p,d)*(v,d,w)Weight(p,w):,如果,p,的体积是,v,、密度是,d,、,v,乘以,d,的积是,w,,

15、则,p,的重量是,w,Isa(p,table)Weight(p,15):,若,p,是桌子,则,p,的重量是,15,Weight(p1,w1)Weight(p2,w2)Smaller(w1,w2)Lighter(p1,p2):,如果,p1,的重量是,w1,、,p2,的重量是,w2,、,w1,比,w2,小,则,p1,比,p2,轻,解释学习,EBG,算法可概括为两步:,Safe-To-Stack(Obj1,obj2),解释结构:,Safe-To-Stack(Obj1,obj2),Lighter(Obj1,obj2),Weight(Obj1,0.1),Weight(Obj2,15),Smaller(0

16、.1,15),Isa(Obj2,table),Voume(Obj1,1),Density(Obj1,0.1),*,(1,0.1,0.1),解释学习,EBG,算法可概括为两步:,2.,获取一般性的知识:,任务:,对上一步得到的解释结构进行一般化的处理,从而得到,关于目标概念的一般性知识,。,方法:,将常量换成变量,并把某些不重要的信息去掉,只保留求解问题必须的关键信息。,例如:,Volume(O1,v1),Density(O1,d1)*(v1,d1,w1),Isa(O2,table),Smaller(w1,15)Safe-To-Stack(Obj1,obj2),解释学习,EBG,算法可概括为两步

17、:,Safe-To-Stack(O1,O2),一般化解释结构,Safe-To-Stack(O1,O2),Lighter(O1,O2),Weight(O1,w1),Weight(O2,15),Smaller(w1,15),Isa(O2,table),Voume(O1,v1),Density(O1,d1),*,(v1,d1,w1),以后求解类似问题时,就可以直接利用这个知识进行求解,提到了系统求解问题的效率。,内容提要,第七章:机器学习系统,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,类比学习,5.,解释学习,6.,神经网络学习,8.,其他,7.,知识发现,神经网

18、络学习,神经生理学研究表明,人脑的神经元既是学习的基本单位,同是也是记忆的基本单位。,目前,关于人脑学习和记忆机制的研究有两大学派:,化学学派:,认为人脑经学习所获得的信息是记录在某些,生物大分子,之上的。例如,蛋白质、核糖核酸、神经递质,就像遗传信息是记录在,DNA,(脱氧核糖核酸)上一样。,突触修正学派:,认为人脑学习所获得的信息是分布在神经元之间的,突触连接,上的,。,神经网络学习,按照,突触修正学派,的观点,人脑的学习和记忆过程实际上是一个,在训练中完成的突触连接权值的修正和稳定过程,。其中,,学习表现为突触连接权值的修正,记忆则表现为突触连接权值的稳定,。,突触修正假说已成为人工神经

19、网络学习和记忆机制研究的心理学基础,与此对应的权值修正学派也一直是人工神经网络研究的主流学派。,突触修正学派认为,,人工神经网络的学习过程就是一个不断调整网络连接权值的过程。,按照学习规则,神经学习可分为:,Hebb,学习、纠错学习、竞争学习及随机学习等。,神经网络学习,Hebb,学习,Hebb,学习的基本思想:,如果神经网络中某一神经元同另一直接与它连接的神经元同时处于兴奋状态,那么这两个神经元之间的连接强度将得到加强,反之应该减弱。,Hebb,学习对连接权值的调整可表示为:,w,ij,(,t,+1),表示对时刻,t,的权值修正一次后所得到的新的权值;,取正值,称为学习因子,它取决于每次权值

20、的修正量;,x,i,(,t,),、,x,j,(,t,),分别表示,t,时刻第,i,个和第,j,个神经元的状态。,神经网络学习,纠错学习,纠错学习的基本思想:,利用神经网络的,期望输出,与,实际输出,之间的,偏差,作为连接权值调整的参考,并最终减少这种偏差。纠错学习是一种有导师的学习过程。,最基本的误差修正规则为:,连接权值的变化与神经元希望输出和实际输出之差成正比。其联结权值的计算公式为:,y,j,(,t,),为神经元,j,的实际输出,;,d,j,(,t,),为神经元,j,的希望输出;,神经网络学习,竞争学习,基本思想,:,网络中某一组神经元相互竞争对外界刺激模式响应的权力,在竞争中获胜的神经

21、元,其连接权会向着对这一刺激模式竞争更为有利的方向发展。,随机学习,基本思想:,结合随机过程、概率和能量(函数)等概念来调整网络的变量,从而使网络的目标函数达到最大(或最小)。他不仅可以接受能量函数减少(性能得到改善)的变化,而且还可以以某种概率分布接受使能量函数增大(性能变差)的变化。,感知器学习,单层感知器学习算法,单层感知器学习的例子,BP,网络学习,Hopfield,网络学习,神经网络学习,单层感知器学习实际上是一种基于纠错学习规则,,采用迭代的思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。,假设,X(k),和,W(k),分别表示学习算法在第,k,次迭代时输入向量和

22、权值向量,为方便,把阈值,作为权值向量,W(k),中的第一个分量,对应地把“,-1,”固定地作为输入向量,X(k),中的第一个分量。即,W(k),和,X(k),可分别表示如下:,X(k)=-1,x,1,(k),x,2,(k),x,n,(k),W(k)=(k),w,1,(k),w,2,(k),w,n,(k),即,x,0,(k)=-1,,,w,0,(k)=(k),。,单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。,假设一个样本空间可以被划分为,A,、,B,两类,定义,:,功能函数:,若输入样本属于,A,类,输出为,+1,,否则其输出为,-1,。,期望输出:,若输入样本属于,A,类,

23、期望输出为,+1,,否则为,-1,。,单层感知器学习算法,算法思想,单层感知器学习算法可描述如下:,(1),设,t=0,,初始化连接权和阈值。即给,w,i,(0)(i=1,2,n),及,(0),分别赋予一个较小的非零随机数,作为初值。其中,,w,i,(0),是第,0,次迭代时输入向量中第,i,个输入的连接权值;,(0),是第,0,次迭代时输出节点的阈值;,(2),提供新的样本输入,x,i,(t)(i=1,2,n),和期望输出,d(t),;,(3),计算网络的实际输出:,单层感知器学习算法,算法描述,(4),若,y(t)=d(t),,不需要调整连接权值,转,(6),。否则,需要调整权值,(5),

24、调整连接权值,其中,,是一个增益因子,用于控制修改速度,其值如果太大,会影响,w,i,(t),的收敛性;如果太小,又会使,w,i,(t),的收敛速度太慢,;,(6),判断是否满足结束条件,若满足,算法结束;否则,将,t,值加,1,,转,(2),重新执行。这里的结束条件一般是指,w,i,(t),对一切样本均稳定不变。,若输入的两类样本是线性可分的,则该算法就一定会收敛。否则,不收敛。,单层感知器学习算法,算法描述,例,用单层感知器实现逻辑“与”运算。,解:,根据“与”运算的逻辑关系,可将问题转换为:输入向量:,X,1,=0,0,1,1,X,2,=0,1,0,1,输出向量:,Y=0,0,0,1,为

25、减少算法的迭代次数,设初始连接权值和阈值取值如下:,w,1,(0)=0.5,w,2,(0)=0.7,(0)=0.6,并取增益因子,=0.4,。,算法的学习过程如下:,设两个输入为,x,1,(0)=,0,和,x,2,(0)=,0,,其期望输出为,d(0)=0,,实际输出为:,y(0)=f(w,1,(0)x,1,(0)+w,2,(0)x,2,(0)-(0),=f(0.5*0+0.7*0-0.6)=f(-0.6)=0,实际输出与期望输出相同,不需要调节权值。,单层感知器学习的例子,学习例子,(1/4),再取下一组输入:,x,1,(0)=,0,和,x,2,(0)=,1,,,期望输出,d(0)=0,,实

26、际输出:,y(0)=f(w,1,(0)x,1,(0)+w,2,(0)x,2,(0)-(0),=f(0.5*0+0.7*1-0.6)=f(0.1)=1,实际输出与期望输出不同,需要调节权值,其调整如下:,(1)=(0)+(,d,(0)-,y,(0)*(-1)=0.6+0.4*(0-1)*(-1)=1,w,1,(1)=,w,1,(0)+(,d,(0)-,y,(0),x,1,(0)=0.5+0.4*(0-1)*0=0.5,w,2,(1)=,w,2,(0)+(,d,(0)-,y,(0),x,2,(0)=0.7+0.4*(0-1)*1=0.3,取下一组输入:,x,1,(1)=,1,和,x,2,(1)=,

27、0,,其期望输出为,d(1)=0,,实际输出为:,y(1)=f(w,1,(1)x,1,(1)+w,2,(1)x,2,(1)-(1),=f(0.5*1+0.3*0-1)=f(-0.51)=0,实际输出与期望输出相同,不需要调节权值。,单层感知器学习的例子,学习例子,(2/4),再取下一组输入:,x,1,(1)=,1,和,x,2,(1)=,1,,其期望输出为,d(1)=1,,实际输出为:,y(1)=f(w,1,(1)x,1,(1)+w,2,(1)x,2,(1)-(1),=f(0.5*1+0.3*1-1)=f(-0.2)=0,实际输出与期望输出不同,需要调节权值,其调整如下:,(2)=(1)+(,d

28、,(1)-,y,(1)*(-1)=1+0.4*(1-0)*(-1)=0.6,w,1,(2)=,w,1,(1)+(,d,(1)-,y,(1),x,1,(1)=0.5+0.4*(1-0)*1=0.9,w,2,(2)=,w,2,(1)+(,d,(1)-,y,(1),x,2,(1)=0.3+0.4*(1-0)*1=0.7,取下一组输入:,x,1,(2)=,0,和,x,2,(2)=,0,,其期望输出为,d(2)=0,,实际输出为:,y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0,实际输出与期望输出相同,不需要调节权值,.,单层感知器学习的例子,学习例子,(3/4),再取下一组输入:,

29、x,1,(2)=,0,和,x,2,(2)=,1,,期望输出为,d(2)=0,,实际输出为:,y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1,实际输出与期望输出不同,需要调节权值,其调整如下:,(3)=(2)+(,d,(2)-,y,(2)*(-1)=0.6+0.4*(0-1)*(-1)=1,w,1,(3)=,w,1,(2)+(,d,(2)-,y,(2),x,1,(2)=0.9+0.4*(0-1)*0=0.9,w,2,(3)=,w,2,(2)+(,d,(2)-,y,(2),x,2,(2)=0.7+0.4*(0-1)*1=0.3,实际上,,由,与运算的阈值条件可知,此时的阈值和连接

30、权值以满足结束条件,算法可以结束。,对此,可检验如下:,对输入:“,0 0”,有,y=f(0.9*0+0.3*0-1)=f(-1)=0,对输入:“,0 1”,有,y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0,对输入:“,1 0”,有,y=f(0.9*1+0.3*0-1)=f(-0.1)=0,对输入:“,1 1”,有,y=f(0.9*1+0.3*1-1)=f(0.2)=,1,单层感知器学习的例子,学习例子,(4/4),多层感知器可以解决非线性可分问题,但其隐层神经元的期望输出却不易给出。,而单层感知器学习是一种有导师指导的学习过程,因此其学习算法无法直接用于多层感知器。,由于多层

31、感知器和,BP,网络都属于前向网络,并能较好解决多层前馈网络的学习问题,.,因此,可用,BP,学习来解决多层感知器学习问题。,多层感知器学习问题,BP,网络学习的网络基础是具有多层,前馈,结构的,BP,网络。为讨论方便,采用如下图所示的三层,BP,网络。,BP,网络学习的基础,1.,三层,BP,网络,x,1,x,n,y,1,y,l,1,2,m,w,ij,w,jk,i,j,k,1,n,l,1,三层,BP,网络,工作信号,的,正向传播,误差,的,反向,传播,对上述三层,BP,网络,分别用,I,j,k,表示输入层、隐含层、输出层节点,且以以下符号表示:,O,i,O,j,O,k,分别表示输入层节点,i

32、,、隐含层节点,j,,输出层节点,k,的,输出,;,I,i,I,j,I,k,分别表示输入层节点,i,、隐含层节点,j,,输出层节点,k,的,输入,;,w,ij,w,jk,分别表示从输入层节点,i,到隐含层节点,j,,从隐含层节点,j,输出层节点,k,的输入节点,j,的连接,权值,;,j,、,k,分别表示隐含层节点,j,、输出层节点,k,的,阈值,;,对输入层节点,i,有:,BP,网络学习的基础,2.,网络节点的输入,/,输出关系,(1/2),(,7.1,),对输出层节点有:,BP,网络学习的基础,2.,网络节点的输入,/,输出关系,(2/2),(,7.5,),(,7.4,),对隐含层节点有:,

33、(,7.2,),(,7.3,),BP,网络学习的方式,BP,网络学习的基础,BP,网络的激发函数和学习方式,(,7.5,),(,7.4,),BP,网络的激发函数,(,7.3,),通常采用连续可微的,S,函数,包括单极,BP,网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差的方向不断调整网络联结权值和阈值的过程。,设样本集中的第,r,个样本,其输出层结点,k,的期望输出用,d,rk,表示,实际输出用,y,rk,表示。其中,,d,rk,由训练模式给出,,y,rk,由,7.5,式计算得出。即有,y,rk,=O,rk,如果仅针对单个输入样本,其实际输出与期望输出的误差为,BP,算法的传播公

34、式,误差,上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺序学习方式。若采用批处理学习方式,需要定义其,总体误差,。假设样本集中有,R,个样本,则对整个样本集的,总体误差定义为,(,7.6,),(,7.7,),针对顺序学习方式,其联结权值的调整公式为,BP,算法的传播公式,权值变化量,(1/2),(,7.8,),(,7.9,),式中,,为增益因子,取,0,1,区间的一个正数,其取值与算法的收敛速度有关;,由下式计算,式中,,wjk,(,t,),和,wjk,(,t,+1),分别是第,t,次迭代和,t,+1,次迭代时,从结点,j,到结点,k,的联结权值;,wjk,是联结权值的变化量。

35、,为了使联结权值能沿着,E,的梯度下降的方向逐渐改善,网络逐渐收敛,权值变化量,wjk,的计算公式如下:,(,7.10,),根据,7.2,式,可得到输出层节点,k,的,I,k,为,BP,算法的传播公式,权值变化量,(1/2),(,7.11,),(,7.12,),令局部梯度,(,7.13,),对该式求偏导数有,将,7.10,式、,7.11,式和,7.12,式代入,7.9,式有,对,k,的计算,须区分,k,是输出层上还是隐含层上的结点。下面分别讨论。,如果结点,k,是,输出层上,的结点,则有,O,k,=,y,k,,因此,BP,算法的传播公式,节点,k,是输出层节点,(1/3),(,7.14,),(

36、,7.15,),由,7.6,式,有,即,而,(,7.16,),将,7.15,式和,7.16,式代入,7.14,式,有,BP,算法的传播公式,节点,k,是输出层节点,(2/3),(,7.17,),(,7.15,),由于,f,(I,k,)=f(I,k,)1-f(I,k,),,且,f(I,k,)=y,k,,因此有,再将,7.18,式代入,7.13,式,有,根据,7.8,,对输出层有,(,7.20,),(,7.18,),如果,k,不是输出层结点它表示联结权值是作用于,隐含层上,的结点,此时,有,k,=,j,,,j,按下式计算,BP,算法的传播公式,节点,k,是隐含层节点,(1/3),(,7.22,),

37、由,7.3,式,,Oj=f(Ij-j),,因此有,式中,,(,7.21,),是一个隐函数求导问题,其推导过程为,由,7.12,式有,BP,算法的传播公式,节点,k,是隐含层节点,(2/3),(,7.24,),将,7.23,式代入,7.22,式,有,它说明,低层结点的,值是通过上一层结点的,值来计算的。这样,我们就可以先计算出输出层上的,值,然后把它返回到较低层上,并计算出各较低层上结点的,值。,由于,f,(Ij)=,f,(Ij)1-,f,(Ij),,故由,7.24,可得,(,7.23,),(,7.25,),再将,7.25,式代入,7.13,式,并将其转化为隐函数的变化量,有,7.3.2 BP,

38、算法的传播公式,节点,k,是隐含层节点,(3/3),再由,7.1,式和,7.3,式,有,根据,7.8,,对隐含层有,(,7.26,),(,7.28,),(,7.27,),对三层,BP,网络,设,w,ij,是输入层到隐层,,w,jk,是隐层到输出层的联结权值;,R,是样本个数,其计数器为,r,;,T,是训练过程的最大迭代数,其计数器为,t,。,(1),初始化网络及学习参数:将,w,ij,、,w,jk,、,j,、,k,均赋以较小的随机数;设置,为,0,1,区间的数;置训练样本计数器,r=0,,误差,E=0,、误差阈值,为很小的正数。,(2),随机输入一个训练样本,,r=r+1,,,t=0,。,(3

39、),按,7.1-7.5,式计算隐层神经元的状态和输出层每个节点的实际输出,y,k,,按,7.6,式计算该样本的误差,E,。,BP,网络学习算法,算法描述,(,4),检查,E?,若是,执行下一步;否则,转(,8,)。,(5)t=t+1,。,(6),检查,t T,?若是,执行下一步;否则,转(,8,)。,(7),按,7.18,式计算输出层结点,k,的,k,,按,7.25,式计算隐层结点,j,的,j,,按,7.20,式计算,w,jk,(t+1),,按,7.28,式计算,w,ij,(t+1),,返回,(3),。其中,对阈值按联结权值的学习方式修正,即把阈值设想为神经元的联结权值,并假定其输入信号值总是

40、为,1,。,(8),检查,r=R?,若是,执行下一步;否则,转,(2),。,(9),结束。,BP,网络学习算法,算法描述,BP,网络学习算法,算法流程,随机输入一个训练样本,置,r=r+1,t=0,初始化网络及学习参数,w,ij,w,jk,j,k,R,T,置,E=0,r=0,对输入样本,计算该样本的每一个,y,k,,,计算该样本的误差,E,E,?,t=t+1,tT,?,计算输出层结点,k,的,k,修正各层的,w,jk,(t),w,ij,(t),E,?,结束,是,否,是,否,否,是,BP,网络模型是目前使用较多的一种神经网络,其主要优、缺点如下。,优点,(,1,)算法的优点是算法推导清楚,学习精

41、度较高;,(,2,)从理论上说,多层前馈网络可学会任何可学习的东西;,(,3,)经过训练后的,BP,网络,运行速度极快,可用于实时处理。,缺点,(,1,)由于其数学基础是非线性优化问题,因此可能陷入局部最小区域;,(,2,)算法收敛速度很慢,通常需要数千步或更长,甚至还可能不收敛;,(,3,)网络中隐含结点的设置无理论指导。,上述缺点的解决办法,对于局部最小区域问题,,通常需要采用模拟退火算法或遗传算法。,对于算法收敛慢的问题,,其主要原因在于误差是时间的复杂非线性函数。为提高算法收敛速度,可采用逐次自动调整增益因子,,或修改激活函数,f,(,x,),的方法来解决。,BP,网络学习的讨论,Ho

42、pfield,网络学习,Hopfield,网络学习的过程实际上是一个从网络初始状态向其稳定状态过渡的过程。而网络的稳定性又是通过能量函数来描述的。这里主要针对离散,Hopfield,网络讨论其能量函数和学习算法。,Hopfield,网络的能量函数,Hopfield,网络学习算法,式中,,n,是网络中的神经元个数,,w,ij,是神经元,i,和神经元,j,之间的连接权值,且有,w,ij,=w,ji,;,v,i,和,v,j,分别是神经元,i,和神经元,j,的输出;,i,是神经元,i,的阈值。,可以证明,对,Hopfield,网络,无论其神经元的状态由“,0,”变为“,1,”,还是由“,1,”变为“,

43、0,”,始终有其网络能量的变化:,E0,Hopfield,的能量函数,能量函数定义及性质,能量函数用于描述,Hopfield,网络的稳定性。其定义为:,对网络能量变化的这一结论,我们可以从网络能量的构成形式进行分析。,如果假设某一时刻网络中仅有神经元,k,的输出发生了变化,而其它神经元的输出没有变化,则可把上述能量函数分作三部分来讨论。其中,第一部分是,i=1,k-1,;第二部分是,i=k,;第三部分是,i=k+1,n,。,即网络能量函数可写成如下形式:,Hopfield,的能量函数,能量函数定义及性质,(2/7),在这种形式中,可以引起网络能量变化的仅有公式中的如下部分:,i=1,k-1,,

44、,j,k,,这部分能量与,k,的输出无关,i=1,k-1,,,j,=k,,这部分能量,与,k,的输出有关,i=k,,,j,k,,这部分能量,与,k,的输出有关,i=k+1,n,,,j,k,,这部分能量与,k,的输出无关,i=k+1,n,,,j,k,,这部分能量,与,k,的输出有关,Hopfield,的能量函数,能量函数定义及性质,(3/7),又由于,即:,再根据连接权值的对称性,即,w,ij,=w,ji,,,有:,Hopfield,的能量函数,能量函数定义及性质,(4/7),即可以引起网络能量变化的部分为,为了更清晰地描述网络能量的变化,我们引入时间概念。假设,t,表示当前时刻,,t+1,表示

45、下一时刻,时刻,t,和,t+1,的网络能量分别为,E(t),和,E(t+1),,神经元,i,和神经元,j,在时刻,t,和,t+1,的输出分别为,v,i,(t),、,v,j,(t),和,v,j,(t+1),、,v,j,(t+1),。由时刻,t,到,t+1,网络能量的变化为:,E=E(t+1)-E(t),当网络中仅有神经元,k,的输出发生变化,且变化前后分别为,t,和,t+1,,则有,Hopfield,的能量函数,能量函数定义及性质,(5/7),当神经元,k,的输出,v,k,由,1,变,0,时,有,此时,由于神经元,k,的输出为,1,,即有:,因此:,Hopfield,的能量函数,能量函数定义及性

46、质,(6/7),当神经元,k,的输出,v,k,由,0,变,1,时,有,此时,由于神经元,k,的输出为,0,,即有:,因此:,Hopfield,的能量函数,能量函数定义及性质,(7/7),可见,无论神经元,k,的状态由“,1,”变为“,0,”时,还是由“,0,”变为“,1,”时,都总有:,它说明离散,Hopfield,网络在运行中,其能量函数总是在不断降低的,最终将趋于稳定状态。,E,k,0,由于神经元,k,是网络中的任一神经元,因此它具有一般性,即对网络中的任意神经元都有:,E0,例,如图所示的三个节点的,Hopfield,网络,若给定的初始状态为:,V,0,=1,0,1,各节点之间的联结权值

47、为:,w,12,=w,21,=1,,,w,13,=w,31,=-2,,,w,23,=w,32,=3,各节点的阈值为,1,=-1,,,2,=2,,,3,=1,请计算在此状态下的网络能量。,解:,E=-(1/2)(w,12,v,1,v,2,+w,13,v,1,v,3,+w,21,v,2,v,1,+w,23,v,2,v,3,+w,31,v,3,v,1,+w,32,v,3,v,2,),+,1,v,1,+,2,v,2,+,3,v,3,=-(w,12,v,1,v,2,+w,13,v,1,v,3,+w,23,v,2,v,3,)+,1,v,1,+,2,v,2,+,3,v,3,=-(110+(-2)11+301

48、)+(-1)1+20+11,=2,Q1,Q2,Q3,v,1,v,2,v,3,w,12,w,13,w,23,Hopfield,的能量函数,计算网络能量的例子,(1),设置联结权值,其中,,x,i,s,为,S,型样例(即记忆模式)的第,i,个分量,它可以为,1,或,0,(或,-1,),样例类别数为,m,,节点数为,n,。,(2),对未知类别的样例初始化,其中,,y,i,(t),为节点,i,时刻,t,的输出,,y,i,(0),是节点的初值;,x,i,为输入样本的第,i,个分量。,(3),迭代运算,其中,函数,f,为阈值型。重复这一步骤,直到新的迭代不能再改变节点的输出为止,即收敛为止。这时,各节点的

49、输出与输入样例达到最佳匹配。否则,(4),转第,(2),步继续。,Hopfield,网络学习算法,神经学习,单层感知器算法:,感知器网络:,单层前向网络,学习算法:,纠错学习方法,用梯度下降法调整网络连接权值,使总的输出误差向减小的方向变化,BP,算法:,反向传播算法,多层感知器网络(,BP,网络)学习算法,收敛速度非常慢,且随着训练样例维数增加,网络性能变差。,内容提要,第七章:机器学习,1.,机器学习的基本概念,2.,机器学习策略与基本结构,3.,归纳学习,4.,决策树,5.,类比学习,6.,解释学习,7.,神经学习,8.,其他,其他机器学习方法,其他机器学习方法,迁移学习:,将在先前任务中学到的知识或技能应用于一个新的任务或新的领域,增强机器学习:,从变化环境中学习蕴含在环境中的知识,流形机器学习:,把一组在高维空间中的数据在低维空间中重新表示,半监督机器学习:,结合标记和非标记样本,多实例机器学习:,一个对象可能同时有多个描述,Ranking,机器学习:,获得关于检索中,“,喜欢,”,顺序的模型,数据流机器学习:,从数据流中发现知识,问题?,

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
搜索标签

当前位置:首页 > 包罗万象 > 大杂烩

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服