收藏 分销(赏)

第6篇神经网络控制.ppt

上传人:可**** 文档编号:10276024 上传时间:2025-05-12 格式:PPT 页数:39 大小:752.04KB
下载 相关 举报
第6篇神经网络控制.ppt_第1页
第1页 / 共39页
第6篇神经网络控制.ppt_第2页
第2页 / 共39页
点击查看更多>>
资源描述
,单击此处编辑母版标题样式,*,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,第6章 神经网络控制,1,6.1 概述,6.1.1生物神经元模型,6.1.2 人工神经元模型,6.1.3 人工神经网络模型,6.1.4 神经网络的学习措施,2,6.1.2 人工神经元模型,人工神经元是对生物神经元的一种模拟与简化。它是神经网络的基本处理单元。如图所示为一种简化的人工神经元构造。它是一种多输入、单输出的非线性元件。,3,4,其输入、输出关系可描述为,其中,是从其他神经元传来的输入信号;表达从神经元j到神经元i的连接权值;为阈值;称为激发函数或作用函数。,5,输出激发函数 又称为变换函数,它决定神经元(节点)的输出。该输出为1或0,取决于其输入之和不小于或不不小于内部阈值 。函数 一般具有非线性特性。下图表达了几种常见的激发函数。,1.阈值型函数(见图(a),(b),2.饱和型函数(见图(c),3.双曲函数(见图(d),4.S型函数(见(e),5.高斯函数(见图(f),6,7,6.1.3 人工神经网络模型,人工神经网络是以工程技术手段来模拟人脑神经元网络的构造与特性的系统。运用人工神经元可以构成多种不一样拓扑构造的神经网络,它是生物神经网络的一种模拟和近似。就神经网络的重要连接型式而言,目前已经有数十种不一样的神经网络模型,其中前馈型网络和反馈型网络是两种经典的构造模型。,8,1.前馈型神经网络,前馈型神经网络,又称前向网络(Feed forward NN)。如图所示,神经元分层排列,有输入层、隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层神经元的输入。,从学习的观点来看,前馈网络是一种强有力的学习系统,其构造简朴而易于编程;从系统的观点看,前馈网络是一静态非线性映射,通过简朴非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行为。大部分前馈网络都是学习网络,它们的分类能力和模式识别能力一般都强于反馈网络,经典的前馈网络有感知器网络、BP 网络等。,9,10,6.1.4 神经网络的学习措施,学习措施是体现人工神经网络智能特性的重要标志,离开了学习算法,人工神经网络就失去了自适应、自组织和自学习的能力。目前神经网络的学习措施有多种,按有无导师来分类,可分为有教师学习(Supervised Learning)、无教师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几大类。在有教师的学习方式中,网络的输出和期望的输出(即教师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。在无教师的学习方式中,输入模式进人网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。,11,神经网络中常用的几种最基本的学习措施,1.Hebb学习规则,两个神经元同步处在激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则,Hebb学习规则是一种无教师的学习措施,它只根据神经元连接间的激活水平变化权值,因此这种措施又称为有关学习或并联学习。,12,2Delta()学习规则,规则实现了E中的梯度下降,因此使误差函数到达最小值。但学习规则只合用于线性可分函数,无法用于多层网络。BP网络的学习算法称为BP算法,是在规则基础上发展起来的,可在多网络上有效地学习。,13,3概率式学习,从记录力学、分子热力学和概率论中有关系统稳态能量的原则出发,进行神经网络学习的方式称概率式学习。神经网络处在某一状态的概率重要取决于在此状态下的能量,能量越低,概率越大。同步,此概率还取决于温度参数T。T越大,不一样状态出现概率的差异便越小,较轻易跳出能量的局部极小点而到全局的极小点;T越小时,情形正相反。概率式学习的经典代表是Boltzmann机学习规则。它是基于模拟退火的记录优化措施,因此又称模拟退火算法。,14,4竞争式学习,竞争式学习属于无教师学习方式。此种学习方式运用不一样层间的神经元发生兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生克制性联接。在这种联接机制中引人竟争机制的学习方式称为竟争式学习。它的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞争识别。,15,6.2 前向神经网络,6.2.1 感知器网络,感知器(perceptrvon)是一种具有单层神经元的神经网络,并由线性阈值元件构成,是最简朴的前向网络。它重要用于模式分类,单层的感知器网络构造如下图所示。,16,17,感知器的一种学习算法:,随机地给定一组连接权,输入一组样本和期望的输出(亦称之为教师信号),计算感知器实际输出,修正权值,选用此外一组样本,反复上述2)4)的过程,直到权值对一切样本均稳定不变为止,学习过程结束。,18,6.2.2 BP网络,误差反向传播神经网络,简称BP网络(Back Propagation),是一种单向传播的多层前向网络。在模式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适应控制等领域有着较为广泛的应用。如图是BP网络的示意图。,19,20,误差反向传播的BP算法简称BP算法,其基本思想是最小二乘算法。它采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。,BP算法的学习过程由正向传播和反向传播构成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。假如在输出层不能得到期望的输出,则转人反向传播,将误差信号沿本来的连接通路返回,通过修改各层神经元的权值,使误差信号最小。,21,1BP网络的前馈计算,2BP网络权值的调整规则,1).输出层权系数的调整,2).隐含层节点权系数的调整,3BP学习算法的计算环节,22,3BP学习算法的计算环节,1).初始化 置所有权值为较小的随机数,2).提供训练集,3).计算实际输出,计算隐含层、输出层各神经元输出,4).计算目的值与实际输出的偏差E,5).计算,6).计算,7).返回“2)”反复计算,直到误差满足规定为止,23,24,在使用BP算法时,应注意的几种问题是:,1).学习开始时,各隐含层连接权系数的初值应以设置较小的随机数较为合适。,2).采用S型激发函数时,由于输出层各神经元的输出只能趋于1或0,不能到达1或0。在设置各训练样本时,期望的输出分量dpk不能设置为1或0,以设置为或0,1较为合适。,3).学习速率的选择,在学习开始阶段,选较大的值可以加紧学习速度。学习靠近优化区时,值必须相称小,否则权系数将产生振荡而不收敛。平滑因子的选值在左右。,25,6.2.3 BP网络学习算法的改善,1多层前向BP网络的长处:,1).网络实质上实现了一种从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它尤其适合于求解内部机制复杂的问题;,2).网络能通过学习带对的答案的实例集自动提取“合理的”求解规则,即具有自学习能力;,26,2多层前向BP网络的问题:,1).BP算法的学习速度很慢,2).网络训练失败的也许性较大,3).难以处理应用问题的实例规模和网络规模间的矛盾,4).网络构造的选择尚无一种统一而完整的理论指导,一般只能由经验选定,5).新加入的样本要影响已学习成功的网络,并且刻画每个输入样本的特性的数目也必须相似,6).网络的预测能力(也称泛化能力、推广能力)与训练能力(也称迫近能力、学习能力)的矛盾,27,3BP网络学习算法的改善,1).增长“惯性项,2).采用动态步长,3).与其他全局搜索算法相结合,4).模拟退火算法,目前在神经网络的学习中,基于梯度的算法都不能从理论上保证收敛成果是全局最优的。,28,6.2.4 神经网络的训练,可以任意迫近一种紧集上的任意函数这一特点是神经网络广泛应用的理论基础。不过,在实际应用中,目前尚未找到很好的网络构造措施,确定网络的构造和权值参数,来描述给定的映射或迫近一种未知的映射,只能通过学习来得到满足规定的网络模型。,29,神经网络训练的详细环节如下,1获取训练样本集,获取训练样本集合是训练神经网络的第一步,也是十分重要和关键的一步。它包括训练数据的搜集、分析、选择和预处理等,2选择网络类型与构造,神经网络的类型诸多,需要根据任务的性质和规定来选择合适的网络类型。,3训练与测试,最终一步是运用获取的训练样本对网络进行反复训练,直至得到合适的映射成果。,30,6.4 神经网络PID控制,尽管神经网络控制技术有许多潜在的优势,但单纯使用神经网络的控制措施的研究仍有待深入发展。一般将人工神经网络技术与老式的控制理论或智能技术综合使用。神经网络在控制中的作用有如下几种:,1在老式的控制系统中用以动态系统建模,充当对象模型;,2在反馈控制系统中直接充当控制器的作用;,3在老式控制系统中起优化计算作用;,4与其他智能控制措施如模糊逻辑、遗传算法、专家控制等相融合。,31,6.4.1 基于BP神经网络控制参数自学习PID控制,BP神经网络具有迫近任意非线性函数的能力,并且构造和学习算法简朴明确。通过神经网络自身的学习,可以找到某一最优控制律下的P,I,D参数。基于BP神经网络的PD控制系统构造如图所示,控制器由两个部分构成:经典的PID控制器:直接对被控对象进行闭环控制,并且KP,KI,KD三个参数为在线整定;神经网络NN:根据系统的运行状态,调整PID控制器的参数,以期到达某种性能指标的最优化。虽然输出层神经元的输出状态对应于PID控制器的三个可调参数KP,KI,KD,通过神经网络的自学习、调整权系数,从而使其稳定状态对应于某种最优控制律下的PID控制器参数。,32,33,基于BP神经网络的PID控制算法可归纳如下:,1).事先选定BP神经网络NN的构造,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0),w(3)li(0),选定学习速率和平滑因子,k=1;,2).采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k);,3).对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入;,4).前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k);,5).计算PID控制器的控制输出u(k),参与控制和计算;,6).计算修正输出层的权系数w(3)li(k);,7).计算修正隐含层的权系数w(2)ij(k);,8).置k=k+1,返回到“2)”。,34,6.4.2 改善型BP神经网络控制参数自学习PID控制,将神经网络用于控制器的设计或直接学习计算控制器的输出(控制量),一般都要用到系统的预测输出值或其变化量来计算权系数的修正量。但实际上,系统的预测输出值是不易直接测得的,一般的做法是建立被控对象的预测数学模型,用该模型所计算的预测输出来取代预测处的实测值,以提高控制效果。,35,1采用线性预测模型的BP神经网络PID控制器,36,采用线性预测模型的BP神经网络PID控制系统算法归纳如下:,1).事先选定BP神经网络NN的构造,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0),w(3)li(0),选定学习速率和平滑因子,k=1;,2).用线性系统辨识法估计出参数矢量(k),从而形成一步预报模型式;,3).采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k);,4).对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入;,5).前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k);,6).计算PID控制器的控制输出u(k),参与控制和计算;,7).计算 和 ;,8).计算修正输出层的权系数w(3)li(k);,9).计算修正隐含层的权系数w(2)ij(k);,10).置k=k+1,返回到“2)”。,37,2采用非线性预测模型的BP神经网络PID控制器,38,基于BP神经网络的PID控制算法可归纳如下:,1).事先选定BP神经网络NN的构造,即选定输入层节点数M和隐含层节点数Q,并给出权系数的初值w(2)ij(0),w(3)li(0),选定学习速率和平滑因子,k=1;,2).采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k);,3).对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入;,4).前向计算NN的各层神经元的输入和输出,NN输出层的输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k);,5).计算PID控制器的控制输出u(k),参与控制和计算;,6).前向计算NNM的各层神经元的输入和输出,NNM的输出为 ,计算修正隐含层和输出层的权系数;,7).计算 ;,8).计算修正输出层的权系数w(3)li(k);,9).计算修正隐含层的权系数w(2)ij(k);,10).置k=k+1,返回到“2)”。,39,
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传
相似文档                                   自信AI助手自信AI助手

当前位置:首页 > 包罗万象 > 大杂烩

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服