ImageVerifierCode 换一换
格式:DOC , 页数:17 ,大小:979.04KB ,
资源ID:9149641      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/9149641.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(神经网络学习算法matlab仿真.doc)为本站上传会员【仙人****88】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

神经网络学习算法matlab仿真.doc

1、东南大学自动化学院 智能控制概论 神经网络学习算法研究 学 院: 姓 名: 学 号: 日 期: 目 录 1 任务要求叙述 3 2 系统分析及设计原理 3 3 设计实现 5 4仿真验证 6 5 讨论与分析 16 一.任务要求叙述 (1) 任务 (a) 运行算法,观察和分析现有学习算法的性能; clear

2、 all;close all; nu=20;pi=3.1415926; for i=1:nu p(i)=2*pi*i/nu; t(i)=0.5*(1+cos(p(i))); end minmax=[min(p(:)) max(p(:))] net = newff([ 0 7],[6 1],{'logsig' 'purelin'},'traingd');% traingd traingdm trainlm net.trainParam.epochs = 10000; net.trainParam.goal = 0.0001; net.trainParam.

3、show=200; net.trainParam.lr=0.1; net.trainParam.mc=0.6; %0.9 default value; available for momentum net = train(net,p,t); y1 = sim(net,p); figure(2); plot(p,t,'*-',p,y1,'r--') %************** test data ****************** nu2=nu*3/2; for i=1:(nu2) p2(i)=2*pi*i/(nu2); t2(i)=0.5*

4、1+cos(p2(i))); end y2 = sim(net,p2); figure(3); plot(t2,'*-');hold on; plot(y2,'r'); xlabel('times');ylabel('outputs'); figure(4); plot(t2-y2); xlabel('times');ylabel('error'); (b) 为了进一步提高学习逼近效果,可以采取那些措施,调节规律如何?根据所提的每种措施,修改算法程序,给出仿真效果验证、过程以及相应的曲线图,给出适当的评述; (c) 联系、结合前向神经网络的算法样本

5、学习、测试等过程,谈谈本人对神经网络系统的一些认识和看法。 (2)要求 提交完整的报告,包括:封面(题目、个人学号姓名等信息)、目录、任务要求叙述、系统分析及设计原理(包括神经网络学习过程的原理图及文字分析)、完整的设计实现过程(包括神经网络结构、参数等选择与实现、计算、原理过程等)、仿真验证(算法流程图、实现手段介绍、系统参数选择、曲线图、结合调参对响应曲线的影响给出必要的分析)、讨论与分析,总字数要求在2000以上。 二.系统分析及设计原理 (1)神经网络的学习算法 学习过程实质上是针对一组给定的输入使网络产生相应的期望输出的过程。总的来说,神经网络的学习算法分为两大类:

6、有导师学习和无导师学习。 输入信号X 网络输出Y 神经网络 输入信号X 期望输出T 网络输出Y 神经网络 距离计算 图 1:有导师指导神经网络学习方式 图 2无导师指导神经网络学习方式 由上图可见,所谓有导师学习就是在训练过程中,始终存在一个期望的网络输出。期望输出和实际输出之间的距离作为误差度量并用于调整权值。而无导师学习指的是网络不存在一个期望的输出,因而没有直接的误差信息,因此,为实现对网络的训练,徐建立一个简洁的评价函数,以对网络的某种行为取向做出评价。 (2)多层传播网络的学

7、习算法 给定组样本。这里为维输入矢量,为维期望的输出矢量,,.假设矢量和分别表示网络的输出层和隐含层的输出矢量。则训练过程为: (1) 选,作为最大容许误差,并将权系数初始化成某一小的随机权矩阵。 (2) 训练开始 按照计算出各隐含层神经元的尽力输出,按照计算出各输出层神经元的激励输出。 (3) 计算误差 (4) 按公式 计算出 (5) 调整权阵系数 (6) 若,,跳转到(2),否则跳转到(7) (7) 若,结束,否则,跳转到(2)。 三.设计实现 (1)神经网络的结构(BP算法的神经网络结构) 下图是一个多层传播结构。即在输入层和输出层之

8、间嵌入一层或多层隐含层的网络结构。隐含层单元既可以与叔叔出单元相连也可以与其他隐含层单元相连。隐含层单元与输入单元之间通过突触权系数连接,并可用矩阵表示全部关系。隐含层单元与输出单元之间通过突触权系数连接,全部关系可用矩阵表示。 图 3:神经网络结构图 (2)Maltab神经网络工具箱 1 函数介绍 ① newc()创建级联前向网络 ② ②newff()创建前向BP网络 ③ ③newffd()创建存在输入延迟的前向网络 在此次实验中,采用第二个函数即创建的是前向BP网络。 前向网络中各神经元接受前一级的输入,并输出到下一级,网络中没有反馈,可以用一个有向无环路图表示,这种神

9、经网络称为前向网络。前向网络中节点分为两类,输入节点和计算节点。每个输入节点可以有任意个输入,但只有一个输出。而输出可以耦合到任意多个其他节点的输入。前向网络通常可以分为不同的层,第i层的输入仅与第i-1层的输出连接。一般认为输入节点为第一层,具有一层计算节点的网络实际上是一个两层网络。由于输入节点和输出节点可以和外界连接,直接接受环境的影响,所以称为可见层。而其他中间层则称为隐层。 2 Newff()函数参数介绍 newff函数的格式为:net=newff(PR,[S1 S2 ...SN],{TF1 TF2...TFN},BTF,BLF,PF),函数newff建立一个可训练的前馈网络

10、 输入参数说明: PR:Rx2的矩阵以定义R个输入向量的最小值和最大值; Si:第i层神经元个数; TFi:第i层的传递函数,默认函数为tansig函数; BTF:训练函数,默认函数为trainlm函数; BLF:权值/阀值学习函数,默认函数为learngdm函数; PF:性能函数,默认函数为mse函数。 3 程序中参数含义 (1) Newff()函数中的参数 a) 传递函数有三种 tansig(n)=2/(1+exp(-2*n))-1 logsig(n)=1/(1+exp(-n)) purelin(n)=n b) 训练函数有12种 trainbrBa

11、yes  规范化BP训练函数 trainc   循环顺序渐增训练函数 traincgb   Powell-Beale连接梯度BP训练函数 traincgf   Fletcher-Powell连接梯度BP训练函数 traincgp   Polak-Ribiere连接梯度BP训练函数 traingda  自适应lrBP的梯度递减训练函数 traingdx   动量及自适应lrBP的梯度递减训练函数 trainlm   Levenberg-Marquardt BP训练函数 trainoss   一步正切BP训练函数 trainr   随机顺序递增更新训练函数 trainrp   

12、带反弹的BP训练函数 trains   顺序递增BP训练函数 trainscg   量化连接梯度BP训练函数 (2) 其他参数 net.trainParam.epochs=10000; 允许最大训练步数10000 net.trainParam.goal=0.001; 训练目标最小误差0.001 net.trainParam.show=200; 每间隔200步显示一次训练结果 net.trainParam.lr=0.1; 学习步长0.1 net.trainParam.mc=0.6; 动量因子 四.仿真验证 (

13、1)参数调节方法 首先改变传递函数,保持其他参数不变的条件下,将传递函数换成其余两个传递函数,观察运行结果,比较选出最符合要求的传递函数;然后使用最符合要求的传递函数,改变训练函数,同样选出最符合要求的训练函数;最后使用最符合要求的传递函数和训练函数,改变精度、步长、动量因子,比较分析,总结变化规律。 (2)调节运行结果 1 初始运行结果 图 4:初始结果 minmax = 0.3142 6.2832 TRAINGD, Maximum epoch reached, performance goal was not met. 在初始算法中,采用的是net = n

14、ewff([ 0 7],[6 1],{'logsig' 'purelin'},'traingd'); 由上图发现即使最大步长为10000 Epochs,最后也没有收敛到我们所需要的精度。这是因为traingd为单纯的梯度下降训练函数。训练速度比较慢,而且容易陷入局部最小的情况。 2 修改传递函数 将传递函数logsig改为tansig,即传递函数为2/(1+exp(-2*n))-1; 程序为net = newff([ 0 7],[6 1],{'tansig' 'purelin'},'traingd'); 结果发现改变传递函数并没有对测试数据的结果有过多的变化,说明传递函数对系统的性能的

15、影响不大,那么还是选用初始的传递函数logsig 。 minmax = 0.3142 6.2832 TRAINGD, Maximum epoch reached, performance goal was not met. 图 5:改变传递函数的结果 3 第一次修改训练函数 将训练函数traingd改为traingdm,即net = newff([ 0 7],[6 1],{' logsig' 'purelin'},'traingdm'); 图 6:训练函数为traningdm的结果 minmax = 0.3142 6.283

16、2 TRAINGDM, Maximum epoch reached, performance goal was not met. 经过10000次训练后,traningdm网络的输出误差与traningd训练算法的结果差不多,网络误差的收敛速度也非常慢。Traningdm是动量梯度下降算法,和traningd 一样是启发式训练算法,它的使用类似于函数 traingd 。 4 第二次修改训练函数 将训练函数改为trainlm,即net = newff([ 0 7],[6 1],{' logsig' 'purelin'},' trainlm'); 图 7:训练函数为trainlm

17、的结果 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. 结果表明仅仅经过6次训练后,网络误差就已经收敛了。说明trainlm算法效果最好,由于误差只是0.001,所以在这个情况下可以加强误差限制。同时在改变步长和动量因子,观察其对结果的影响。 5 修改程序中的其他参数 以下研究分析都是在传递函数为logsig,训练函数为trainlm的基础上进行的。 a) 改变动量因子 I. net.trainParam.mc=0.9 图 8:改变动量因子结果1 minmax = 0.314

18、2 6.2832 TRAINLM, Performance goal met. II. net.trainParam.mc=0.6 图 9:改变动量因子结果2 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. III. net.trainParam.mc=0.4 图 10:改变动量因子结果3 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. 比较以上三组结果可知,他们的训练效果都是不错的,而

19、当mc 减小时,发现收敛速度变快,收敛的精度的方向却是不同的。 b) 改变步长的结果(保持net.trainParam.mc=0.6) I. net.trainParam.lr=0.05 图 11:改变训练步长结果1 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. II. net.trainParam.lr=0.5的效果 图 12:改变训练步长结果2 minmax = 0.3142 6.2832 TRAINLM, Performance goal met

20、 III. net.trainParam.lr=1的效果 图 13:改变训练步长结果3 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. IV. net.trainParam.lr=5的效果 图 14:改变训练步长结果4 minmax = 0.3142 6.2832 TRAINLM, Performance goal met. V. net.trainParam.lr=5 图 15:改变训练步长结果5 minmax = 0.

21、3142 6.2832 TRAINLM, Performance goal met. 比较以上5组运行结果可知,当步长在以上选取的数值范围内,误差总会收敛到我们想要的结果。而当步长较大时,收敛速度加快了,误差开始有增大的趋势。 五.讨论与分析 虽然模糊控制和神经网络都是典型的智能控制方法,模糊控制解决的是用机器模拟人脑的感知、推理等智能行为方面,但在处理数值数据和自学习能力等方面远没有达到人脑的境界;而神经网络是从人脑的生理学和心理学着手,模拟人脑细胞的分布式工作特点和自组织功能实现并行处理、自学习和非线性映射等能力。 传统的BP学习算法本质上都是梯度搜索法,不可避免的存在极值点附近训练速度相当慢的缺陷。现在许多算法都采用启发式的方法进行改进,而BP算法和它的改进算法对他们的训练问题都存在不可预见性。因此,在基于BP 算法的神经网络应用中,应该具体问题具体分析,很难确定哪一种训练算法的收敛速度更快,占用内存更少,因为这取决于问题的复杂性、训练样本、网络权值和阀值个数及期望误差等许多问题。 本次设计作业让我对神经网络的模型结构和学习算法有了深入的理解,和模糊控制做了明显的区分。以上只是简单的实验性分析探讨,还有更多的内容、知识和方法需要我们去学习、探索和研究,发现问题、解决问题,寻找缺陷,不断改善。 - 17 -

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服