ImageVerifierCode 换一换
格式:PPT , 页数:20 ,大小:1.17MB ,
资源ID:438948      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/438948.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(人工神经网络应用实例分析.ppt)为本站上传会员【Fis****915】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

人工神经网络应用实例分析.ppt

1、人工神经网络的研究方法人工神经网络的研究方法(fngf)及应用及应用实实 例例 分分 析析2008.6.10第一页,共二十页。一、人工神经网络知识一、人工神经网络知识(zh shi)回顾回顾 1 1、什么是、什么是人工神经网络人工神经网络?T.Koholen的定义:的定义:“人工神经网络人工神经网络是由具有适应性的简是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够单单元组成的广泛并行互连的网络,它的组织能够(nnggu)(nnggu)模拟生物神经系统对真实世界物体所作出的交互模拟生物神经系统对真实世界物体所作出的交互反应。反应。”第二页,共二十页。2 2、神经网络基本、神经网络基

2、本(jbn)(jbn)模型模型细细胞胞体体突突触触轴轴突突树树突突图图1.生生物物神神经经元元功功能能模模型型输输入入输输出出信信息息处处理理电电脉脉冲冲形形成成传传输输图图2 BP神经网络结构神经网络结构(jigu)模型模型第三页,共二十页。3、人工神经网络、人工神经网络研究研究(ynji)(ynji)的局限性的局限性(1 1)ANNANN研究受到脑科学研究成果的限制研究受到脑科学研究成果的限制(xinzh)(xinzh)。(2 2)ANNANN缺少一个完整、成熟的理论体系。缺少一个完整、成熟的理论体系。(3 3)ANNANN研究带有浓厚的策略和经验色彩。研究带有浓厚的策略和经验色彩。(4)

3、ANN与传统技术的接口不成熟。与传统技术的接口不成熟。第四页,共二十页。(1)一般而言)一般而言,ANN与经典计算方法相比并非优越与经典计算方法相比并非优越,只有当常规方法只有当常规方法解决不了或效果不佳时解决不了或效果不佳时ANN方法才能显示出其优越性。尤其对问题的机方法才能显示出其优越性。尤其对问题的机理不甚了解或不能用数学模型表示的系统理不甚了解或不能用数学模型表示的系统,如故障诊断、特征提取和预测等如故障诊断、特征提取和预测等问题问题,ANN往往是最有利的工具。往往是最有利的工具。(2)另一方面)另一方面,ANN对处理对处理(chl)大量原始数据而不能用规则或公式描大量原始数据而不能用

4、规则或公式描述的问题述的问题,表现出极大的灵活性和自适应性。表现出极大的灵活性和自适应性。黑箱黑箱第五页,共二十页。二、神经网络的应用二、神经网络的应用(yngyng)实例实例 人工神经网络以其具有自学习、自组织、较好的人工神经网络以其具有自学习、自组织、较好的容错性和优良的非线性逼近能力,受到众多领域学者容错性和优良的非线性逼近能力,受到众多领域学者的关注。在实际应用中,的关注。在实际应用中,80%80%90%90%的人工神经网络的人工神经网络模型是采用误差反传算法或其变化形式的网络模型模型是采用误差反传算法或其变化形式的网络模型(简称(简称BPBP网络),目前主要应用于网络),目前主要应用

5、于函数函数(hnsh)(hnsh)逼近逼近、模式识别模式识别、分类分类和和数据压缩数据压缩或或数据挖掘数据挖掘。第六页,共二十页。1.样本数据样本数据1.1 收集和整理分组收集和整理分组u 采用BP神经网络方法建模的首要和前提条件首要和前提条件是有足够多足够多典型性好和精度高典型性好和精度高的样本。u为监控训练(学习)过程使之不发生“过拟合”和评价(pngji)建立的网络模型的性能和泛化能力,必须将收集到的数据随机分成训练样本、检验样本(训练样本、检验样本(10%以上)和以上)和测试样本(测试样本(10%以上)以上)3部分部分。u数据分组时还应尽可能考虑样本模式间的平衡。第七页,共二十页。1.

6、2 输入输入/输出变量的确定及其数据的预处理输出变量的确定及其数据的预处理 一般地,BP网络的输入变量即为待分析系统的内生变量(影响因子或自变量)数,一般根据专业知识确定根据专业知识确定。若输入变量较多,一般可通过主成份分析方法压减输入变量,也可根据剔除某一变量引起(ynq)的系统误差与原系统误差的比值的大小来压减输入变量。输出变量即为系统待分析的外生变量(系统性能指标或因变量),可以是一个,也可以是多个。一般将一个具有多个输出的网络模型转化为多个具有一个输出的网络模型效果会更好,训练也更方便。第八页,共二十页。1.3 数据的预处理数据的预处理要对输入数据进行预处理。要对输入数据进行预处理。如

7、果输出层节点也采用如果输出层节点也采用Sigmoid转换函数,输出变量也必须作相应的预处理,否则,输转换函数,输出变量也必须作相应的预处理,否则,输出变量也可以不做预处理。出变量也可以不做预处理。预处理的方法有多种多样,各文献采用的公式预处理的方法有多种多样,各文献采用的公式(gngsh)也也不尽相同。但必须注意的是,预处理的数据训练完成后,不尽相同。但必须注意的是,预处理的数据训练完成后,网络输出的结果要进行反变换才能得到实际值。网络输出的结果要进行反变换才能得到实际值。再者,为保证建立的模型具有一定的外推能力,最好再者,为保证建立的模型具有一定的外推能力,最好使数据预处理后的值在使数据预处

8、理后的值在0.20.8之间。之间。第九页,共二十页。2.神经网络拓扑结构的确定神经网络拓扑结构的确定2.1 隐层数的选取隐层数的选取u 一般认为,增加隐层数可以降低网络误差(也有文献认为不一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现了网络的训练时间和出现“过拟合过拟合(n h)”的倾向。的倾向。uHornik等早已证明:若输入层和输出层采用线性转换函等早已证明:若输入层和输出层采用线性转换函数,隐层采用数,隐层采用Sigmoid转换函数,则含一个隐层的转换函

9、数,则含一个隐层的MLP网络能网络能够以任意精度逼近任何有理函数。显然,这是一个存在性结论。够以任意精度逼近任何有理函数。显然,这是一个存在性结论。在设计在设计BP网络时可参考这一点,网络时可参考这一点,应优先考虑应优先考虑3层层BP网络(即有网络(即有1个隐层)。个隐层)。u一般地,靠增加一般地,靠增加隐层节点数隐层节点数来获得较低的误差,其训练效来获得较低的误差,其训练效果要比增加隐层数更容易实现。果要比增加隐层数更容易实现。第十页,共二十页。2.2 隐层节点数隐层节点数l 在在BP 网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型网络中,隐层节点数的选择非常重要,它不仅对建立

10、的神经网络模型的性能影响很大,而且是训练时出现的性能影响很大,而且是训练时出现“过拟合过拟合”的直接原因,的直接原因,但是目前理论但是目前理论上还没有一种科学的和普遍的确定方法。上还没有一种科学的和普遍的确定方法。l 目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时不宜采用。事实上,各种计算公式得到的隐层节点数有时(yush)相差几倍相差几倍甚

11、至上百倍。甚至上百倍。l为尽可能避免训练时出现为尽可能避免训练时出现“过拟合过拟合”现象,保证足够高的网络性能和泛化能现象,保证足够高的网络性能和泛化能力,力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。的结构,即取尽可能少的隐层节点数。研究表明,隐层节点数不仅与输入研究表明,隐层节点数不仅与输入/输出层的输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。素有关

12、第十一页,共二十页。在确定隐层节点数时在确定隐层节点数时必须满足下列条件必须满足下列条件:(1)隐层节点数必须小于隐层节点数必须小于N-1(其中(其中N为训练样本数),否则,为训练样本数),否则,网络模型的系统误差与训练样本的特性无关而趋于零,网络模型的系统误差与训练样本的特性无关而趋于零,即建立的网络模型没有泛化能力,也没有任何实用价值。即建立的网络模型没有泛化能力,也没有任何实用价值。同理可推得:输入层的节点数(变量数)必须小于同理可推得:输入层的节点数(变量数)必须小于N-1。(2)训练样本数必须多于网络模型的连接权数训练样本数必须多于网络模型的连接权数,一般为,一般为210倍,倍,否

13、则,样本必须分成几部分并采用否则,样本必须分成几部分并采用“轮流训练轮流训练”的方法的方法才可能得到才可能得到(d do)可靠的神经网络模型。可靠的神经网络模型。第十二页,共二十页。p若隐层节点数太少,网络可能根本不能训练或网络若隐层节点数太少,网络可能根本不能训练或网络 性能很差;若隐层节点数太多,虽然可使网络的系性能很差;若隐层节点数太多,虽然可使网络的系 统误差减小,但一方面使网络训练时间延长;统误差减小,但一方面使网络训练时间延长;p另一方面,训练容易陷入局部极小另一方面,训练容易陷入局部极小(j xio)点而得不到最优点而得不到最优 点,也是训练时出现点,也是训练时出现“过拟合过拟合

14、的内在原因。的内在原因。p因此,合理隐层节点数应在综合考虑网络结构复杂因此,合理隐层节点数应在综合考虑网络结构复杂 程度和误差大小的情况下用程度和误差大小的情况下用节点删除法节点删除法和和扩张法扩张法确确 定。定。第十三页,共二十页。3.神经网络的训练神经网络的训练3.1 训练训练 BP网络的训练就是通过应用误差反传原理不断调整网网络的训练就是通过应用误差反传原理不断调整网络权值使网络模型输出值与已知的训练样本输出值之间的络权值使网络模型输出值与已知的训练样本输出值之间的误差平方和达到最小或小于某一期望值。虽然理论上早已误差平方和达到最小或小于某一期望值。虽然理论上早已经证明:具有经证明:具

15、有1个隐层(采用个隐层(采用Sigmoid转换函数)的转换函数)的BP网络网络可实现对任意函数的任意逼近。但遗憾的是,迄今为止还没有可实现对任意函数的任意逼近。但遗憾的是,迄今为止还没有构造性结论,即在给定有限个(训练)样本的情况下,如何设构造性结论,即在给定有限个(训练)样本的情况下,如何设计一个合理的计一个合理的BP网络模型并通过向所给的有限个样本的学习网络模型并通过向所给的有限个样本的学习(训练)来满意地逼近样本所蕴含的规律(函数关系,不仅仅是(训练)来满意地逼近样本所蕴含的规律(函数关系,不仅仅是使训练样本的误差达到很小)的问题,使训练样本的误差达到很小)的问题,目前在很大程度上还需目

16、前在很大程度上还需要依靠经验知识和设计者的经验。因此,通过训练样本的要依靠经验知识和设计者的经验。因此,通过训练样本的学习(训练)建立合理的学习(训练)建立合理的BP神经网络模型的过程,在国外被神经网络模型的过程,在国外被称为称为“艺术创造艺术创造(chungzo)的过程的过程”,是一个复杂而又十分烦琐和,是一个复杂而又十分烦琐和困难的过程。困难的过程。第十四页,共二十页。由于BP网络采用误差反传算法,其实质是一个无约束的非线性最优化计算过程,在网络结构较大时不仅(bjn)计算时间长,而且很容易限入局部极小点而得不到最优结果。目前虽已有改进改进BP法法、遗传算法(遗传算法(GA)和模拟退火算法

17、模拟退火算法等多种优化方法用于BP网络的训练(这些方法从原理上讲可通过调整某些参数求得全局极小点),但在应用中,这些参数的调整往往因问题不同而异,较难求得全局极小点。这些方法中应用最广的是增加了冲量(动量)项的改进增加了冲量(动量)项的改进BP算法。算法。第十五页,共二十页。3.2 训练训练(xnlin)函数的选择函数的选择第十六页,共二十页。第十七页,共二十页。第十八页,共二十页。3.3 学习率和冲量系数学习率和冲量系数 学习率影响系统(xtng)学习过程的稳定性。大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规则跳跃而不收敛;但过小的学习率导

18、致学习时间过长,不过能保证收敛于某个极小值。所以,一般倾向选取较小的学习率以保证学习过程的收敛性(稳定性),通常在0.010.8之间。增加冲量项的目的是为了避免网络训练陷于较浅的局部极小点。理论上其值大小应与权值修正量的大小有关,但实际应用中一般取常量。通常在01之间,而且一般比学习率要大。第十九页,共二十页。内容(nirng)总结人工神经网络的研究方法及应用实 例 分 析2008.6.10。T.Koholen的定义:“人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。1.2 输入/输出变量的确定及其数据的预处理。预处理的方法有多种多样(du zhn du yn),各文献采用的公式也不尽相同。这些方法中应用最广的是增加了冲量(动量)项的改进BP算法第二十页,共二十页。

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服