收藏 分销(赏)

学术讨论—人工神经网络算法.ppt

上传人:Fis****915 文档编号:439201 上传时间:2023-09-25 格式:PPT 页数:20 大小:785KB
下载 相关 举报
学术讨论—人工神经网络算法.ppt_第1页
第1页 / 共20页
学术讨论—人工神经网络算法.ppt_第2页
第2页 / 共20页
学术讨论—人工神经网络算法.ppt_第3页
第3页 / 共20页
学术讨论—人工神经网络算法.ppt_第4页
第4页 / 共20页
学术讨论—人工神经网络算法.ppt_第5页
第5页 / 共20页
点击查看更多>>
资源描述

1、o 神经网络几乎与AI同时起步,但30余年来却并未取得人工智能那样巨大的成功,中间经历了一段长时间的萧条。直到80年代,获得了关于人工神经网络切实可行的算法,以及以Von Neumann体系为依托的传统算法在知识处理方面日益显露出其力不从心后,人们才重新对人工神经网络发生(fshng)了兴趣,才是神经网络理论得到复兴。第一页,共二十页。o 到目前为止,已经出现许多神经网络模型(mxng)及相应的学习算法。其中误差逆传播(Error Back-propagation)算法(简称BP算法)是一种较常用的算法。人工神经网络可用于对物群的目标拟合、模式分类和预测。第二页,共二十页。o神经网络基本结构神

2、经网络基本结构神经元神经元o人工神经网络结构和基本原理基本上是以人脑的组织结构和活动规律为背景,它反映料人脑的某些基本特征,是人脑的某些抽象、简化或模仿。神经网络有许多并行运算的功能简单的单元组成,每个神经元有一个输出,它可以(ky)连接到许多其它神经元,每个神经元输入有多个连接通路,每个连接通路对应一个连接权系数。第三页,共二十页。第四页,共二十页。X1 X2 Xn y1y2ym输入(shr)层节点隐层节点(ji din)输出(shch)层节点 第五页,共二十页。o 这个算法的学习过程,由正向传播和反相传播组成,在正向传播过程中,输入信息从输入层经隐单元层逐层处理,并传向输入层,每一层神经元

3、的状态只影响下一层神经元的状态。如果在输出层不能得到期望得输出,则转入反向传播,将误差信号沿原来的连接通路返回(fnhu),通过修改各层神经元的权值,使得误差信号减小,然后再转入正向传播过程,反复迭代,直到误差小于给定的值为止。第六页,共二十页。o BP网络的学习过程主要由四部分组成:输入模式顺传播、输出误差逆传播、循环(xnhun)记忆训练、学习结果判别。第七页,共二十页。(1)输入模式(msh)顺传播o根据神经元模型(mxng)原理,计算中间层各神经元的激活值:o(j=1,2,p)o式中:wij-输入层至中间层连接权;o-中间层单元阀值;oP中间层单元数。第八页,共二十页。o激活函数采用S

4、型函数,即o这里之所以选S型函数作为BP神经元网络的激活函数是因为它是连续可微分的,而且更接近(jijn)于生物神经元的信号输入形式。第九页,共二十页。o阀值在学习过程(guchng)中和权值一样也不断的被修正。o同理可求出输出端的激活值和输出值。o设输出层第t个单元的激活值为则o设输出层第t个单元的实际输出值为则o(t=1,2,q)第十页,共二十页。(2)输出输出(shch)误差的逆传播误差的逆传播o 在第一步的模式顺传播计算中我们得到了网络的实际输出值,当这些实际输出值与希望(xwng)的输出值不一样时或其误差大于所限定的数值时,就要对网络进行校正。o这里的校正是从后向前进行的,所以叫做误

5、差逆传播,计算时是从输出层到中间层,再从中间层到输入层。第十一页,共二十页。(3)循环)循环(xnhun)记忆训练记忆训练o为使网络的输出误差趋于极小值。对于BP网输入的每一组训练模式,一般要经过数百次甚至上万次的循环记忆训练,才能使网络记住这一模式。这种循环记忆训练实际上就是反复重复上面介绍(jisho)的输入模式顺传播和输出误差逆传播过程,使网络记住训练过程中权值的变化。第十二页,共二十页。o(4)学习结果)学习结果(ji gu)的判别的判别 第十三页,共二十页。开始连接权及阀值初始化学习模式对提供给网络计算中间层各单元的输入、输出计算输出层各单元的输入、输出计算输出层各单元校正误差计算中

6、间层各单元的校正误差调整中间层至输出层之间的连接权及输出层各单元的输出阀值调整输入层至中间层之间的连接权及中间层各单元的输出阀值误差n学习结束是否第十四页,共二十页。oBP算法存在的缺陷oBP模型把一组样本的I/O问题变为一个非线性优化问题,使用了优化中最普通的梯度下降法,用迭代运算求解权相应于学习记忆问题,加入隐节点使优化问题的可调参数增加,从而可得到更精确的解。神经网络是一种映射表示方法,它是对简单的非线性函数(hnsh)进行复合,经过少数复合后,则可实现复杂的函数(hnsh),这对数学映射方法有着重要的启事。o但正因为它采用的的是非线性规划中的最速下降法,按误差的负梯度方向修改权值,因而

7、通常存在着一些问题。第十五页,共二十页。o1由于学习速率是固定的,因此网络的收敛速度较慢,需要较长的收敛时间(shjin)。这主要是由于学习速率太小造成的可采用变化的学习速率或自适应的学习速率加以改进。o2由于是一个非线性优化问题,则不可避免地存在有局部极小的问题。通常,在BP算法中,随机设置初始权值时,网络的训练一般较难达到全局最优。o3网络隐含层的层数和单元数的选择尚无理论上的指导,一般是根据经验或者是通过反复实验来确定。因此网络往往存在很大的冗余性,在一定程度上也增加了网络学习的负担。o4网络的学习和记忆具有不稳定性。如果增加了学习样本,训练好的网络就需要从头开始重新训练,对于以前的权值和阈值是没有记忆的。o 第十六页,共二十页。第十七页,共二十页。第十八页,共二十页。第十九页,共二十页。内容(nirng)总结神经网络几乎与AI同时起步,但30余年来却并未取得人工智能那样巨大的成功,中间经历了一段长时间的萧条。这里之所以选S型函数作为BP神经元网络的激活函数是因为它是连续可微分的,而且更接近于生物神经元的信号输入形式。但正因为它采用的的是非线性规划中的最速下降法,按误差的负梯度方向修改权值,因而通常存在着一些问题。1由于学习速率是固定(gdng)的,因此网络的收敛速度较慢,需要较长的收敛时间第二十页,共二十页。

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 行业资料 > 医药制药

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服