‍人工神经网络及其应用第3讲感知机及BP网络何建华电信系,华中科技大,咨信网zixin.com.cn" /> ‍人工神经网络及其应用第3讲"/>
收藏 分销(赏)

神经网络讲义-(2)ppt课件.ppt

上传人:w****g 文档编号:2807157 上传时间:2024-06-06 格式:PPT 页数:47 大小:300KB 下载积分:12 金币
下载 相关 举报
神经网络讲义-(2)ppt课件.ppt_第1页
第1页 / 共47页
神经网络讲义-(2)ppt课件.ppt_第2页
第2页 / 共47页


点击查看更多>>
资源描述
<p><span id="_baidu_bookmark_start_0" style="display: none; line-height: 0px;">‍</span>人工神经网络及其应用第3讲感知机及BP网络何建华电信系,华中科技大学2003年2月25日1.一、内容回顾二、感知机三、自适应线性元件四、内容小结内容安排2024/5/27 周一2.生物神经元人工神经网络结构神经网络基本学习算法一、内容回顾 2024/5/27 周一3.生物神经元生物神经元模型突触信息处理信息传递功能与特点人工神经网络结构神经网络基本学习算法一、内容回顾2024/5/27 周一4.生物神经元模型一、内容回顾2024/5/27 周一5.生物神经元人工神经网络结构人工神经网络人工神经元模型常见响应函数人工神经网络典型结构神经网络基本学习算法一、内容回顾2024/5/27 周一6.生物神经元人工神经网络结构神经网络基本学习算法权值确定Hebb学习规则误差校正学习规则相近(无教师)学习规则一、内容回顾2024/5/27 周一7.Hebb学习规则Donall Hebb根据生理学中条件反射机理,于1949年提出的神经元连接强度变化的规则如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强 a为学习速率,Vi,Vj为神经元i和j的输出Hebb学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形 2024/5/27 周一8.误差校正规则用已知样本作为教师对网络进行学习学习规则可由二次误差函数的梯度法导出误差校正学习规则实际上是一种梯度方法不能保证得到全局最优解要求大量训练样本,收敛速度慢对样本地表示次序变化比较敏感2024/5/27 周一9.无教师学习规则这类学习不在于寻找一个特殊映射的表示,而是将事件空间分类为输入活动区域,并有选择地对这些区域响应,从而调整参数一反映观察事件的分部输入可以为连续值,对噪声有较强抗干扰能力对较少输入样本,结果可能要依赖于输入序列在ART、Kohonen等自组织竞争型网络中采用2024/5/27 周一10.2.1 感知机简介2.2 神经元模型2.3 网络结构2.4 功能解释2.5 学习和训练2.6 局限性二、感知机2024/5/27 周一11.感知器由美国计算机科学家罗森布拉特(F.Roseblatt)于1957年提出收敛定理F.Roseblatt证明,如果两类模式是线性可分的(指存在一个超平面将它们分开),则算法一定收敛感知器特别适用于简单的模式分类问题,也可用于基于模式分类的学习控制中 本讲中感知器特指单层感知器2.1 感知机简介2024/5/27 周一12.2.2 神经元模型2024/5/27 周一13.2.3 网络结构ni 第i个神经元加权输入和ai第i个神经元输出,i1,2,s2024/5/27 周一14.2.4 功能解释感知器的基本功能是将输入矢量转化成0或1的输出根据输出值通过测试加权输入和值落在阈值函数的左右对输入数据进行分类2024/5/27 周一15.2.4 功能解释这一功能可以通过在输人矢量空间里的作图来加以解释以输入矢量r2为例对选定的权值w1、w2和b,可以在以p1和p2分别作为横、纵坐标的输入平面内画出W*P+bw1 p1十w2 p2十b0的轨迹它是一条直线,此直线上及其线以上部分的所有p1、p2值均使w1 p1十w2 p2十b0,这些点通过由w1、w2和b构成的感知器的输出为1;该直线以下部分的点通过感知器的输出为02024/5/27 周一16.2.4 功能解释2024/5/27 周一17.当采用感知器对不同的输入矢量进行期望输出为0或1的分类时,其问题可转化为对已知输入矢量在输入空间形成的不同点的位置,设计感知器的权值W和b感知器权值参数设计目的,就是根据学习法则设计一条W*P+b0的轨迹,使其对输入矢量能够达到所期望的划分2.5 网络学习与训练2024/5/27 周一18.学习规则用来计算新的权值矩阵W及新的偏差B的算法权值的变化量等于输入矢量假定输入矢量P,输出矢量A,目标矢量为T的感知器网络2.5 网络学习与训练2024/5/27 周一19.如果第i个神经元的输出是正确的,即aiti,那么与第i个神经元联接的权值wij和偏差值bi保持不变 如果第i个神经元的输出是0,但期望输出为1,即有ai0,而ti1,此时权值修正算法为:新的权值wij为旧的权值wij加上输人矢量pj;新的偏差bi为旧偏差bi加上1 如果第i个神经元的输出为1,但期望输出为0,即有ai1,而ti0,此时权值修正算法,新的权值wij等于旧的权值wij减去输入矢量pj;新的偏差bi为旧偏差bi减去12.5 网络学习与训练2024/5/27 周一20.上述用来修正感知器权值的学习算法在MATLAB神经网络工具箱中已编成了子程序,成为一个名为1earnp.m的函数。只要直接调用此函数,即可立即获得权值的修正量。此函数所需要的输人变量为:输入、输出矢量和目标矢量(P、A和T)调用命令为:dW,dBlearnp(P,A,T)2.5 网络学习与训练2024/5/27 周一21.训练思想在输入矢量P的作用下,计算网络的实际输出A,并与相应的目标矢量T进行比较,检查A是否等于T,然后用比较后的误差量,根据学习规则进行权值和偏差的调整重新计算网络在新权值作用下的输入,重复权值调整过程,直到网络的输出A等于目标矢量T或训练次数达到事先设置的最大值时训练结束2.5 网络学习与训练2024/5/27 周一22.训练算法对于所要解决的问题,确定输入矢量P,目标矢量T,并确定各矢量的维数及神经元数目:r,s和q;(1)参数初始化a)赋给权矢量w在(l,1)的随机非零初始值;b)给出最大训练循环次数max_epoch;(2)初始化网络表达式。根据输人矢量P以及最新权矢量W,计算网络输出矢量A;(3)检查过程。检查输出矢量A与目标矢量T是否相同。如果是,或已达最大循环次数,训练结束,否则转入(4)(4)学习过程。根据感知器的学习规则调整权矢量,并返回(3)2.5 网络学习与训练2024/5/27 周一23.由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题 感知器仅能够线性地将输入矢量进行分类 当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度2.6 局限性2024/5/27 周一24.三、自适应线性元件3.1 Adline简介3.2 网络结构3.3 网络学习3.4 网络训练3.5 应用举例3.6 局限性2024/5/27 周一25.3.1 Adline简介自适应线性元件(Adaptive Linear Element 简称Adaline)由威德罗(Widrow)和霍夫(Hoff)首先提出 自适应线性元件的主要用途是线性逼近一个函数式而进行模式联想。它与感知器的主要不同之处在于其神经元有一个线性激活函数,这允许输出可以是任意值,而不仅仅只是像感知器中那样只能取0或1它采用的是W-H学习法则,也称最小均方差(LMS)规则对权值进行训练2024/5/27 周一26.3.2 网络结构神经元(a)与网络(b)2024/5/27 周一27.3.3 学习规则W-H学习规则是由威德罗和霍夫提出的用来修正权矢量的学习规则 采用W-H学习规则可以用来训练一定网络的权值和偏差使之线性地逼近一个函数式而进行模式联想(Pattern Association)定义一个线性网络的输出误差函数目的是通过调节权矢量,使E(W,B)达到最小值所以在给定E(W,B)后,利用W-H学习规则修正权矢量和偏差矢量,使E(W,B)从误差空间的某一点开始,沿着E(W,B)的斜面向下滑行2024/5/27 周一28.3.3 学习规则根据梯度下降法,权矢量的修正值正比于当前位置上E(W,B)的梯度,对于第i个输出节点有:或表示为2024/5/27 周一29.3.3 学习规则为学习速率。在一般的实际运用中,实践表明,通常取一接近1的数,或取值为:自适应线性网络还有另一个潜在的困难,当学习速率取得较大时,可导致训练过程的不稳定采用W-H规则训练自适应线性元件使其能够得以收敛的必要条件是被训练的输入矢量必须是线性独立的,且应适当地选择学习速率以防止产生振荡现象2024/5/27 周一30.3.4 网络训练自适应线性元件的网络训练过程可归纳为以下四个步骤初始化。权值W,B和T表达。计算训练的输出矢量A=W*P+B,以及与期望输出之间的误差E=T-A 检查。将网络输出误差的平方和与期望误差相比较,如果其值小于期望误差,或训练已达到事先设定的最大训练次数,则停止训练;否则继续 学习。采用W-H学习规则计算新的权值和偏差,并返回到“表达”过程2024/5/27 周一31.3.5 应用举例考虑一个较大的多神经元网络的模式联想的设计问题输入矢量P和目标矢量T2024/5/27 周一32.3.5 应用举例求解精确解这个问题的求解同样可以采用线性方程组求出,即对每一个输出节点写出输入和输出之间的关系等式2024/5/27 周一33.3.5 应用举例求解神经网络训练误差记录训练后权值2024/5/27 周一34.3.5 应用举例求解神经网络由输入矢量和目标输出矢量可得:r3,s4,q4。网络的结构如下图示2024/5/27 周一35.3.5 应用举例分析Adline与方程求解求解前述16个方程不太容易,需要一定时间对一些实际问题,如果不需要求出其完美的零误差时的解,也即允许存在一定的误差时,采用自适应线性网络求解可以很快地训练出满足一定要求的网络权值如果输入矢量具有奇异性,用函数solvelin.m求解精确解时将产生问题。而神经网络则能得到较好的性能2024/5/27 周一36.3.6 Adline与感知机网网络模型模型结构构上上 感知器和自适应线性网络而言,结构上的主要区别在于激活函数,分别为二值型和线性学学习算法算法 感知器的算法是最早提出的可收敛的算法它的自适应思想被威德罗和霍夫发展成使其误差最小的梯度下降法在BP算法中得到进一步的推广,它们属于同一类算法适用性与局限性适用性与局限性 感知器仅能够进行简单的分类。感知器可以将输入分成两类或四类等,但仅能对线性可分的输入进行分类。自适应线性网络除了像感知器一样可以进行线性分类外,还可以实现线性逼近,因为其激活函数可以连续取值而不同于感知器的仅能取0或1的缘故2024/5/27 周一37.四、内容小结内容回顾感知机自适应线性元件下次讲课内容2024/5/27 周一38.四、内容小结内容回顾生物神经元人工神经网络结构神经网络基本学习算法感知机自适应线性元件下次讲课内容2024/5/27 周一39.四、内容小结内容回顾感知机感知机简介神经元模型网络结构功能解释学习和训练局限性自适应线性元件下次讲课内容2024/5/27 周一40.四、内容小结内容回顾感知机自适应线性元件Adline简介网络结构网络学习网络训练应用举例局限性下次讲课内容2024/5/27 周一41.四、内容小结内容回顾感知机自适应线性元件下次讲课内容BP神经网络2024/5/27 周一42.The EndQuestions&amp;SuggestionsThanks!2024/5/27 周一43.后面内容直接删除就行资料可以编辑修改使用资料可以编辑修改使用2024/5/27 周一44.主要经营:网络软件设计、图文设计制作、发布广告等公司秉着以优质的服务对待每一位客户,做到让客户满意!2024/5/27 周一45.致力于数据挖掘,合同简历、论文写作、PPT设计、计划书、策划案、学习课件、各类模板等方方面面,打造全网一站式需求2024/5/27 周一46.感感谢您的您的观看和下看和下载The user can demonstrate on a projector or computer,or print the presentation and make it into a film to be used in a wider field2024/5/27 周一47.</p>
展开阅读全文

开通  VIP会员、SVIP会员  优惠大
下载10份以上建议开通VIP会员
下载20份以上建议开通SVIP会员


开通VIP      成为共赢上传

当前位置:首页 > 通信科技 > 网络/通信

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2026 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服