资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,神经网络原理,王永骥,*,6、,基于二阶收敛阶的学习算法,7、对角回归神经网络及其学习算法,8、辐射基函数神经网络,9、霍普菲尔德神经网络,10、自组织竞争,神经网络原理,1,王永骥,神经网络的学习算法,1、,学习算法的类型,决定性质的两个因素:拓扑结构、学习(工作)规划,2、,无监督,Hebb,算法,神经网络原理,2,王永骥,介绍四种类型的网络,1、前向型,2、反馈型,3、随机型,4、自组织竞争型,神经网络原理,3,王永骥,有监督学习,学习结果(网络输出)有一评价,差值决定加权调整,神经网络原理,6,王永骥,无监督学习,自组织学习 网络根据某种规则反复调整加权以响应输入模式的激励,直到网络形成某种有序状态,抽取输入信号规律(统计规律),学习评价标准隐含于网络内部,学习规则:,Hebb,相近学习规则,必要条件:输入数据的冗余性,作用:主元分析、聚类、特征映射,神经网络原理,7,王永骥,有、无监督混合学习,优点:分类精细、准确、灵活、简练,缺点:学习慢、精度差,一般:无监督学习,抽取数据特征,数据预处理,有监督学习处理,,I/o,映射,神经网络原理,8,王永骥,无监督学习,特点:某种方法确定竞争后“获胜”神经元获胜元“1”;其它“0”,加权仅在获胜元与输入间进行(相近学习规划),神经网络原理,9,王永骥,无监督Hebb学习,利用,Hebb,规划调整加权,以适合输入模式的激励,神经网络原理,10,王永骥,模糊学习,特点:学习过程用模糊学进行测度,输入量为经过模糊化后的模拟量,I/o,关系为模糊集的运算关系,神经网络原理,11,王永骥,强化学习,1、改善有监督学习“正确目标”,非具体信息 仅知变化趋势正确或错误,2、从环境中接受反馈信息,神经网络原理,12,王永骥,无监督Hebb学习,1、,线性单元,Hebb,学习,2、,Oja,学习规划,3、,Oja,方法推广到非线性单元,神经网络原理,13,王永骥,线性单元Hebb学习,Model,(1),(2),Hebb,规则,(3),神经网络原理,14,王永骥,上式,w(k),无限增长,学习不会停止,只存在不稳定的平衡点,神经网络原理,15,王永骥,Oja学习规则,改善,Hebb,学习收敛,(5),(6),(7),引入与,y,2,成比例的衰减项,(8),其中,X(k),称为等效输入,神经网络原理,16,王永骥,隐含竞争,Oja,有自放大和竞争两作用,Oja,的学习等效与规范化的,Hebb,学习,神经网络原理,17,王永骥,神经网络原理,18,王永骥,Oja方法推广到非线性单元,神经网络原理,19,王永骥,推导 可认为是以下优化问题的解,神经网络原理,20,王永骥,神经网络原理,21,王永骥,感知器网络,1、,感知器模型,2、,学习训练算法,3、,学习算法的收敛性,4、,例题,5、,讨论,神经网络原理,22,王永骥,感知器神经元模型,感知器模型如图,Fig2.2.1,I/O,关系,图2.2.1,神经网络原理,23,王永骥,单层感知器模型如图2.2.2,定义加权系数,w,ij,为第,i,个神经元到,第,j,个神经元之间的,连接值,图,2.2.2,神经网络原理,24,王永骥,图形解释,对,n=2,的情况,分平面为两部分,WX+B,与,W,正交,神经网络原理,25,王永骥,学习训练算法,神经网络原理,26,王永骥,训练步骤,1)对于所要解决的问题,确定输入向量,X,目标向量,T,由此确定维数及网络结构参数,,n,m;,2),参数初始化;,3)设定最大循环次数;,4)计算网络输出;,5)检查输出矢量,Y,与目标矢量,T,是否相同,如果时,或以达最大循环次数,训练结束,否则转入6);,6),学习,并返回4)。,神经网络原理,27,王永骥,学习算法的收敛性,可证:在训练样本,X,P,p=1,2,K,是线性可分时,采用上式的学习方法,在有限次迭代后,必能归到正确解。,证明此处略。,神经网络原理,28,王永骥,假设,A1,输入样本,x1,x2,xk,归一化,A2|W*|=1,A3,令,tq=0,对应的样本,XB,取反向,W*XW*TX0,问题简化为对所有的,XP,训练后可以得到,W*,W*TX0,证明:因为,K,个样本线性可分,所以存在,W*,对任意,K,W*XP=d d0,余弦角,cos a,为,s(k)=W*W(k)/|W*|W(k)|,神经网络原理,29,王永骥,学习律,W(k+1)=w(k)+ux(k)u=2ne,q,左乘,W*W*W(k+1)=W*(W(k)+ux(k)=W*W(k)+ud,从,k=0,迭代,W*W(k)=W*W(0)+kud,选择,w(0)XP,满足,W*X,P,0,有,W*W(k)=k,0,ud,在,W(k),未达到,W*,时,W(k)X(k)0,所以,神经网络原理,30,王永骥,W(k)=W*,时.,S(k)=1,求解,得到,神经网络原理,31,王永骥,例题,例2.1,采用单一感知器神经元解决一个简单的分类问题:将四个输入输入矢量分为两类,其中两个矢量对应的目标值为1,另两个矢量对应的目标值为0,即,输入矢量:,P=-0.5 0.5 0.3 0.0;,-0.5 0.5 -0.5 1.0,目标分类矢量:,T=1.0 1.0 0.0 0.0,神经网络原理,32,王永骥,解,首先定义输入矢量及相应的目标矢量:,P=-0.5 0.5 0.3 0.0;,-0.5 0.5 -0.5 1.0;,T=1.0 1.0 0.0 0.0;,输入矢量可以用图/来描述,,对应于目标值0的输入矢量用符,号0表示,对应于目标值1的输,入矢量符号+表示。,输入矢量图,神经网络原理,33,王永骥,训练结束后得到如图所示的分类结果,分类线将两类输入矢量分开,其相应的训练误差的变化如图所示。这说明经过4步训练后,就达到了误差指标的要求。,分类结果 误差变化曲线,神经网络原理,34,王永骥,下面给出本例的,MATLAB,程序,%,Example pre.m,%,clf reset,figure(gcf),setfsize(300,300);,echo on,%NEWP,建立一个感知器神经元,%,INIT,对感知器神经元初始化,%,TRAIN,训练感知器神经元,%,SIM,对感知器神经元仿真,pause,%,敲任意键继续,clc,%,P,为输入矢量,P=-0.5-0.5+0.3+0.0;,-0.5+0.5-0.5 1.0;,%T,为目标矢量,T=1 1 0 0;,pause,%,绘制输入矢量图,plotpv(P,T);,pause,%,定义感知器神经元并对其初始化,net=newp(-0.5 0.5;-0.5 1,1);,net.initFcn=,initlay,;,net.layers1.initFcn=,initwb,;,神经网络原理,35,王永骥,net.inputWeights1,1.initFcn=,rands,;,net.layerWeights1,1.initFcn=,rands,;,net.biases1.initFcn=,rands,;,net=init(net);,echo off,k=pickic;,if,k=2,net.iw1,1=-0.8161 0.3078;,net.b1=-0.1680;,end,echo on,plotpc(net.iw1,1,net.b1),pause,%,训练感知器神经元,net=train(net,P,T);,pause,%,绘制结果分类曲线,plotpv(P,T),plotpc(net.iw1,1,net.b1);,pause,%,利用训练完的感知器神经元分类,p=-0.5;0;,a=sim(net,p),echo off,神经网络原理,36,王永骥,讨论局限性,1)由于激活函数为阀值函数,输出矢量只能取0,1,说已仅可以解决简单的分类问题;,2)输入矢量线性可分时,学习在有限次数内收敛;,3)输入矢量的奇异性导致较慢的收敛。比如当输入/输出矢量分别为:,P=-0.5 0.5+0.3 0.1 80,-0.5+0.5 0.5+1.0 100;,T=1 1 0 0 1;,时,必然导致训练的困难;,4)异或问题不可解。,神经网络原理,37,王永骥,线性神经网络,1、,线性神经元模型,2、,学习训练算法,3、,例题与分析,神经网络原理,38,王永骥,线性神经元模型,线性神经元模型如图2.3.1所示:,I/O,关系,a=purelin(W*P+b),图 2.3.1,神经网络原理,39,王永骥,W-H,学习算法,神经网络原理,40,王永骥,神经网络原理,41,王永骥,训练步骤:,(1)表达:计算训练的输出矢量,A=W*P+B,,以及与期望输出之间的误差,E=T-A;,(2),检查:将网络输出误差的平方和与期望误差相比较,如果其值小于期望误差,或训练以达到事先设定的最大训练次数,这停止训练;否则继续:,(3)学习:采用,W-H,学习规则计算性的权值和偏差,并返回到(1)。,神经网络原理,42,王永骥,例题与分析,例2.2,设计一个简单的单层线性神经元。,解 首先,定义输入样本矢量和目标矢量,P=+1.0 -1.2;,T=+0.5 +1.0;,然后,利用函数,newlind,设计一个线性层作为单层线性神经元。,最后,利用函数,sim,对网络进行检验。,下面是本例的,MATLAB,程序。,神经网络原理,43,王永骥,%,Example 3.8,%,clf;,figure(gcf),setfsize(500,200);,echo on,clc,%NEWLIND,建立一个线性神经网络,%,SIM,对线性神经网络仿真,pause,clc,P=1.0-1.2;,T=0.5 1.0,;,pause,%,绘制误差曲面,w_range=-1:0.1:1;,b_range=-1:0.1:1;,神经网络原理,44,王永骥,ES=errsurf(P,T,w_range,b_range,purelin,);,plotes(w_range,b_range,ES);,pause,%,设计一个线性神经网络,net=newlind(P,T);,W=net.iw1,1,b=net.b1,pause,%,计算输出误差,A=sim(net,P);,E=T-A;,SSE=sumsqr(E),%,在误差曲面上绘制权和偏差的位置,plotep(W,b,SSE),p=-1.2;,a=sim(net,p),echo off,神经网络原理,45,王永骥,讨论,1)收敛性,修正的,学习规则,,P(K),标么化,W(k+1)=W(k)+e(k)P(k)/|P(k)|,2,|P(k)|,2,P,2,i,(k),e(k)=t(k)-P,T,(k)W(k),E(k)=t(k)-P,T,(k)W(k)=P,T,(k)W(k),代入,W(k)e(k)P,T,(k)P(k)/|P(k)|,2,=,e(k),即:,e(k+1)-e(k)=e(k),神经网络原理,46,王永骥,当01-,0,(0,2),实际取值范围,(0.1,1),2),可以取接近1的数。或者照以下公式,=0.99*1/,max(detP(k)P,T,(k),Matlab,中函数,lr=0.99*maxlinlr(P,1);,神经网络原理,47,王永骥,3),matlab,相关学习函数,Learnwh.m,4)2,种改进学习算法,i),收敛性结论同前,e(k+1)=(1-)e(k),ii),高收敛阶算法,神经网络原理,48,王永骥,取,f(),不同形式,可以得到不同的收敛阶次,E(k+1)=e(k)e(k+1)1.618,E(k+1)=e(k),2,E(k+1)=e(k),3,注意问题 收敛区域不同,神经网络原理,49,王永骥,注意问题 收敛区域不同,大范围,其余 必须,|e(k)|maxH,a,1,=,tansig(IW,1,1,p,1,+b,1,),tansig(x)=tanh(x)=(e,x,-e,-x,)/(e,x,+e,-x,),H-O,a,2,=,purelin(LW,2,1,a,1,+b,2,),输入层神经元个数,n,隐含层神经元个数,n1,输出层神经元个数,s2,神经网络原理,53,王永骥,学习(训练),输入,q,组样本,p,1,p,2,.,p,q,p,i,R,n,期望输出,T,1,T,2,.,T,q,T R,s2,网络输出,a2,1,a2,2,.,a,2q,a,2,R,s2,解决方法 误差最小,实质为一个优化问题,思路1:梯度法(,gradient),找出误差与加权系数的关系,得到加权系数改变的规律,神经网络原理,54,王永骥,学习训练算法,神经网络原理,55,王永骥,神经网络原理,56,王永骥,BP算法解释,输出层误差,e,j,(j=1-s2),隐含层误差,e,i,(i=1-n1),e,i,与,e,j,的关系?,e,i,可以认为是由,e,j,加权组合形成的。由于作用函数的存在,,e,j,的等效作用为,j i,=e,j,f,(),神经网络原理,57,王永骥,导数,logsig,matlab,函数:,dA_dN=dlogsig(N,A),tansig,matlab,函数:,dA_dN=dtansig(N,A),神经网络原理,58,王永骥,MATLAB函数,旧版下的训练函数为:,trainbp.m,Tp=disp_freq max_epoch err_goal lr;,w,b,epochs,errors=trainbp(w,b,F,P,T,Tp);,F,为网络的激活函数名:,tansig,logsig,purelin,而在新版下完全不同:,首先建立一个网络,net=newff(-2 2,5 1,tansig purelin,traingd);,计算输出:,y1=sim(net,P);,神经网络原理,59,王永骥,绘图:,plot(P,T,*);,训练:,net,tr,=,train(net,P,T);,训练函数有很多种,如:,traingd,traingdm,traingdx,trainlm,在训练之前要对网络进行初始化,并设置好训练参数。,初始化:,net.iw1,1=W10;,net.b1=B10;,net.lw2,1=W20;,net.b2=B20;,神经网络原理,60,王永骥,参数设置:,net.trainParam.epochs=100;%,最大训练次数,net.trainParam.goal=0.01;%,训练所要达到的精度,net.trainParam.show=10;%,在训练过程中显示的频率,net.trainParam.lr=0.1;%,学习速率,神经网络原理,61,王永骥,例题函数逼近,例2.3,应用两层,BP,网络来完成函数逼近的任务,其中隐含的神经元个数选为5个。网络结构如图2.4.1所示。,图:2.4.1,神经网络原理,62,王永骥,解 首先定义输入样本和目标矢量,P=-1:.1:1;,T=-.9602-.5770.0729.3771.6405.6600,.4609.1336 -.2013 -.4344 -.5000 -.3930,-.1647 .0988,.3072 .3960 .3449 .1816 -.0312 -.2189 -.3201;,上述数据的图形如图2.4.2所示。,图:2.4.2,神经网络原理,63,王永骥,利用函数,newff,建立一个,bp,神经元网络,net=newff(minmax(P),5 1,tansig purelin,traingd,learngd,sse);,然后利用函数,train,对网络进行训练,net.trainParam.show=10;,net.trainParam.epochs=8000;,net.trainParam.goal=0.02;,net.trainParam.lr=0.01;,net,tr=train(net,P,T);,神经网络原理,64,王永骥,图2.4.3至图2.4.6,给出了网络输出值随训练次数的增,加而变化的过程。,图2.4.7,给出了454次训练后的最终,网络结果,以及网络的误差纪录。,同时还可以用函数,sim,来计算网络的输出,a1=sim(net,P),下面给出本例的,MATLAB,程序,神经网络原理,65,王永骥,图2.4.3 训练100次的结果 图2.4.4 训练200次的结果,图2.4.5 训练300次的结果 图2.4.6 训练400次的结果,神经网络原理,66,王永骥,图2.4.7 训练结束后的网络输出与误差结果,神经网络原理,67,王永骥,%,Example 3.13,%,clf;,figure(gcf),setfsize(500,200);,echo on,%NEWFF,建立一个,BP,网络,%,TRAIN,对,BP,网络进行训练,%,SIM,对,BP,网络进行仿真,pause,P=-1:.1:1;,T=-.9602-.5770-.0729 .3771 .6405 .6600 .4609,.,.1336-.2013-.4344-.5000-.3930-.1647 .0988,.,.3072 .3960 .3449 .1816-.0312-.2189-.3201;,plot(P,T,+,);,title(,Training Vectors,);,xlabel(,Input Vector P,);,ylabel(,Target Vector T,);,pause,net=newff(minmax(P),5 1,tansig purelin,traingd,learngd,sse,);,echo off,k=pickic;,if,k=2,net.iw1,1=3.5000;3.5000;3.5000;3.5000;3.5000;,神经网络原理,68,王永骥,net.b1=-2.8562;1.0774;-0.5880;1.4083;2.8722;,net.lw2,1=0.2622-0.2375-0.4525 0.2361-0.1718;,net.b2=0.1326;,end,net.iw1,1,net.b1,net.lw2,1,net.b2,pause,echo on,me=8000;,net.trainParam.show=10;,net.trainParam.goal=0.02;,net.trainParam.lr=0.01;,A=sim(net,P);,sse=sumsqr(T-A);,for,i=1:me/100,if,sse0,(i,j=1,2,n),。,有一旅行商从某一城市出发,访问各城市一次且仅一次后再回到原出发城市。要求找出一条最短的巡回路线。,神经网络原理,186,王永骥,N=5 TSP Probelm,N=5,,,并用字母,A,、,B,、,C,、,D,、,E,、,分别代表这,5,个城市。当任选一条路径如,B-D-E-A-C,,,则其总路径长度可表示为,第一步就是将问题映照到一个神经网络。假定每个神经元的放大器有很高的放大倍数,神经元的输出限制在二值,0,和,1,上,则映照问题可以用一个换位矩阵(,Permutation Matrix,),来进行,换位矩阵可如下图所示。,神经网络原理,187,王永骥,换位矩阵,次序,城市,1,2,3,4,5,A,0,0,0,1,0,B,1,0,0,0,0,C,0,0,0,0,1,D,0,1,0,0,0,E,0,0,1,0,0,神经网络原理,188,王永骥,约束条件和最优条件,矩阵的每个元素对应于神经网络中的每个神经元,则这个问题可用,N,2,=5,2,=25,个神经元组成的,Hop-field,网络来求解。,问题的约束条件和最优条件如下:,(1),一个城市只能被访问一次=换位矩阵每行只有一个“,1,”。,(,2,)一次只能访问一个城市=换拉矩阵每列只有一个“,1,”。,(,3,)总共有,N,个城市=换位矩阵元素之和为,N,。,(4,),求巡回路径最短=网络能量函数的最小值对应于,TSP,的最短路径。,神经网络原理,189,王永骥,结论,用,v,ij,表示换位矩阵第,i,行、第,j,列的元素,显然只能取1或0。同时,,v,ij,也是网络神经元的状态。,结论:,构成最短路径的换位矩阵一定是形成网络能量函数极小点的网络状态。,神经网络原理,190,王永骥,网络能量函数的构成,神经网络原理,191,王永骥,续1,神经网络原理,192,王永骥,续2,神经网络原理,193,王永骥,续3,神经网络原理,194,王永骥,能量函数表达式,神经网络原理,195,王永骥,网络加权及阀值,神经网络原理,196,王永骥,求解,TSP,网络的迭代方程,神经网络原理,197,王永骥,迭代步骤,神经网络原理,198,王永骥,迭代续1,神经网络原理,199,王永骥,自组织竞争,1、,简介,2、,基本竞争型神经网络及其学习规则,3、,抑制竞争型神经网络及其学习规则,4、,自组织特征映射神经网络(,SOFM),神经网络原理,200,王永骥,自组织竞争(ANN)的简介,在人类的认识过程中,除了从教师那里得到知识外,还有一种不需要通过教师自动的向环境学习的能力,这种仅依靠环境刺激的“无师自通”的功能有称为自组织学习方法。,在网络结构上,它一般是由输入层和竞争层构成的两层网络。两层之间各神经元实现双向连接,而且网络没有隐含层。有是竞争层各神经元之间还存在横向连接。,神经网络原理,201,王永骥,在学习算法上,它模拟生物神经系统依靠神经元之间的兴奋、协调与抑制、竞争的作用来进行信息处理的动力学原理指导网络的学习与工作,而不像大多数神经网络那样是以网络的误差或能量函数作为算法的准则。,以竞争型神经网络为基础可以构成一些具有自组织能力的网络。如:自适应共振理论(,Adaptive Resonance Theory),网络,自组织特征映射(,Self-Organizing Feature Map),网络,,对向传播(,Counter Propagation),网络。,神经网络原理,202,王永骥,基本竞争型神经网络及其学习规则,1、,基本结构,2、,学习规则,神经网络原理,203,王永骥,基本结构,竞争型神经网络由多种形式和算法,常用的一种基本结构如图2.9.1所示。其中,输入层有,n,个神经元,输出层,有,m,个神经元。网络的连接权,图2.9.1,神经网络原理,204,王永骥,学习规则,神经网络原理,205,王永骥,神经网络原理,206,王永骥,神经网络原理,207,王永骥,神经网络原理,208,王永骥,抑制竞争型神经网络及其学习算法,除了靠竞争手段使神经元获胜的方法外,还有靠抑制手段使神经元获胜的方法。,这种网络学习算法的基本思想是:当竞争层某个神经元的输入值大于其它所有神经元的输入值时,依靠其输出所具有的优势(即其输出值较其他的神经元大)通过抑制作用将其它神经元的输出之逐渐减小。这样,竞争层各神经元的输出就形成连续变化的模拟量。这里具体介绍以下两点:,1、,网络的结构,2、,网络的学习规则,神经网络原理,209,王永骥,抑制竞争型神经网络结构,抑制竞争型神经网络结构图如图2.9.2所示。,特点:竞争层之间存在起抑制作用的横向连接(非连接加权,无具体数值),神经网络原理,210,王永骥,抑制竞争型神经网络结构,神经网络原理,211,王永骥,网络的学习规则,神经网络原理,212,王永骥,神经网络原理,213,王永骥,神经网络原理,214,王永骥,自组织特征映射神经网络(,SOFM),1981年芬兰学者,Kohonen,提出一个称之为自组织映射(,Self-Organizing Feature MapSOFM,)的神经网络。大脑神经细胞的区域性结构和自组织特性,大脑神经细胞的记忆方式以及神经细胞兴奋刺激的规律等在这一网络中都得到了反映。,神经网络原理,215,王永骥,BNN成果,1)区域性:,视觉,听觉,预言理解,运动控制,2),自组织:遗传加上学习,3)记忆方式:一群元对应于一个模式,4)兴奋刺激规律:墨西哥草帽型,,中间强度大,逐渐衰减,远离中心的受到抑制(+-),神经网络原理,216,王永骥,墨西哥草帽函数,神经网络原理,217,王永骥,主要内容,下面介绍,SOFM,网络的模型结构、学习算法及网络特性。,1、,网络模型结构,2、,竞争层竞争规则,3、,学习工作规划,4、,一个实例,神经网络原理,218,王永骥,SOFM,网络模型结构,两层网络输入:,n,个元 输出:,mxm,个元,神经网络原理,219,王永骥,竞争层竞争规则,在竞争层中,神经元的竞争使这样进行的:对于获胜的那个神经元,g,,在其周围,N,g,的区域内,神经元在不同程度上都得到兴奋,而在,N,g,以外的神经元都被抑制。,这个,N,g,形状可以是任何形状,但一般是均匀对称的,,例如,正方形或六角形。,N,g,是时间函数,用,N,g,(t),表示,随,t,增加,,N,g,(t),减小,最后达到预定的范围。,SOFM,网络在无教师示教的情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出来这种表现方式的不同之处在于:它不是以一个神经元或者网络的状态矢量反映分类结果的,,神经网络原理,220,王永骥,工作区域,神经网络原理,221,王永骥,而是以若干神经元同时(并行)反映结果。与这若干神经元相连的连接权虽略有差别,但这些神经元的分类作用基本上是并列的,即其中任何一个神经元都能代表分类结果火近似分类结果。,此外,这种网络之所以称为特征映射网络,是因为网络通过对输入模式的反复学习,可以是连接权矢量的空间分布密度与输入模式的概率分布趋于一致,即连接权矢量的空间分布能反映输入模式的统计特征。,可见,,SOFM,网络可用于样本排序、样本分类及样本特征检测等。,神经网络原理,222,王永骥,学习工作规则,神经网络原理,223,王永骥,神经网络原理,224,王永骥,神经网络原理,225,王永骥,讨论分析,1。,(t),调整粗调,(t)0.5,细调,(t)=0.5,2.U,w,归一化,加快,w-u,的速度,3。,W(0),初始化,视情况分析,三种方法,p141,4。Ng(t),更新,,Ng(0)=1/21/3,整个区域,5。回想,,u,g,=1,当,d,g,=min d,j,ug=0,其余,神经网络原理,226,王永骥,实例 自组织特征映射网络的设计,假设输入矢量为100个分布在0,0,到90,0,的二值单位输入矢量,首先定义输入矢量,angles=0:0.5*pi/99:0.5*pi;,P=sin(angles);cos(angles);,然后建立一个自组织特征映射网络,net=newsom(minmax(P),10,gridtop,linkdist,0.9,1000,0.02,1);,最后利用函数,train.m,对网络进行训练,net.trainParam.show=50;,net.trainParam.epochs=1000;,net=train(net,P);,神经网络原理,227,王永骥,
展开阅读全文