ImageVerifierCode 换一换
格式:DOC , 页数:18 ,大小:37.50KB ,
资源ID:4345526      下载积分:8 金币
验证码下载
登录下载
邮箱/手机:
图形码:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/4345526.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(BP神经网络.doc)为本站上传会员【快乐****生活】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

BP神经网络.doc

1、BP神经网络 BP神经网络 今天来讲BP神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,模式识别,分类,数据压缩,数据 挖掘等领域。接下来介绍BP神经网络的原理及实现。 Contents 1. BP神经网络的认识 2. 隐含层的选取 3. 正向传递子过程 4. 反向传递子过程 5. BP神经网络的注意点 6. BP神经网络的C 实现 1. BP神经网络的认识 BP(Back Propagation)神经网络分为两个过程 (1)工作信号正向传递子过程 (2)误差信号反向传递子过程 在BP神

2、经网络中,单个样本有个输入,有个输出,在输入层和输出层之间通常还有若干个隐含层。实际 上,1989年Robert Hecht-Nielsen证明了对于任何闭区间内的一个连续函数都可以用一个隐含层的BP网ensI1MN。ZPZyi1x。1xKjoSh。 络来逼近,这就是万能逼近定理。所以一个三层的BP网络就可以完成任意的维到维的映射。即这三层分 别是输入层(I),隐含层(H),输出层(O)。如下图示 2. 隐含层的选取 在BP神经网络中,输入层和输出层的节点个数都是确定的,而隐含层节点个数不确定,那么应该设置为多少 才合适呢?实际上,隐含层节点个数的多少

3、对神经网络的性能是有影响的,有一个经验公式可以确定隐含层 节点数目,如下 其中为隐含层节点数目,为输入层节点数目,为输出层节点数目,为之间的调节常数。 3. 正向传递子过程 现在设节点和节点之间的权值为,节点的阀值为,每个节点的输出值为,而每个节点的输出 值是根据上层所有节点的输出值、当前节点与上一层所有节点的权值和当前节点的阀值还有激活函数来实现 的。具体计算方法如下 其中为激活函数,一般选取S型函数或者线性函数。 正向传递的过程比较简单,按照上述公式计算即可。在BP神经网络中,输入层节点没有阀值。 4. 反向传递子过程 在

4、BP神经网络中,误差信号反向传递子过程比较复杂,它是基于Widrow-Hoff学习规则的。假设输出层ZEBlqYZ。3AWDxlx。YB1Hs9n。 的所有结果为,误差函数如下 而BP神经网络的主要目的是反复修正权值和阀值,使得误差函数值达到最小。Widrow-Hoff学习规则 是通过沿着相对误差平方和的最速下降方向,连续调整网络的权值和阀值,根据梯度下降法,权值矢量 的修正正比于当前位置上E(w,b)的梯度,对于第个输出节点有 假设选择激活函数为 对激活函数求导,得到 那么接下来针对有 其中有 同样对于有 这就是

5、著名的学习规则,通过改变神经元之间的连接权值来减少系统实际输出和期望输出的误差,这个规 则又叫做Widrow-Hoff学习规则或者纠错学习规则。 上面是对隐含层和输出层之间的权值和输出层的阀值计算调整量,而针对输入层和隐含层和隐含层的阀值调 整量的计算更为复杂。假设是输入层第k个节点和隐含层第i个节点之间的权值,那么有 其中有 这样对学习规则理解更为深刻了吧。 有了上述公式,根据梯度下降法,那么对于隐含层和输出层之间的权值和阀值调整如下 而对于输入层和隐含层之间的权值和阀值调整同样有 至此BP神经网络的原理基本讲完。 5. BP

6、神经网络的注意点 BP神经网络一般用于分类或者逼近问题。如果用于分类,则激活函数一般选用Sigmoid函数或者硬极限函 数,如果用于函数逼近,则输出层节点用线性函数,即。 BP神经网络在训练数据时可以采用增量学习或者批量学习。 增量学习要求输入模式要有足够的随机性,对输入模式的噪声比较敏感,即对于剧烈变化的输入模式,训 练效果比较差,适合在线处理。批量学习不存在输入模式次序问题,稳定性好,但是只适合离线处理。 标准BP神经网络的缺陷: (1)容易形成局部极小值而得不到全局最优值。 BP神经网络中极小值比较多,所以很容易陷入

7、局部极小值,这就要求对初始权值和阀值有要求,要使 得初始权值和阀值随机性足够好,可以多次随机来实现。 (2)训练次数多使得学习效率低,收敛速度慢。 (3)隐含层的选取缺乏理论的指导。 (4)训练时学习新样本有遗忘旧样本的趋势。 BP算法的改进: (1)增加动量项 引入动量项是为了加速算法收敛,即如下公式 动量因子一般选取。 (2)自适应调节学习率 (3)引入陡度因子 通常BP神经网络在训练之前会对数据归一化处理,即将数据映射到更小的区间内,比如[0,1]或[-1,1]。9XelcWX

8、NWe3vC5。venuZz5。 6. BP神经网络的C 实现 BP神经网络的C 文件如下 BP.h: #ifndef _BP_H_ #define _BP_H_ #include <vector> #define LAYER 3 //三层神经网络 #define NUM 10 //每层的最多节点数 #define A 30.0 #define B 10.0 //A和B是S型函数的参数 #define ITERS 1000 //最大训练次数 #define ETA_W 0.0035 //权值调整率 #define ETA_B 0.001 //阀值调

9、整率 #define ERROR 0.002 //单个样本允许的误差 #define ACCU 0.005 //每次迭代允许的误差 #define Type double #define Vector std::vector struct Data { Vector<Type> x; //输入数据 Vector<Type> y; //输出数据 }; class BP{ public: void GetData(const Vector<Data>); void Train(); Vector<Type> ForeCas

10、t(const Vector<Type>);LhzfLKn。SW85kg6。7CTUFBh。 private: void InitNetWork(); //初始化网络 void GetNums(); //获取输入、输出和隐含层节点数 void ForwardTransfer(); //正向传播子过程 void ReverseTransfer(int); //逆向传播子过程 void CalcDelta(int); //计算w和b的调整量 void UpdateNetWork(); //更新权值和阀值 Type GetError(int); //计算单个样本的误差

11、Type GetAccu(); //计算所有样本的精度 Type Sigmoid(const Type); //计算Sigmoid的值 private: int in_num; //输入层节点数 int ou_num; //输出层节点数 int hd_num; //隐含层节点数 Vector<Data> data; //输入输出数据 Type w[LAYER][NUM][NUM]; //BP网络的权值 Type b[LAYER][NUM]; //BP网络节点的阀值 Type x[LAYER][NUM]; //每个神经元的值经S型函数转化后的输出值,输入层就为原值

12、 Type d[LAYER][NUM]; //记录delta学习规则中delta的值 }; #endif //_BP_H_BP.cpp: #include <string.h> #include <stdio.h> #include <math.h> #include <assert.h> #include 'BP.h' //获取训练所有样本数据 void BP::GetData(const Vector<Data> _data) { data = _data; } //开始进行训练 void BP::Tr

13、ain() { printf('Begin to train BP NetWork!\n'); GetNums(); InitNetWork(); int num = data.size(); for(int iter = 0; iter <= ITERS; iter ) { for(int cnt = 0; cnt < num; cnt ) { //第一层输入节点赋值 for(int i = 0; i < in_num; i ) x[0][i] = data.at(cnt).x[i]; while(1) { ForwardTransfer();

14、 if(GetError(cnt) < ERROR) //如果误差比较小,则针对单个样本跳出循环 break; ReverseTransfer(cnt); } } printf('This is the %d th trainning NetWork !\n', iter);Z3esIff。xhNwM2F。9ccmKYS。 Type accu = GetAccu(); printf('All Samples Accuracy is %lf\n', accu); if(accu < ACCU) break; } printf('The BP NetWork tr

15、ain End!\n'); } //根据训练好的网络来预测输出值 Vector<Type> BP::ForeCast(const Vector<Type> data)vx6vs6V。lcISxvo。Vq64KAl。 { int n = data.size(); assert(n == in_num); for(int i = 0; i < in_num; i ) x[0][i] = data[i]; ForwardTransfer(); Vector<Type> v; for(int i = 0; i < ou_num; i

16、 ) v.push_back(x[2][i]); return v; } //获取网络节点数 void BP::GetNums() { in_num = data[0].x.size(); //获取输入层节点数 ou_num = data[0].y.size(); //获取输出层节点数 hd_num = (int)sqrt((in_num ou_num) * 1.0) 5; //获取隐含层节点数K3UwkcV。5BtLRvZ。sW10dpJ。 if(hd_num > NUM) hd_num = NUM; //隐含层数目不能超过最大设置 } //初始化网络 voi

17、d BP::InitNetWork() { memset(w, 0, sizeof(w)); //初始化权值和阀值为0,也可以初始化随机值 memset(b, 0, sizeof(b)); } //工作信号正向传递子过程 void BP::ForwardTransfer() { //计算隐含层各个节点的输出值 for(int j = 0; j < hd_num; j ) { Type t = 0; for(int i = 0; i < in_num; i ) t = w[1][i][j] * x[0][i]; t = b[1][j]; x[1][j]

18、 Sigmoid(t); } //计算输出层各节点的输出值 for(int j = 0; j < ou_num; j ) { Type t = 0; for(int i = 0; i < hd_num; i ) t = w[2][i][j] * x[1][i]; t = b[2][j]; x[2][j] = Sigmoid(t); } } //计算单个样本的误差 Type BP::GetError(int cnt) { Type ans = 0; for(int i = 0; i < ou_num; i ) ans = 0.5 * (x[2

19、][i] - data.at(cnt).y[i]) * (x[2][i] - data.at(cnt).y[i]);FIj1a17。tzjd8YI。EU5bFhZ。 return ans; } //误差信号反向传递子过程 void BP::ReverseTransfer(int cnt) { CalcDelta(cnt); UpdateNetWork(); } //计算所有样本的精度 Type BP::GetAccu() { Type ans = 0; int num = data.size(); for(int i = 0; i < num; i ) {

20、 int m = data.at(i).x.size(); for(int j = 0; j < m; j ) x[0][j] = data.at(i).x[j]; ForwardTransfer(); int n = data.at(i).y.size(); for(int j = 0; j < n; j ) ans = 0.5 * (x[2][j] - data.at(i).y[j]) * (x[2][j] - data.at(i).y[j]);dMFEKpL。jgJCTOL。juJ415A。 } return ans / num; } //计算调整量 v

21、oid BP::CalcDelta(int cnt) { //计算输出层的delta值 for(int i = 0; i < ou_num; i ) d[2][i] = (x[2][i] - data.at(cnt).y[i]) * x[2][i] * (A - x[2][i]) / (A * B);dkbpn0Q。LIps9gh。qZS6NM9。 //计算隐含层的delta值 for(int i = 0; i < hd_num; i ) { Type t = 0; for(int j = 0; j < ou_num; j ) t = w[2][i][j]

22、 * d[2][j]; d[1][i] = t * x[1][i] * (A - x[1][i]) / (A * B); } } //根据计算出的调整量对BP网络进行调整 void BP::UpdateNetWork() { //隐含层和输出层之间权值和阀值调整 for(int i = 0; i < hd_num; i ) { for(int j = 0; j < ou_num; j ) w[2][i][j] -= ETA_W * d[2][j] * x[1][i]; } for(int i = 0; i < ou_num; i ) b[2][i]

23、 -= ETA_B * d[2][i]; //输入层和隐含层之间权值和阀值调整 for(int i = 0; i < in_num; i ) { for(int j = 0; j < hd_num; j ) w[1][i][j] -= ETA_W * d[1][j] * x[0][i]; } for(int i = 0; i < hd_num; i ) b[1][i] -= ETA_B * d[1][i]; } //计算Sigmoid函数的值 Type BP::Sigmoid(const Type x) { return A / (1 exp(-x

24、/ B)); } Test.cpp: #include <iostream> #include <string.h> #include <stdio.h> #include 'BP.h' using namespace std; double sample[41][4]= { {0,0,0,0}, {5,1,4,19.020}, {5,3,3,14.150}, {5,5,2,14.360}, {5,3,3,14.150}, {5,3,2,15.390}, {5,3,2,15.390}, {5,5,1,19.680}, {5

25、1,2,21.060}, {5,3,3,14.150}, {5,5,4,12.680}, {5,5,2,14.360}, {5,1,3,19.610}, {5,3,4,13.650}, {5,5,5,12.430}, {5,1,4,19.020}, {5,1,4,19.020}, {5,3,5,13.390}, {5,5,4,12.680}, {5,1,3,19.610}, {5,3,2,15.390}, {1,3,1,11.110}, {1,5,2,6.521}, {1,1,3,10.190}, {1,3,4,6.043}, {1,5,5,5.242},

26、 {1,5,3,5.724}, {1,1,4,9.766}, {1,3,5,5.870}, {1,5,4,5.406}, {1,1,3,10.190}, {1,1,5,9.545}, {1,3,4,6.043}, {1,5,3,5.724}, {1,1,2,11.250}, {1,3,1,11.110}, {1,3,3,6.380}, {1,5,2,6.521}, {1,1,1,16.000}, {1,3,2,7.219}, {1,5,3,5.724} }; int main() { Vector<Data> data; for(int i =

27、 0; i < 41; i ) { Data t; for(int j = 0; j < 3; j ) t.x.push_back(sample[i][j]); t.y.push_back(sample[i][3]); data.push_back(t); } BP *bp = new BP(); bp->GetData(data); bp->Train(); while(1) { Vector<Type> in; for(int i = 0; i < 3; i ) { Type v; scanf('%lf', &v); in.push_back(v); } Vector<Type> ou; ou = bp->ForeCast(in); printf('%lf\n', ou[0]); } return 0; } Makefile: Test : BP.h BP.cpp Test.cpp g BP.cpp Test.cpp -o Test clean: rm Test

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服