收藏 分销(赏)

《深度学习》课件 第5章 深度学习模型.pdf

上传人:曲**** 文档编号:231239 上传时间:2023-03-21 格式:PDF 页数:40 大小:1.38MB
下载 相关 举报
《深度学习》课件 第5章 深度学习模型.pdf_第1页
第1页 / 共40页
《深度学习》课件 第5章 深度学习模型.pdf_第2页
第2页 / 共40页
《深度学习》课件 第5章 深度学习模型.pdf_第3页
第3页 / 共40页
《深度学习》课件 第5章 深度学习模型.pdf_第4页
第4页 / 共40页
《深度学习》课件 第5章 深度学习模型.pdf_第5页
第5页 / 共40页
点击查看更多>>
资源描述

1、深度学习BIGDATA全国高校标准教材XXX姊妹篇,剖析XXX技术和实战应用第五章深度学习主流模型5.1绪论5彳脚经网络5.3/盾环押经网络 习题 5.1神经网络技术的历史与发展第五章深度学习模型 5.1概述一浅层神经网络早期的神经网络是一个浅层的学习模型(包含一个输入层、一个隐层及一个输出层),它 有大量的参数,在训练集上有较好的表现,但实际应用时其识别率并没有比其他模型(如 支持向量机、Boost ing等)体现出明显的优势神经网络在训练时采用误差反向传播算法(Back Propagat ion,简称BP算法),使用梯 度下降方法在训练过程中修正权重减少网络误差。在层次深的情况下性能变得很

2、不理想,传播时容易出现所谓的梯度弥散Gradient Diffusion或称之为梯度消失(Vanishing Gradient Problem),根源在于非凸目标代价函数导致求解陷入局部最优,且这种情况 随着网络层数的增加而更加严重,即随着梯度的逐层不断消散导致其对网络权重调整的作 用越来越小。所以只能转而处理浅层结构(通常小于等于3),从而限制了神经网络的大范围应用。5.1神经网络技术的历史与发展第五章深度学习模型 5.1概述一深度学习模型2006年Hint on提出深度学习11后才被打破,深度神经网络的复兴存在多方面的原因其一,大规模的训练样本可以缓解过拟合问题;其二,网络模型的训练方法也

3、有了显著的进步;其三,计算机硬件的飞速发展(如英伟达显卡的出现)使得训练效率能够以几倍、十几倍 的幅度提升。此外,深度神经网络具有强大的特征学习能力,过去几十年中,手工设计特征一直占据着 主导地位,特征的好坏直接影响到系统的性能。5.1神经网络技术的历史与发展第五章深度学习模型 5.1概述一深度学习模型面对一个新的任务,如果采用手工设计的方式,往往需要很长时间,而深度学习能很快 提取到具有代表性的特征。另一方面,随着分类任务复杂性的增加,需要用到越来越多的参数及样本,虽然浅层神 经网络也能模拟出与深度学习相同的分类函数,但其所需的参数要多出几个数量级,以至 于很难实现。5.1神经网络技术的历史

4、与发展第五章深度学习模型 5.1概述一深度学习模型学术界已经提出了多种深度学习模型,其中影响力较大的有以下几种Q)卷积神经网络:该网络一般包含三种类型的层,分别是卷积层、下采样层及全连接层。通过卷积核与上一层输出进行卷积作为卷积层的输出,这样可以达到权值共享的目的;下 采样是在卷积层的基础上,在一个固定区域中采样一个点,使得整个网络具有一定的缩放、平移及形变不变性。(2)循环神经网络:该网络与传统前馈网络的区别在于,隐层的输入不仅包括输入层的数 据,还包括前一时刻的隐层数据。这种结构的网络能有效处理序列数据,如自然语言处理。(3)深度置信网络:该网络由若干层受限玻尔兹曼机及一个反向传播网络组成

5、。全国高校标准教材XXX姊妹篇,剖析XXX技术和实战应用第五章深度学习主流模型5.1 绪论5.2 卷积神经网络5.3 循环神经网络 习题5.2卷积神经网络第五章深度学习模型 5.2卷积神经网络卷积神经网络(Convolut ional neural net works,CNN)已在图像理解领域得到了广泛 的应用,特别是随着大规模图像数据的产生以及计算机硬件(特别是GPU)的飞速发展,卷积 神经网络以及其改进方法在图像理解中取得了突破性的成果,引发了研究的热潮。5.2卷积神经网络第五章深度学习模型 5.2卷积神经网络卷积神经网络(Convolut ional neural net works,C

6、NN)已在图像理解领域得到了广泛 的应用,特别是随着大规模图像数据的产生以及计算机硬件(特别是GPU)的飞速发展,卷积 神经网络以及其改进方法在图像理解中取得了突破性的成果,引发了研究的热潮。5.2卷积神经网络第五章深度学习模型卷积层C3采样层S4卷积层C16 个 24*24 的 map输入层1 个 28*28 的 map采样层S26 个 12*12 的 map输出层12个8*8的m叩 12个4*4的map 12个1*1的m叩图5.1卷积神经网络整体结构图5.2卷积神经网络第五章深度学习模型原图像164188164178201197174168181010111010图像值 卷积核 新的像素值

7、:932/5=186图5.2卷积层164197181176179161 195150 137185 198133 167原图像像素值190 1843x3卷积核输出图像图5.3图像卷积效果不意图52卷积神经网络第五章深度学习模型卷积计算的输出值通常需要通过激励函数,实现非线性变换。Sigmoid函数(Sigmoid Funct ion),Sigmoid 是常用的 非线性的激活函数,它的数学形式如下:f(x)二11+6一%Sigmoid函数,它能把实数(-8,+8)压缩到区间(0,1)之间5.2卷积神经网络第五章深度学习模型ReLU(Rect ified Linear Unit s)函数,它的数学

8、表达式如下:1维的情况下,当x0时,输出为输入。ReLU激励函数变 的越来越受欢迎。ReLU的有效性体现在两个方面:1)克服梯度消失的问题;2)加快训练速度。ReLU5.2卷积神经网络第五章深度学习模型在深层卷积神经网络中,可以通过设计多个卷积层,不同层可以提取到不同类 型的特征用于最终分类任务。多卷积核学习示例图像大小 1000 x1000 卷积核数目100卷积核大小:10 x10 共有1万个参数5.2卷积神经网络第五章深度学习模型池化层:池化层也属于中间层,也称采样层或抽样层,为特征映射层 池化包括:最大池化或平均池化。03151624121371125.2卷积神经网络第五章深度学习模型举

9、俞出卷积箱经网络的输出层与其他神经前馈神经网络一样为全连接方式。“1212212 2213之3a745.2卷积神经网络第五章深度学习模型输出.卷积箱经网络的输出层与其他神经前馈神经网络一样,为全连接方式。全连接方式中输出值的计算:5.2卷积神经网络第五章深度学习模型神经网络有两类基本运算模式:前向传播和反向传播。前向传播是指输入信号通过前一层中一个或多个网络层之间传递信号,然后在 输出层得到输出的过程。反向传播算法是神经网络有监督学习中的一种常用方法,其目标是根据训练样 本和期望输出来估计网络参数。卷积神经网络的训练卷积神经网络的训练要复杂一些。但训练的原理是一样的:利用链式求导计算损失函数对

10、每个权重的偏导数(梯度),然后根据梯度下降 公式更新权重。5.2卷积神经网络第五章深度学习模型反向传输调整权重 反向传输过程是CNN最复杂的地方,虽然从宏观上来看基本思想跟BP一样,都是通过最小化残差来调整权重和偏置,但CNN的网络结构并不像BP网络那 样单一,而且因为权重共享,使得计算残差变得很困难。输出层的残差和BP一样,CNN的输出层的残差与中间层的残差计算方式不同,输出层的残 差是输出值与类标值的误差值,而中间各层的残差来源于下一层的残差的加权 和。本章以平方误差损失函数的多分类问题为例介绍反向传播算法算法。对于 一个c个类和和N个训练样本的例子,总误差可以如下给出。en=?2葭(煜4

11、)25.2卷积神经网络第五章深度学习模型首先介绍网络第后的灵敏度的计算方法(Sensit ivit y),描述了总误差嚣样随 着净激活值而变化_ dE du反向传播算法实际上通过所有网络层的灵敏度来计算总误差对所有网络参数 的偏导数从而计算使得训练误差减小的方向。5.2卷积神经网络第五章深度学习模型卷积层屈J灵敏度需要用下一层池化层的灵敏度表示卷积层右勺灵敏度,然后计算总误差E对卷积层 参数(卷积核参数k、偏置参数b)的偏导数。通过链式求导可得第层中第/个通道的灵敏度:81=奇=中,(巾*皿中】)其中,表示每个向量与矩阵相乘。若池化层采样因子为n,则将每个像素在水平和垂直 方向上复制n次,于是

12、就可以从/+1层的灵敏度上采样成卷积层右勺灵敏度5.2卷积神经网络第五章深度学习模型使用灵敏度计算卷积层I中的参数(卷积核参数k、偏置参数b)的偏导,分两种情况。情况1:对于总误差E对偏移量的偏导,可以对卷积层右勺灵敏度中所有结点进行求和 起算:需=Nu,v(%vU Uj j情况2:对于总误差关于卷积核参数的偏导,使用链式求导时需要用所有与该卷积核 相乘的特征图兀素来求偏导:5.2卷积神经网络第五章深度学习模型池化层(downsampling):为计算池化层由勺灵敏度,需要用下一层卷积层的灵 敏度表示池化层出勺灵敏度,然后计算总误差E对池化层参数(权重系数、偏置参数b)的导数。X-=f(p!d

13、own(xj-1)+bj)此处的down。表示池化层的下采样(down sampling)函数。一般来说将I层中nxn块 进行最大池化或平均池化操作,使得输出的图像维度在两个方向上都要小n倍。此处我们假设池化层的上一层和下一层都是卷积层。如果下一层开始是全连接层,那么可以使用BP神经网络中的反向传播算法来计算灵 敏度矩阵。5.2卷积神经网络第五章深度学习模型全连接层:在全连基网络中,如果使用俵示当前层,使用L表示输出层,那么可以使用如下式子 来计算输入当前层的输出,此处输出激活函数一般选sigmoid函数或者ReLU函数,常 称为当前神经单元的净激活值。全连接层出勺灵敏度可通过下式计算:x1=

14、wit h u1=W1x1t+bL输出层的神经元灵敏度可由下面的公式计算:=(w1+1)Ta1+lofz(u1)总误差对偏移项的偏导如下:dE dE dil ryi-r-7-r=o5bj dil 8bl5.2卷积神经网络第五章深度学习模型全连接层:在全连基网络中,如果使用俵示当前层,使用L表示输出层,那么可以使用如下式子 来计算输入当前层的输出,此处输出激活函数一般选sigmoid函数或者ReLU函数,常 称为当前神经单元的净激活值。总误差对偏移项的偏导如下:8E 3E dilr=-7r=03bj dil 8bl总误差对权系数项的偏导如下券=X-)T5.2卷积神经网络第五章深度学习模型对于每个

15、网络参数都有一个特定的学习率。若学习率太小,则训练的速度缓慢;若学习率太大,则可导致无法收敛。在实际问 题中,如果总误差在学习过程中发散,那么学习率调小;反之,如果学习速度过慢,那么将学习率调大。5.2卷积神经网络第五章深度学习模型CNN训练技巧卷积层训练技巧传统卷积神经网络的卷积层采用线性滤波器与非线性激活函数,一种改进的方法在 卷积层使用多层感知机模型作为微型神经网络,通过在输入图像中滑动微型神经网 络来得到特征图,该方法能够增加神经网络的表示能力,被称为Net work in net worko池化层的选择池化(Pooling)是卷积神经网络中一个重要的操作,它能够使特征减少,同时保持

16、特征的局部不变性。常用的池化操作有:空间金字塔池化(Spat ial PyramidPooling,SPP)、堡大池化(Max Pooling).平均池化(Mean Pooling).随机池化(St ochast ic Pooling)等激活函数的选择常用激活函数有:ReLU、Leakly ReLU、Paramet ric ReLUs Randomized ReLU、ELU 等。5.2卷积神经网络第五章深度学习模型CNN训练技巧损失函数的选择损失函数的选择在卷积神经网络中起重要作用,代表性的损失函数有:平方误差损 失、互嫡损失(Cross ent ropy loss)、Hinge 损失等优化方

17、法和技巧卷积神经网络常用的优化方法包含随机梯度下降方法(St ochast ic gradient descent,SGD)z常用的技巧有权值初始化、权值衰减(Weight decay)、Bat ch normalizat ion 等。全国高校标准教材XXX姊妹篇,剖析XXX技术和实战应用第五章深度学习主流模型5.1 绪论5.2 卷积神经网络5.3 循环神经网络习题5.3循环神经网络第五章深度学习模型循环神经网络(Recurrent neural net works,RNN)是用来处理序列数据的神经网络RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现 形式为网络

18、会对前面的信息进行记忆并应用于当前输出的计算中,并且隐藏层的输入不仅 包括输入层的输出还包括上一时刻隐藏层的输出。隐藏层之间的节点不再无连接而是有连 接的。RNN已经被在实践中证明对NLP是非常成功的。如词向量表达、语句合法性检查、词性标;士笺/工甘。5.3循环神经网络第五章深度学习模型RNN结构RNN网络的隐含层节点之间是有连接的,隐含层的节点的输入不仅包括输入层还有上一时 刻隐含层的输出。RNN和其他网络一样也包含输入层、隐含层和输出层。这些隐含层的连 接是RNN最主要的特色。输出层隐含层输入层5.3循环神经网络第五章深度学习模型RNN结构输入层节点和隐含层节点相互连接,隐含层输出到输出层

19、,而隐含层不是节点之间没有相 互影响,可以是上一个时间节点输出信息重新返回隐含层节点,还可以包含隐含层相邻节 点相互连接,是一个动态的网络。生物神经网络都是一种循环网络,可以对序列式数据理 解,因此RNN更加接近生物神经系统。输出层隐含层输入层5.2循环神经网络第五章深度学习模型RNN训练对于RNN是的训练和对传统的ANN训练一样。同样使用BP误差反向传播算法,不过有一 点区别。如果将RNNs进行网络展开,那么参数W,U,V是共享的,而传统神经网络却不是 的。并且在使用梯度下降算法中,每一步的输出不仅依赖当前步的网络,并且还以来前面 若干步网络的状态。输出层隐含层输入层5.2循环神经网络第五章

20、深度学习模型 RNN训练前馈网络的BP算法不能直接转移到RNN网络,因为误差的反馈是以节点之间的连接没有 环状结构为前提的。在RNN中使用BPTT(Back Propagat ion Through Time)训练算法它会沿着时间展开神经网络,重新指定网络中的连接来形成序列。它的基本原理和BP算法 是一样的,也包含同样的三个步骤:1)前向计算每个神经元的输出值;2)反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数;3)计算每个权重的梯度,最后再用随机梯度下降算法更新权重。5.2循环神经网络第五章深度学习模型 RNN中的自我反馈结构在传统神经网络中,每一个网络层的参数是不

21、共享的。而在RNNs中,每输入一步,每一 层各自都共享参数UVW。因此RNNs中的每一步计算函数,只是输入值不同,因此极大 地降低了网络中需要学习的参数;此处将RNN进行展开,这样变成了多层的网络。ycpwJ oRNN的关键之处在于隐藏层,隐藏层具有记忆能力,能够记忆序列信息。5.2循环神经网络第五章深度学习模型 RNN训练技巧前面介绍RNN训练算法BPTT无法解决长时依赖问题(即当前的输出与前面很长的一段序列 有关,一般超过十步就无能为力了),因为BPTT会带来所谓的梯度消失或梯度爆炸问题(vanishing/exploding gradient problem),这导致训练时梯度不能在较长

22、序列中一直传 递下去,从而使RNN无法捕捉到长距离的影响。梯度爆炸更容易处理一些。因为梯度爆炸的时候,我们的程序会收到NaN错误。我们也可 以设置一个梯度阈值,当梯度超过这个阈值的时候可以直接截取。5.2循环神经网络第五章深度学习模型 RNN训练技巧前面介绍RNN训练算法BPTT无法解决长时依赖问题(即当前的输出与前面很长的一段序列 有关,一般超过十步就无能为力了),因为BPTT会带来所谓的梯度消失或梯度爆炸问题(vanishing/exploding gradient problem),这导致训练时梯度不能在较长序列中一直传 递下去,从而使RNN无法捕捉到长距离的影响。梯度消失更难检测,而且

23、也更难处理一些。一般有三种方法应对梯度消失问题:1.合理的初始化权重值。初始化权重,使每个神经元尽可能不要取极大或极小值,以躲 开梯度消失的区域;2.使用ReLU代替sigmoid和t anh作为激活函数;3.使用其他结构的RNNs,比如长短时记忆网络(LTSM:Long Short-Term Memory Neural Net work)5.2循环神经网络第五章深度学习模型循环神经网络小结介绍了基本的循环神经网络、循环神经网络的训练算法:BPTT(Back Propagat ion Through Time)方法。基本的循环神经网络存在梯度爆炸和梯度消失问题,往往无法真正处理好长距离的依赖。真叁得到广泛的应用的是循环神经网络的一个变体:长短时记忆网络(LTSM:Long Short-Term Memory Neural Net work)o该模型相对于一般的RNNs,只是在隐藏层内部有一些特殊的结构,可以很好的处理长距 离的依赖。长短时记忆网络比标准的RNN在很多的任务上都表现得更好。很多令人振奋的关于RNN 的结果都是通过长短时记忆网络达到的。习题:1.深度神经网络发展流行发展的主要原因有那些?2.卷积神经网络主要包括哪几层?3.循环神经网络和卷积神经网络应用方向有哪些不同?4.循环神经网络主要包括哪几层?5.简述循环神经网络训练中使用的BPTT方法?感谢聆听

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 环境建筑 > 图纸/模型

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服