ImageVerifierCode 换一换
格式:PPT , 页数:85 ,大小:4.52MB ,
资源ID:10713768      下载积分:18 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/10713768.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(基于keras的深度学习介绍PPT学习课件.ppt)为本站上传会员【精***】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于keras的深度学习介绍PPT学习课件.ppt

1、单击此处编辑母版标题样式,单击此处编辑母版文本样式第二级第三级第四级第五级,基于,keras,的深度学习介绍,钱国庆,目 录,CONTENTS,目 录,CONTENTS,深度学习的起源,神经网络的原理,深度学习的原理,Keras,介绍及基本语法,Keras,应用案例,深度学习的起源,Keras,深度学习的起源,深度学习,DeepLearning,Keras,深度学习的起源,五、六十年代,Rosenblatt,感知机(perceptron),拥有输入层、输出层和一个隐含层。,对稍复杂一些的函数都无能为力,Keras,深度学习的起源,八十年代,Rumelhart、Williams、Hinton、L

2、eCun,多层感知机(multilayer perceptron),即有多个隐含层的感知机,使用sigmoid或tanh等连续函数模拟神经元对激励的响应,在训练算法上则使用Werbos发明的反向传播BP算法,改名叫神经网络,神经网络的层数直接决定了它对现实的刻画能力利用每层更少的神经元拟合更加复杂的函数,随着神经网络层数的加深,优化函数越来越容易陷入局部最优解,并且这个“陷阱”越来越偏离真正的全局最优,另一个不可忽略的问题是随着网络层数增加,“梯度消失”现象更加严重。具体来说,我们常常使用sigmoid作为神经元的输入输出函数。对于幅度为1的信号,在BP反向传播梯度时,每传递一层,梯度衰减为原

3、来的0.25。层数一多,梯度指数衰减后低层基本上接受不到有效的训练信号。,Keras,深度学习的起源,2006年,Hinton利用预训练方法缓解了局部最优解问题,将隐含层推动到了7层,神经网络真正意义上有了“深度”,由此揭开了深度学习的热潮。这里的“深度”并没有固定的定义在语音识别中4层网络就能够被认为是“较深的”,而在图像识别中20层以上的网络屡见不鲜。为了克服梯度消失,ReLU、maxout等传输函数代替了sigmoid,形成了如今DNN的基本形式。单从结构上来说,全连接的DNN和图1的多层感知机是没有任何区别的。,高速公路网络(highway network)和深度残差学习(deep r

4、esidual learning)进一步避免了梯度消失,网络层数达到了前所未有的一百多层(深度残差学习:152层)(Kaiming He,MSRA,2015ImageNet计算机识别挑战赛,系统错误率已经低至3.57%,人眼辨识的错误率大概为5.1%),何恺明,,2015 RsNet,TensorFlow,应用成果,除了,Alpha Go,以外,安卓手机新增自拍功能,就是通过应用深度学习训练出来的视觉模型,可以非常准确地分离前景像素和后景像素,对前景像素和后景像素分别处理,这样的话就可以实现背景虚化这样的功能。,实现这种功能,传统上,手机厂商需要增加第二个摄像头,这就会增加手机的成本,同时对现

5、有用户已经获得的手机就不太容易获得这样的效果,,谷歌翻译,其他,京东内部搭建了 TensorFlow 训练平台,用于开发图像、自然语言相关的模型,并且把他们用到客服广告等领域。小米也在尝试类似的技术路线,支持他们生态线上各种特殊的应用。网易的有道笔记、网易翻译君也使用了 TensorFlow 视觉和语言的模型。,我们正处在下一次技术爆炸的门口,人类从直立行走到2003年的四百万年间,一共创造了 5,EB,的信息,而到了2010年,人类每两天就会创造 5,EB,;再到了2013年,人类每 10 分钟就创造 5,EB,;再到今天,人类每1分钟就创造 5 艾字节。,谷歌董事长施密特,千年以来世界,G

6、DP,变动,神经网络基础原理,Keras,梯度下降,1,反向传播算法,2,激活函数,3,梯度下降-成本函数(Cost Function),我们想要根据房子的大小,预测房子的价格,给定如下数据集:,梯度下降,(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameter

7、s ),(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameters ),(for fixed ,this is a functi

8、on of x),(function of the parameters ),(for fixed ,this is a function of x),(function of the parameters ),梯度下降,(1)先确定向下一步的步伐大小,我们称为Learning rate;,(2)任意给定一个初始值:;,(3)确定一个向下的方向,并向下走预先规定的步伐,并更新;,(4)当下降的高度小于某个定义的值,则停止下降;,梯度下降,(1)初始点不同,获得的最小值也不同,因此梯度下降求得的只是局部最小值;,(2)越接近最小值时,下降速度越慢;,反向传播算法(,Backpropagation

9、也就是说,对于上层节点p和下层节点q,需要找到从q节点到p节点的所有路径,并且对每条路径,求得该路径上的所有偏导数之乘积,然后将所有路径的“乘积”累加起来才能得到的值。,反向传播算法(BP),假设,你有这样一个网络层:,第一层是输入层,包含两个神经元i1,i2,和截距项b1;第二层是隐含层,包含两个神经元h1,h2和截距项b2,第三层是输出o1,o2,每条线上标的wi是层与层之间连接的权重,激活函数我们默认为sigmoid函数。,其中,输入数据 i1=0.05,i2=0.10;,输出数据 o1=0.01,o2=0.99;,初始权重 w1=0.15,w2=0.20,w3=0.25,w4=0

10、30;,w5=0.40,w6=0.45,w7=0.50,w8=0.88,目标:给出输入数据i1,i2(0.05和0.10),使输出尽可能与原始输出o1,o2(0.01和0.99)接近。,反向传播算法(BP),这样前向传播的过程就结束了,我们得到输出值为0.75136079,0.772928465,与实际值0.01,0.99相差还很远,现在我们对误差进行反向传播,更新权值,重新计算输出。,反向传播算法(BP),反向传播算法(BP),2.隐含层-输出层的权值更新:,以权重参数w5为例,如果我们想知道w5对整体误差产生了多少影响,可以用整体误差对w5求偏导求出:(链式法则),反向传播算法(BP),

11、其中,,是学习速率,这里我们取0.5),同理,可更新w6,w7,w8,以及更前面的w1-w4,这样误差反向传播法就完成了,最后我们再把更新的权值重新计算,总误差E(total)由0.298371109下降至0.291027924。不停地迭代,迭代10000次后,总误差为0.000035085,输出为0.015912196,0.984065734(原输入为0.01,0.99),证明效果还是不错的,激活函数,Sigmoid,Sigmoid,非线性函数将输入映射到,(0,1),之间。它的数学公式为:,历史上,,sigmoid,函数曾非常常用,现在实际很少使用了:,1.,函数饱和使梯度消失,sigm

12、oid,神经元在值为,0,或,1,的时候接近饱和,这些区域,梯度几乎为,0,。,2.sigmoid,函数不是关于原点中心对称的,这个特性会导致后面网络层的输入也不是零中心的,进而影响梯度下降的运作,tanh,tanh,函数同样存在饱和问题,但它的输出是零中心的,因此实际中,tanh,比,sigmoid,更受欢迎。,ReLu,(校正线性单元:,Rectified Linear Unit,),2001,年,神经科学家,Dayan,、,Abott,从生物学角度,模拟出了脑神经元接受信号更精确的激活模型,这个模型对比,Sigmoid,系主要变化有三点:,单侧抑制 相对宽阔的兴奋边界 稀疏激活性,(重点

13、可以看到红框里前端状态完全没有激活),深度学习的原理,Keras,主要深度学习理论,1,评估函数,2,优化函数,3,卷积神经网络(,CNN,),假设输入的是一幅像素为1K*1K的图像,隐含层有1M个节点,光这一层就有1012个权重需要训练,这不仅容易过拟合,而且极容易陷入局部最优。,图像中有固有的局部模式(比如轮廓、边界,人的眼睛、鼻子、嘴等)可以利用,显然应该将图像处理中的概念和神经网络技术相结合。此时我们可以祭出卷积神经网络CNN,Keras,CNN,假设图3中m-1=1是输入层,我们需要识别一幅彩色图像,这幅图像具有四个通道ARGB(透明度和红绿蓝,对应了四幅相同大小的图像),假设卷积

14、核大小为100*100,共使用100个卷积核w1到w100(从直觉来看,每个卷积核应该学习到不同的结构特征)。用w1在ARGB图像上进行卷积操作,可以得到隐含层的第一幅图像;这幅隐含层图像左上角第一个像素是四幅输入图像左上角100*100区域内像素的加权求和,以此类推。同理,算上其他卷积核,隐含层对应100幅,“,图像,”,。每幅图像对是对原始图像中不同特征的响应。按照这样的结构继续传递下去。CNN中还有max-pooling等操作进一步提高鲁棒性。,在这个例子里,我们注意到输入层到隐含层的参数瞬间降低到了100*100*100=106个!,卷积神经网络(,CNN,),什么是卷积,信号学的概念

15、卷积层的工作,当从一个大尺寸图像中随机选取一小块,比如说,3x3,作为样本,并且从这个小块样本中学习到了一些特征,这时我们可以把从这个,3x3,样本中学习到的特征作为探测器,应用到这个图像的任意地方中去。特别是,我们可以用从,3x3,样本中所学习到的特征跟原本的大尺寸图像作卷积,从而对这个大尺寸图像上的任一位置获得一个不同特征的激活值。,卷积有什么用,那么当它移动到上面的位置时,按照矩阵操作,将这个区域的图像像素值与滤波器相乘,我们得到一个很大的值(,6600,):,而当这个滤波器移动到其他区域时,我们得到一个相对很小的值:,池化(,Pooling,),左侧矩阵,A,是,20*20,的矩阵要

16、进行大小为,10*10,的池化,那么左侧图中的红色就是,10*10,的大小,对应到右侧的矩阵,右侧每个元素的值,是左侧红色矩阵每个元素的值得和再处于红色矩阵的元素个数,也就是平均值形式的池化。,pooling层有什么用,更关注是否存在某些特征而不是特征具体的位置。可以看作加了一个很强的先验,让学到的特征要能容忍一些的变化,不变性,文本分类的时候输入是不定长的,可以通过池化获得定长输出,获得定长输出,或有可能会带来欠拟合,减小下一层输入大小,减小计算量和参数个数,防止过拟合,translation invariance(平移不变性),假设有一个16x16的图片,里面有个数字1,我们需要识别出来,

17、这个数字1可能写的偏左一点(图1),这个数字1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是图1和图2经过max pooling之后它们都变成了相同的8x8特征矩阵,主要的特征我们捕获到了,同时又将问题的规模从16x16降到了8x8,而且具有平移不变性的特点。图中的a(或b)表示,在原始图片中的这些a(或b)位置,最终都会映射到相同的位置。,rotation invariance(旋转不变性),下图表示汉字“一”的识别,第一张相对于x轴有倾斜角,第二张是平行于x轴,两张图片相当于做了旋转,经过多次max pooling后具有相同的特征,scale invariance(尺度不变

18、性),下图表示数字“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了缩放,同样地,经过多次max pooling后具有相同的特征,Keras,循环神经网络(,RNN,_,Recurrent Neural Networks,),全连接的DNN还存在着另一个问题无法对时间序列上的变化进行建模。假设你希望对电影中的每个时间点的时间类型进行分类。传统的神经网络应该很难来处理这个问题使用电影中先前的事件推断后续的事件。RNN 解决了这个问题。RNN 是包含循环的网络,允许信息的持久化。对于自然语言处理、语音识别、手写体识别等应用非常重要,RNN,展开,在过去几年中,应用 RNN 在

19、语音识别,语言建模,翻译,图片描述等问题上已经取得一定成功,而这些成功应用的关键之处就是 LSTM 的使用,这是一种特别的 RNN,比标准的 RNN 在很多的任务上都表现得更好。几乎所有的令人振奋的关于 RNN 的结果都是通过 LSTM 达到的。,如果我们将这个循环展开:,主要深度学习理论,1,评估函数,2,优化函数,3,Available metrics,acc(accuracy),binary_accuracy:对二分类问题,计算在所有预测值上的平均正确率,categorical_accuracy:对多分类问题,计算再所有预测值上的平均正确率,sparse_categorical_accu

20、racy:与categorical_accuracy相同,在对稀疏的目标值预测时有用,top_k_categorical_accracy:计算top-k正确率,当预测值的前k个值中存在目标类别即认为预测正确,sparse_top_k_categorical_accuracy:与top_k_categorical_accracy作用相同,但适用于稀疏情况,f1_score,T/F:表明我预测的结果的类别,P/N:表明实际的类别,组合:,TP:我认为是,A,类,结果确实是,A,类,TN:我认为是,B,类,结果确实是,B,类,FP:我认为是,A,类,结果是,B,类,FN:我认为是,B,类,结果是,A

21、类,f1_score,假设有,2000,个样本,,A,、,B,两类各,1000,个,你只猜了,10,个,A,,全猜对了,这样,P=10/(10+0),很高,但,R=10/(10+990),很低。,关于优化方法使用的问题,开始总会纠结哪个优化方法好用,但是最好的办法就是试,无数次尝试后不难发现,Sgd的这种学习率非自适应的优化方法,调整学习率和初始化的方法会使它的结果有很大不同,但是由于收敛确实不快,总感觉不是很方便,我觉得之前一直使用Sgd的原因一方面是因为优化方法不多,其次是用Sgd都能有这么好的结果,说明你网络该有多好啊。其他的Adam,Adade,RMSprop结果都差不多,Nadam

22、因为是adam的动量添加的版本,在收敛效果上会更出色。所以如果对结果不满意的话,就把这些方法换着来一遍吧。,交叉信息熵(cross-entropy),类别,实际,预测,求和,A,900,900,0.14,B,100,100,0.33,合计,1000,1000,0.47,为什么要用cross-entropy呢,他本质上相当于衡量两个编码方式之间的差值,因为只有当猜测的分布约接近于真实分布,则其值越小。,类别,实际,预测,求和,A,900,500,0.90,B,100,500,0.10,合计,1000,1000,1.00,Word2Vec,像图像处理一样,我们如果想要让计算机处理文本信息,那么我们

23、就需要把文本信息转换成数字符号。我们最简单的方法就是使用One-hot编码把一个个词变为一个向量的形式输入给计算机进行计算。比如:“我 爱 北京”,在一个40W的词典中可以表示成这样:“我”1 0 0 0 0 0 0.“爱”0 0 0 1 0 0.北京0 1 0 0 0 0 0.,问题是,1)任意两个词之间都是孤立的。比如“爱”和“喜欢”这2个次没有层级或“近义词”的意思。,2)词表维度随着语料库增长膨胀。,3)数据稀疏问题。,为了避免以上问题,Deep Learning 中一般用到的词向量并不是刚才提到的用 One-hot Representation 表示的那种很长很长的词向量,而是用 D

24、istributed Representation表示的一种低维实数向量。这种向量一般长成这个样子:0.792,0.177,0.107,0.109,0.542,。维度以 50 维和 100 维比较常见。如此一来我们就可以计算每个词的相似度。,Word2Vec原理,中文维基百科的试验,result=model.most_similar(u,衣服,),for e in result:,print e0,e1,.:,鞋子,0.686688780785,穿着,0.672499775887,衣物,0.67173999548,大衣,0.667605519295,model.similarity(u,计算机

25、u,自动化,),0.67417196002404789,print model.doesnt_match(u,早餐 晚餐 午餐 中心,.split(),中心,单击此处添加标题内容,输入内容,输入内容,输入内容,输入内容,在此录入本图表的综合描述说明,在此录入本图表的综合描述说明,在此录入本图表的综合描述说明。在此录入本图表的综合描述说明,在此录入本图表的综合描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说

26、明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,单击此处添加标题内容,点击添加小标题,单击此处添加标题内容,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表

27、的描述说明,在此录入上述图表的描述说明。,添加标题,在此录入上述图表的描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。,单击此处添加标题内容,2013,2014,2015,2016,此处添加标题,点击此处添加段落文本,点击此处添加段落文本,此处添加标题,点击此处添加段落文本,点击此处添加段落文本,此处添加标题,点击此处添加段落文本,点击此处添加段落文本,此处添加标题,点击此处添加段落文本,点击此处添加段落文本,添加标题,工作完成情况,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最

28、好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,单击此处添加标题内容,标题内容,A,B,C,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的综合描述说明。,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的综合描述说明。,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的综合描述说明。,单击此处添加标题内容,点击此处录入标题内容,点击此处录入标题内容,点击此处录入标题内容,点击此处录入标题内容,点击录,入内容,点击录,

29、入内容,点击录,入内容,点击录,入内容,单击此处添加标题内容,点击添加内容,点击添加内容,点击添加内容,点击添加内容,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的描述说明。,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的描述说明。,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的描述说明。,您的内容打在这里,或者通过复制您的文本后,在此框中选择粘贴,并选择只保留文字,,在此录入上述图表的描述说明。,单击此处添加标题内容,添加标题,添加标题,

30、添加标题,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,在此录入图表的综合描述说明,在此录入上述图表的描述说明,在此录入上述图表的描述说明。在此录入上述图表的描述说明。,单击此处添加标题内容,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。在此录入上述图表的描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,10,20,30,40,50,60,70,80,90,100,10,

31、20,30,40,50,60,70,80,90,100,文字,文字,文字,文字,文字,文字,文字,文字,文字,文字,文字,文字,文字,文字,A,B,C,D,E,F,G,成功项目展示,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,单击此处添加标题内容,标题文本一,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,标题,文本一,标题,文本二,标题,文本三

32、标题文本二,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,标题文本三,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,点击输入你的文字内容或复制你的文本内容,单击此处添加标题内容,20%,40%,60%,80%,100%,2,月份,4,月份,6,月份,8,月份,10,月份,12,月份,请在此处输入您的文本或者复制您的文本粘贴到此处,请在此处输入您的文本或者复制您的文本粘贴到此处。请在此处输入您的文本或者复制您的文本粘贴到此处,请在此处输入您的文本或者复制您的文本粘贴到此处。,单击此处添加

33、标题内容,06,05,04,03,02,01,您的内容打在这里或者复制,您的内容打在这里或者复制,您的内容打在这里或者复制,您的内容打在这里或者复制,您的内容打在这里或者复制,您的内容打在这里或者复制,您的标题打在这里,您的副标题打在这里或通过复制,单击此处添加标题内容,1,添加标题,2,3,添加标题,添加标题,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。点击输入简要文字内容,文字内容需概

34、括精炼,不用多余的文字修饰。,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰。,工作存在不足,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,单击此处添加标题内容,在此录入上述图表的综合描述说明,在此录入上述图表的综合描

35、述说明。,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,在此录入上述图表的综合描述说明,在此录入上述图表的综合描述说明。,单击此处添加标题内容,此处添加标题,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明,1,2,3,4,此处添加标题,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明,此处添加标题,点击输入简要文字内容,文字内容需概括精,炼,不用多余的文字修饰,言简意赅的说明,此处添加标

36、题,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明,单击此处添加标题内容,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,添加标题,单击此处添加文本内容,单击此处添加文本内容,添加标题,单击此处添加文本内容,单击此处添加文本内容,添加标题,单击此处添加文本内容,单击此处添加文本内容,添加,标题,单击此处添加标题内容,请在此处输入您的文本或者复制您的文本粘贴到此处,请在此处输入您的文本或者复制,在此处输入您的文本或者复制您的文本粘贴到此处,请在

37、此处输入您的文本或者复制,在此处输入您的文本或者复制您的文本粘贴到此处,请在此处输入您的文本或者复制,在此处输入您的文本或者复制您的文本粘贴到此处,请在此处输入您的文本或者复制,输入,标题,服务不,足之一,服务不足之一,服务不足之一,服务不,足之一,单击此处添加标题内容,点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,01,、点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,此处添加标题内容,此处添加标题内容,此处添加标题内容,02,、点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,

38、03,、点击输入简要文字内容,文字内容需概括精炼,不用多余的文字修饰,言简意赅的说明分项内容,明年工作计划,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,单击此处添加标题内容,04,03,02,01,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此

39、处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,点击此处输入文字点击此处输入文字点击此处输入文字,单击此处添加标题内容,添加标题,点击输入图表的描述说明,点击输入图表的描述说明,添加标题,点击输入图表的描述说明,点击输入图表的描述说明,添加标题,点击输入图表的描述说明,点击输入图表的描述说明,添加标题,点击输入图表的描述说明,点击输入图表的描述说明,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing

40、elit.Maecenas porttitor congue massa.,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing elit.Maecenas porttitor congue massa.,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing elit.Maecenas porttitor congue massa.,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing elit.Maec

41、enas porttitor congue massa.,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing elit.Maecenas porttitor congue massa.,在此添加关键字,Lorem ipsum dolor sit amet,consectetuer adipiscing elit.Maecenas porttitor congue massa.,单击此处添加标题内容,PPT,模板下载:,PPT,素材下载:,PPT,图表下载:,PPT,教程:,Excel,教程:,PPT,课件下载:,PPT,论坛:,输入你的文本内容输入你的文本内容,2019,年年终总结计划,THANKS,

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服