ImageVerifierCode 换一换
格式:PPTX , 页数:64 ,大小:8.44MB ,
资源ID:4223857      下载积分:16 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/4223857.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请。


权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4009-655-100;投诉/维权电话:18658249818。

注意事项

本文(深学习介绍.pptx)为本站上传会员【精****】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

深学习介绍.pptx

1、深度学习介绍2018年5月1目录深度学习概述深度学习常见场景深度学习常用算法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望21.1 深度学习概述3深度学习(Deep Learning,DL)由Hinton等人于2006年提出,是机器学习(MachineLearning,ML)的一个新领域。深度学习起源于人工神经网络,它的定义:通过组合低层特征形成更加抽象的高层特征或类别,从而从大量的输入数据中学习有效特征表示,并把这些特征用于分类、回归和信息检索的一种技术。深度学习被引入机器学习使其更接近于最初的目标-人工智能(AI,Artificial Intelligence)。深度学

2、习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。1.2 与机器学习关系4如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。1.3 基本概念5深度学习(Deep Learning,DL):通过组合低层特征形成更加抽象的高层特征或类别,从而从大量的输入数据中学习有效特征表示,并把这些特征用于分类、回归和信息检索的一种技术。人工神经网络:是一种模仿动物神经网络行为特征,进行分布

3、式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。深度神经网络:包含多个隐含层的神经网络。模型:可以理解成算法和数据的合集。模型训练:利用模型的算法,使用深度神经网络进行权值的训练,最终得出一个最优解。模型预测:使用训练完成的模型进行预测,得出分类识别结果。目录深度学习概述深度学习常见场景深度学习常用算法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望62 深度学习场景7当前深度学习使用的场景主要在无人驾驶,人脸识别,拍照购,智能客服,文字识别,语音识别,目标检测,图片分类等方面。深度学习无人驾驶人脸识别

4、拍照购智能客服文字识别目标检测图像分类语音识别2.1 深度学习场景-无人驾驶8无人驾驶:深度学习利用其深层的神经网络,通过一定的算法能训练出一个识别率非常高的分类器,从而能够使环境感知部分高精度的完成,为驾驶决策模块提供正确的环境信息,保证无人驾驶正常的完成。2.2 深度学习场景-人脸识别9人脸识别:人脸信息的识别,是对人脸的信息加以提取然后进行识别的办法,一个最重要的目标就是分辨不同人的信息,辨别身份。面部识别的主要方式有:几何结构、子空间局部特征以及深度学习。安防领域开户审核考勤门禁.2.3 深度学习场景-文字识别10文字识别:基于深度学习的文字识别系统的实现方法,属于图像处理技术领域,将

5、包含文字的图片进行预处理、切分、识别,重组成一段文本,从而实现图片到文本的转换。涉及到图像预处理、图片切分、图片识别和文字重组。审核车牌识别文档识别.2.4 深度学习场景-图像识别11图片识别:图像识别与人脸及文字识别类似,主要流程包括图像预处理,图像分割,图像特征提取和图像分类。图像审核拍照购工业医疗检测目标识别.2.5 深度学习场景-语音识别12语音识别:一个完整的语音识别系统可大致分为3部分:语音特征提取、声学模型与模式匹配和语言模型与语言处理。其中声学模型是识别系统的底层模型,并且是语音识别系统中最关键的一部分。语音审核语音转文字语音控制.目录深度学习概述深度学习常见场景深度学习常用算

6、法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望133.1 人工神经网络(ANN)14人工神经网络(Artificial Neural Networks)是一种模仿生物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点(神经元)之间相互连接的权重,从而达到处理信息的目的。3.1 人工神经网络(ANN)15神经网络3.1 人工神经网络(ANN)16人工神经网络的重要概念:1 权值矩阵:相当于神经网络的记忆!在训练的过程中,动态调整和适应。2 激励函数:3.1 人工神经网络(ANN)17人工神经网络的重要概念:激励函数很重要

7、无论是对建立神经网络的模型,还是理解神经网络。首先要了解,它有以下几个影响:1 如何能更好的求解目标函数的极值!高等数学中求解函数极值的知识!可微,单调!2 如何提升训练效率,让梯度的优化方法更稳定;3 权值的初始值,不影响训练结果!3.1 卷积神经网络(CNN)18卷积神经网络(Convolutional Neural Networks/CNNs/ConvNets)与普通神经网络非常相似,它们都由具有可学习的权重和偏置常量(biases)的神经元组成。每个神经元都接收一些输入,并做一些点积计算,输出是每个分类的分数,普通神经网络里的一些计算技巧到这里依旧适用。与普通神经网络不同之处:卷积神

8、经网络默认输入是图像,可以让我们把特定的性质编码入网络结构,使是我们的前馈函数更加有效率,并减少了大量参数。3.1 卷积神经网络(CNN)19卷积操作:对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的卷积操作,也是卷积神经网络的名字来源。3.1 卷积神经网络(CNN)203.1 卷积神经网络(CNN)213.1 卷积神经网络(CNN)22卷积层(Convolutional layer),卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得

9、到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。线性整流层(Rectified Linear Units layer,ReLU layer),这一层神经的激励函数(Activation function)使用线性整流(Rectified Linear Units,ReLU)f(x)=max(0,x)。池化层(Pooling layer),通常在卷积层之后会得到维度很大的特征,将特征切成几个区域,取其最大值或平均值,得到新的、维度较小的特征。全连接层(Fully-Connected layer

10、把所有局部特征结合变成全局特征,用来计算最后每一类的得分。3.1 卷积神经网络(CNN)233.1 卷积神经网络(CNN)24在图像处理中,往往把图像表示为像素的向量,比如一个10001000的图像,可以表示为一个1000000的向量。在上一节中提到的神经网络中,如果隐含层数目与输入层一样,即也是1000000时,那么输入层到隐含层的参数数据为10000001000000=1012,这样就太多了,基本没法训练。所以图像处理要想练成神经网络大法,必先减少参数加快速度。就跟辟邪剑谱似的,普通人练得很挫,一旦自宫后内力变强剑法变快,就变的很牛了。3.1 卷积神经网络(CNN)25卷积神经网络有两

11、种神器可以降低参数数目,第一种神器叫做局部感知。在下方右图中,假如每个神经元只和1010个像素值相连,那么权值数据为1000000100个参数,减少为原来的万分之一。而那1010个像素值对应的1010个参数,其实就相当于卷积操作。3.1 卷积神经网络(CNN)26这样的话参数仍然过多,那么就启动第二级神器,即权值共享。在上面的局部连接中,每个神经元都对应100个参数,一共1000000个神经元,如果这1000000个神经元的100个参数都是相等的,那么参数数目就变为100了。怎么理解权值共享呢?我们可以这100个参数(也就是卷积操作)看成是提取特征的方式,该方式与位置无关。这其中隐含的原理则是

12、图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。3.1 卷积神经网络(CNN)27上面所述只有100个参数时,表明只有1个100*100的卷积核,显然,特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,可以学习32种特征。在有多个卷积核时,如下图所示:3.1 卷积神经网络(CNN)28池化,也称作下采样,可以实现降维。常用有最大值池化和均值池化。3.1 卷积神经网络(CNN)29全连接层:连接所有的特征,将输出值送给分类器(如softmax分类器),最终得出识别结果。3.2

13、常见网络模型30LeNet3.2 常见网络模型31AlexNet3.2 常见网络模型32VGG163.2 常见网络模型33GoogleNet(InceptionV4)3.2 常见网络模型34比较3.3 其他深度学习算法35自动编码器(AutoEncoder)稀疏编码(Sparse Coding)限制玻尔兹曼机(RBM)目录深度学习概述深度学习常见场景深度学习常用算法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望364.1 开源框架概述37深度学习研究的热潮持续高涨,各种开源深度学习框架也层出不穷,其中包括TensorFlow、Caffe、Keras、CNTK、Torch7、

14、MXNet、Leaf、Theano、DeepLearning4、Lasagne、Neon等等。下图是各个开源框架在GitHub上的数据统计(2017年初)。4.1 开源框架概述38Google、Microsoft、Facebook等巨头都参与了这场深度学习框架大战,此外,还有毕业于伯克利大学的贾扬清主导开发的Caffe,蒙特利尔大学LisaLab团队开发的Theano,以及其他个人或商业组织贡献的框架。下表是主流深度学习框架在各个维度的评分。4.2 TensorFlow39TensorFlow最初是由研究人员和Google Brain团队针对机器学习和深度神经网络进行研究所开发的,目前开源之后

15、可以在几乎各种领域适用。TensorFlow灵活的架构可以部署在一个或多个CPU、GPU的台式以及服务器中,或者使用单一的API应用在移动设备中。4.3 Caffe40Caffe由加州大学伯克利的PHD贾扬清开发,全称Convolutional Architecture for Fast Feature Embedding,是一个清晰而高效的开源深度学习框架,目前由伯克利视觉学中心(Berkeley Vision and Learning Center,BVLC)进行维护。(贾扬清曾就职于MSRA、NEC、Google Brain,他也是TensorFlow的作者之一,目前任职于Faceboo

16、k FAIR实验室。)Caffe2脸书(Facebook)出品,为生产环境设计,提供在各种平台(包括移动设备)的运行。4.4 Torch41Torch是一个有大量机器学习算法支持的科学计算框架,其诞生已经有十年之久,但是真正起势得益于Facebook开源了大量Torch的深度学习模块和扩展。Torch另外一个特殊之处是采用了编程语言Lua(该语言曾被用来开发视频游戏)。PyTorch是基于Torch的衍生,支持Python语言,实现了机器学习框架 Torch 在 Python 语言环境的执行。4.5 Theano422008年诞生于蒙特利尔理工学院,Theano派生出了大量深度学习Python

17、软件包,最著名的包括Blocks和Keras。Theano的核心是一个数学表达式的编译器,它知道如何获取你的结构。并使之成为一个使用numpy、高效本地库的高效代码,如BLAS和本地代码(C+)在CPU或GPU上尽可能快地运行。它是为深度学习中处理大型神经网络算法所需的计算而专门设计的,是这类库的首创之一(发展始于2007年),被认为是深度学习研究和开发的行业标准。4.6 Deeplearning4j43Deeplearning4j是“for Java”的深度学习框架,也是首个商用级别的深度学习开源库。Deeplearning4j由创业公司Skymind于2014年6月发布,使用 Deeple

18、arning4j的不乏埃森哲、雪弗兰、博斯咨询和IBM等明星企业。DeepLearning4j是一个面向生产环境和商业应用的高成熟度深度学习开源库,可与Hadoop和Spark集成,即插即用,方便开发者在APP中快速集成深度学习功能。4.7 MXNet44出自CXXNet、Minerva、Purine 等项目的开发者之手,主要用C+编写。MXNet 强调提高内存使用的效率,甚至能在智能手机上运行诸如图像识别等任务。4.8 CNTK45CNTK(ComputationalNetworkToolkit)是微软研究院(MSR)开源的深度学习框架。它最早由startthedeeplearningcra

19、ze的演讲人创建,目前已经发展成一个通用的、跨平台的深度学习系统,在语音识别领域的使用尤其广泛。目录深度学习概述深度学习常见场景深度学习常用算法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望465.1 引言47TensorFlow的API主要分两个层次,核心层和基于核心层的高级API。核心层面向机器学习的研究人员,以及对模型控制精细的相关人员。高级API使用和学习相对容易,简化重复性任务,使不同的用户之间保持一致性。高级API,如tf.contrib.learn可以帮助管理数据集data set,估计量estimators,训练training,推理inference注意,

20、一些高级API的方法名中包含contrib,意味着这些API依然处于开发过程中,这些方法在后续的TensorFlow版本中可能改变或者不再使用本章从核心层开始,后边会提到如何使用tf.contrib.learn实现模型。了解核心层,在使用高级API的时候知道程序是如何工作的。5.2 安装48推荐使用Anaconda环境安装,集成了Python,numpy等。Windows要求Python版本为3.5。在线环境直接使用pip install tensorflow(tensorflow_gpu)离线环境可下载whl包进行安装(https:/pypi.python.org/pypi),然后同样执行p

21、ip install xx.whl进行安装,安装过程中若提示缺少依赖包可下载安装后再继续安装。推荐Python开发工具 PyCharm安装成功后验证安装是否成功$pythonimport tensorflow as tftf._version_#查看TF版本tf._path_#查看TF安装路径5.3 张量Tensor49数据的核心单元,一个tensor是一个包含任意维度的数组,张量的阶Tensor rank是数组的维度,如下:3#0阶张量,一个标量scalar with shape1.,2.,3.#1阶张量;一个向量vector with shape 31.,2.,3.,4.,5.,6.#2阶

22、 张量;一个矩阵matrix with shape 2,31.,2.,3.,7.,8.,9.#3阶 张量tensor with shape 2,1,32 是指1.,2.,3.和 7.,8.,9.1 是指1.,2.,3.中有1个 1.,2.,3.3 是指 1.,2.,3.中有3个:1.,2.,3.5.4 计算图 Computational Graph50Tensorflow编程包含两个步骤:1.构造计算图 2.运行计算图计算图是什么?计算图是一系列的计算操作抽象为图中的节点。构造一个简单的计算图:每个节点将0或多个tensor作为输入,输出一个tensor。一种类型的节点是常量节点constan

23、t,就如同tensorflow中的常数,它有0个输入,输出一个值。构建两个浮点型tensor:node1和node25.4 计算图 Computational Graph51构造一个简单的计算图:每个节点将0或多个tensor作为输入,输出一个tensor。一种类型的节点是常量节点constant,就如同tensorflow中的常数,它有0个输入,输出一个值。构建两个浮点型tensor:node1和node2node1=tf.constant(3.0,tf.float32)node2=tf.constant(4.0)#also tf.float32 implicitly print(node1

24、node2)输出结果:Tensor(Const:0,shape=(),dtype=float32)Tensor(Const_1:0,shape=(),dtype=float32)5.4 计算图 Computational Graph52需要说明,打印结果并不是我们期待的3.0,4.0,因为这是打印的节点(属于计算操作),当评估运行之后,才是我们期待的值。评估一个节点,必须在一个会话Session中运行计算图,会话封装了Tensorflow运行时的状态和控制接下来创建一个Session会话对象,调用run方法,运行计算图,去评估node1和node2sess=tf.Session()print

25、sess.run(node1,node2)输出结果:3.0,4.0 5.4 计算图 Computational Graph53可以使用计算操作将多个节点组合,构建更复杂的计算,例如将两个常量节点相加,产生一个新的计算图:node3=tf.add(node1,node2)print(node3:,node3)print(sess.run(node3):,sess.run(node3)输出结果:node3:Tensor(Add:0,shape=(),dtype=float32)sess.run(node3):7.0 5.4 计算图 Computational Graph54计算图可以使用占位符p

26、laceholder参数化的从外部输入数据,placeholder的作用是在稍后提供一个值#构造计算图 a=tf.placeholder(tf.float32)b=tf.placeholder(tf.float32)adder_node=a+b#运行计算图 print(adder_node:,adder_node)print(sess.run(adder_node,a:3,b:4.5)print(sess.run(adder_node,a:1,3,b:2,4)输出结果:adder_node:Tensor(add:0,dtype=float32)7.5 3.7.5.4 计算图 Computati

27、onal Graph55在机器学习中,需要模型可以任意输入,为了模型具有可训练能力,需要修正计算图,使对于同样的输入得到新的输出。变量Variable允许我们为计算图添加训练参数。构造一个变量,需要提供类型和初始值:W=tf.Variable(.3,tf.float32)b=tf.Variable(-.3,tf.float32)x=tf.placeholder(tf.float32)linear_model=W*x+b 5.4 计算图 Computational Graph56常量节点在调用tf.constant时就被初始化,而变量在调用tf.Variable时并不初始化,必须显性的执行如下操

28、作:init=tf.global_variables_initializer()sess.run(init)意识到init对象是Tensorflow子图初始化所有全局变量的句柄是重要的,在调用sess.run(init)方法之前,所有变量都是未初始化的。因为x是一个占位符,我们可以指定几个值来评估linear_model模型(训练)print(linear_model:,linear_model)print(sess.run(linear_model,x:1,2,3,4)得到输出:linear_model:Tensor(add_1:0,dtype=float32)0.0.30000001 0.

29、60000002 0.90000004 5.4 计算图 Computational Graph57我们创建了一个模型,但是不知道这个模型的效果怎么样,基于训练数据来评估模型,还需要一个placeholder y 来提供期望值,我们需要一个损失函数loss function损失函数测量当前模型与真实数据之间的差距,对于线性模型,我们使用标准损失函数,求模型预测结果与实际数据之间差值的平方和sum the squares of the deltasy=tf.placeholder(tf.float32)squared_deltas=tf.square(linear_model-y)loss=tf.

30、reduce_sum(squared_deltas)print(loss:,loss)print(sess.run(loss,x:1,2,3,4,y:0,-1,-2,-3)输出结果:loss:Tensor(Sum:0,dtype=float32)23.66 5.4 计算图 Computational Graph58我们可以通过手动的方式将参数W和b置为W=-1,b=1,使模型最优,即损失函数最小。初始化后的变量可以通过tf.assign来更改,tf.assign后需要tf.run生效fixW=tf.assign(W,-1.)fixb=tf.assign(b,1.)sess.run(fixW,f

31、ixb)print(fix loss:,sess.run(loss,x:1,2,3,4,y:0,-1,-2,-3)输出结果:fix loss:0.0 我们猜想最优的W和b值,但是在机器学习中,就是自动的寻找这些最优的模型参数。5.5 API tf.train59Tensorflow提供了优化器Optimizer慢慢改变每个变量来最小化损失函数。最简单的Optimizer是梯度下降gradient descent,它根据损失函数相对于该变量的导数大小来修改参数值,一般来讲,手动计算导数是乏味且易出错的,Tensorflow可以使用方法tf.gradients自动的为给定模型计算导数。优化器通常做

32、这个工作。5.5 API tf.train60optimizer=tf.train.GradientDescentOptimizer(0.01)train=optimizer.minimize(loss)print(train:n,trian)sess.run(init)#重置变量到初始化值 for i in range(1000):sess.run(train,x:1,2,3,4,y:0,-1,-2,-3)print(sess.run(W,b)输出结果:train:name:GradientDescent op:NoOp array(-0.9999969,dtype=float32),array(0.99999082,dtype=float32)5.6 作业-图像分类61基本:使用TensorFlow对商品图像进行训练,模型可自己选择,或自定义使用TensorBoard查看训练过程输出商品分类模型进阶:使用测试样本集验证模型准确率部署模型,提供预测服务目录深度学习概述深度学习常见场景深度学习常用算法介绍深度学习常用框架介绍TensorFlow入门深度学习未来和展望626.1 未来与展望63无监督半监督学习所占比重会越来越大。用于学习的硬件设备会越来越强大,效率越来越高。有向移动端转移的趋势。可视化开发,开发框架会越来越普遍,入门更加简单。小数据样本的训练所占比重会增大。谢谢64

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4009-655-100  投诉/维权电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服