资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,2019/7/7,#,系统工程,Presentation,人工神经网络,技术已成为生命的第七种存在方式,Technology has become the seventh way of existence of life,历史发展,代表人物,理论内容,目 录,简介,年度工作,概述,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,简介,伦敦,当地时间,10,月,18,日,18,:,00,(北京时间,19,日,01,:,00,),谷歌旗下的,DeepMind,团队公布了进化后的最强版,AlphaGo,,,代号,AlphaGo,Zero,。,AlphaGo,Zero,的系统,从一个对围棋一无所知的神经网络开始,将该神经网络和一个强力搜索算法结合,自我对弈。在对弈过程中,神经网络不断调整、升级,预测每一步落子和最终的胜利者,计算机信息处理能力高于人类,但识别能力比人类相去甚远,计算机,依靠模型运算,人脑,并行处理信息,机器会思考吗?,由大量简单的基本元件,神经元相互连接,通过模拟人的大脑神经处理信息的方式,进行信息并行处理和非线性转换的复杂网络系统。,人工神经网络,(,Artificial Neutral Networks,),工作完成情况,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,历史,发展,历史发展,提出“机器思维”,的,方法,提出自,适应线性元件,感知机,使,神经网络走向低谷,确定人工智能,的概念,人工神经网络的构造和学习有了理论,指导,,神经网络开始,复兴,Rumelhart,和,McClelland,发展了,BP,算法,2006,1955,2009,1969,2014,1986,1949,(,1947,),1959,1984,历史发展,Deep Learning,发表,,深度,学习真正被学学术界接受,吴恩达和谷歌科学家合作,模拟,人脑神经网络,,自主学习到“猫”,AlphaGo,打败李世石,人工智能成为热门话题,2006,2012,2009,2015,2014,2016,1949,1984,工作完成情况,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,代表人物,代表人物,艾伦,麦席森,图灵,Alan Mathisn Turing,英国,数学家、逻辑学家,被称为计算机科学之父,人工智能之父,。,约翰,霍普菲尔德,John Hopfueld,提出了霍普菲尔德神经网络,使神经网络的平衡稳定状态有了明确的判断方法,杰,弗里,辛顿,Geoffrey,Hinton,谷歌,工程研究员,多伦多大学计算机科学系教授,反向传播算法和对比散度算法的发明人,之一,扬,勒丘恩,Yann LeCun,师从杰弗里,辛顿,,AT&T,贝尔实验室成员,第一个把,BP,算法,运用在卷积神经网络上的人,吴恩达,Andrew Ng,斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任,。人工智能,和机器学习,领域最,权威的学者之一,。,戴密斯,哈萨比斯,Demis Hassabis,DeepMind,创始人。人工智能,程序,AlphaGo,的,开发,者,神经,学家,和人工智能企业家,工作完成情况,此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量简洁生动。尽量将每页幻灯片的字数控制在,200,字以内,据统计每页幻灯片的最好控制在,5,分钟之内。此处添加详细文本描述,建议与标题相关并符合整体语言风格,理论内容,研究机器模拟人类的学习活动,获取知识和技能的理论和方法,以改善系统性能的学科。,机器学习,(,Machine Learning,),机器学习,表示语言,数据和目标,概念空间,操作,获取的知识,启发式搜索,学习方法:,统计,学习,决策树,迁移学习,增量学习,If(color is deep red,apple is sweet.,If(flexible):apple is juicy.,etc,.,买苹果,:,标准,1,:,苹果,=,熟了,甜,标准,2,:,个大,+,红色的苹果,=,甜,标准,3,标准,4,大脑的智慧是一种非线性现象;,人工神经元处于激活或抑制两种不同状态,在数学上表现为非线性关系;,具有阈值的神经元所构成的网络具有较好的容错性、存储能力,非线性,一个神经网络由多个神经元广泛连接而成,系统的整体行为不仅取决于单个神经元的特征,同时由单元间的相互连接、相互作用决定,非局限性,人工神经网络具有自适应、自组织、自学习能力,系统处理的信息可以有各种变化,系统本身也在不断变化,非常定性,系统的演化方向,在一定条件下取决于某个特定的状态函数,其极值对应系统比价比较稳定的状态,人工神经网络汇总这种函数具有多个极值,系统具有多个较稳定的平衡态,系统演化存在多样性,非凸性,THANK YOU,SUCCESS,2025/1/11 周六,15,可编辑,构造神经,元,人工神经网络的基本单位:人工神经元,树突:,信息传入,胞体:,信息处理,轴突:,数据传出,构造神经元,构造神经元,+,a=0,n,0,a=1,n0,内部强 度值,b,+,阶梯函数,(,Step,),a=0,n0,a=1,n0,符号,函数,(,S,gn,),a=-1,n0,a=1,n,0,线性函数,(,Linear,),a=n,饱和线性函数,(,Ramp,),a=0,n1,对数,S,形函数,(,Sigmoid,),传递函数,神经元,:,多,个输入、单输出的非线性器件,双曲正切,S,形函数,(,Tanh,),此处添加详细文本描述,建议与标题相关并符合整体语言风格,语言描述尽量,1,(红色),1,(圆形),-1,(黄色),-1,(弯型),感知机学习,苹果,颜色,香蕉,颜色,苹果,形状,香蕉,形状,感知机学习,颜色和形状对神经元来说都是外界的一个刺激,在这里有:,预设:,对苹果的判定:,对香蕉的判定:,step(2)=1,step(-2)=0,感知机学习,感知机学习规则,修改神经网络的权值和偏置,设,苹果的形状和颜色均输入属性,1,:,套用,step,函数:,f=0,计算误差:,e=t-z,=1-0,=1,带入学习规则:,重新计算属性输入:,套用,step,函数:,f(step)=1,信号源:外界刺激,上一神经元输出信号,输出:神经元输出结果,下一神经元的信号源,构造神经网络,单层神经网络,AND,运算:,线性不可分运算:,构造神经网络,品种,颜色,形状,苹果,1,(红色),1,(圆形),香蕉,0,(黄色),0,(弯型),分类逻辑运算:,0 and 0=0,香蕉,1 and 1=1,苹果,品种,颜色,形状,苹果,1,(红色),1,(圆形),香蕉,0,(黄色),0,(弯型),品种,颜色,形状,苹果,1,(红色),1,(圆形),香蕉,0,(黄色),0,(弯型),0 and 1=0,香蕉,?,1 and 0=0,香蕉,?,品种,颜色,形状,苹果,1,(红色),1,(圆形),香蕉,0,(黄色),0,(弯型),品种,颜色,形状,苹果,1,(红色),1,(圆形),香蕉,0,(黄色),0,(弯型),更红,更黄,更弯,更圆,更红,更黄,更弯,更圆,?,可见,层:输入节点,输出节点,隐层:中间层,(第一隐层、第二隐层。),构造神经网络,每一隐层都是一个单层神经网络,上一层输出只能是下一层输入,不可跨层链接,更红,更黄,更弯,更圆,多层,神经网络(前馈神经网络),前向网络:每一层神经元只接受来自前一层神经元的输入,后面的层对前面的层没有信号反馈。,构造神经网络,有反馈的前向网络:输出层对输入层有信息反馈,层内有相互结合的前向网络:通过层内神经元的相互结合,实现同层神经元之间的横向抑制或兴奋机制,相互结合型网络(全互连或部分互连):在任意两个神经元之间都有可能有连接(仅限于同层或前向),神经网络的学习(训练)方式,监督学习(,Supervised Learning,,,SL,):,Training,Predicting,神经网络的学习(训练)方式,无,监督学习(,Nonsupervised Learning,,,NSL,):,输入你的文本内容输入你的文本内容,2015,年年终总结计划,THANKS,THANK YOU,SUCCESS,2025/1/11 周六,29,可编辑,
展开阅读全文