1、1/4神经网络神经网络课程模拟试卷课程模拟试卷李 浩 程柏林一、填空题(共分,分题)1 人工神经网络()是生理学上的真实人脑神经网络的结构和功能,以及若干基本特性的某种理论生理学上的真实人脑神经网络的结构和功能,以及若干基本特性的某种理论抽象、简化和模拟而构成的抽象、简化和模拟而构成的一种信息处理系统。2 神经元的动作特征主要包括空间性相加空间性相加,时间性相加,阈值作用阈值作用,不应期(绝对相对),疲劳和可塑性可塑性。3 网络的稳定性、存储容量、吸引域半径和收敛时间四项指标不仅取决于权矩阵权矩阵和域值域值,而且与网络的工作方式工作方式有关。4 离散时间动力学系统的描述方程为,连续时间动力学系
2、统的描述方程为)()1(tXFtX。)()(tUFdttdU5 已知两对模式向量分别为,其中TmXXXX),(112111LTmXXXX),(222212L,。则它们之间的距离,类似度1,1iXmiiiXXmXX12121|21),(,两者之间的关系为。miiiXXmXXr121211),(),(121),(2121XXrXX6 神经网络的基本特性有拓扑性拓扑性,学习性(有无教师信号)学习性(有无教师信号)和稳定收敛性稳定收敛性。7 静止联想记忆网络的基本功能可以描述为:当输入当输入与与个存储模式之一个存储模式之一(XkX比较,如果两者相同(或者相近)比较,如果两者相同(或者相近),则输出,则
3、输出,即能联想起原有的,即能联想起原有的。)k,2,1LXy X8 神经元与输入信号结合的两种有代表的结合方式是粗结合粗结合和密结合密结合。其中,一个神经元只与少数几个输入信号相结合指的是粗结合粗结合。9 对于一个神经网络,经过有限次学习,总可以找到正确分类的权将两类模式进行分类,其前提条件是两类模式线性可分两类模式线性可分和样本充分多次出现样本充分多次出现。多层感知器学习算法的目的在于修改网络中的权系数,而改变网络的构造使其和教师信号的误差在于修改网络中的权系数,而改变网络的构造使其和教师信号的误差最小最小。二、问答题(共分)1(分)阐述简单感知器学习算法的学习目的和步骤。答:学习目的:答:
4、学习目的:利用给定已知类别的两个模式类,的训练样本的集合,经过感知器的若干次迭代,形成一个这利用给定已知类别的两个模式类,的训练样本的集合,经过感知器的若干次迭代,形成一个这样的权向量,若样的权向量,若,则,从而,则,从而;若;若,则,从而,则,从而。1WX 2WX 2/4算法步骤:算法步骤:(1)设置初始值()设置初始值(),为非零随机值;,为非零随机值;(2)输入一个样本输入一个样本和它的期望输出(教师信号)和它的期望输出(教师信号),(为学习(为学习TnxxxX)1,(21L2/)(ydr信号)信号);(3)计算计算;)sgn()(XWtyT(4)由计算由计算()得到修正权得到修正权,;
5、)()()1(trXtWtW110,0,021正确分类且且XWWXXWWXydrTT2(分)基于神经元的统一模型,指出改变或,或同时改变和,可到到哪些神经元)(f)(g)(f)(g模型?答:神经元的统一模型可用符号表示为:答:神经元的统一模型可用符号表示为:,其中,其中为连接权函数,为连接权函数,为激活函数(输出函数)为激活函数(输出函数)。)(iiixgfZ)(ig)(f讨论:讨论:(为常数)(为常数),改变,改变iiiixWxg)()(iiixWfZ)(f()()单位阶跃函数,单位阶跃函数,模型;模型;)()(If)(iiixWIZ()(),模型;模型;xxf)(iiixWZ()(),模型
6、(的推广)模型(的推广);)()(,baxf)(,iibaxWZ当当(为非线性函数)为非线性函数),)()(iiiiixWxg)(iix)(iiiixWfZ()(),xxf)()()(,bai)()(,ibaiiiiiixWxWZ 模型模型3(分)对称结合网在两种模型(离散、连续)下具有什么样的动力学特性?答:()离散时间动力学系统:答:()离散时间动力学系统:错误分类且且0,0,21XWWXXWWXydTT3/4能量函数为能量函数为,iiiijjiiijxhsxxWXE)(21)(,XZTnxxxX),(11L,iiuxXEiiiijjiihsxWu iixuXE当状态发生改变时,即从到,或
7、从到时,均可推出当状态发生改变时,即从到,或从到时,均可推出,所以状态总是朝着,所以状态总是朝着减小的方向变减小的方向变化。化。()连续时间动力学系统:()连续时间动力学系统:状态向量状态向量,为第个神经元的平均膜电位,为第个神经元的平均膜电位Tnuuuu),(21L势函数为势函数为iiiijijiijiiiiixhsxxWuFxuuV)(21)()(,,为激活函数;为激活函数;iuidxxfuF0)()()(xf dtduufuViii)(2)(iiidtduufdtdV结论是:状态总是朝着减小的方向变化。结论是:状态总是朝着减小的方向变化。4(分)用网络解问题。答:网络的隐层激活函数选为高
8、斯函数,网络如图所示。答:网络的隐层激活函数选为高斯函数,网络如图所示。,2,1),|exp(|)(|2itxtxGii因问题的对称性,隐单元到输出结点的权选为相同(用表示)因问题的对称性,隐单元到输出结点的权选为相同(用表示),输入到隐单元的权为(固定),输入到隐单元的权为(固定)。输出。输出可表示为可表示为,btxwGxyii21|)(|)(为中心,为中心,。用表示各相应输入下隐单元之输出(种可能输入)用表示各相应输入下隐单元之输出(种可能输入)2,1,4,3,2,1|),(|ijtxGgiii希望的输出值为已知,希望的输出值为已知,将,作为待求参数并表示为将,作为待求参数并表示为,则有如
9、下关系:,则有如下关系:dGw 其中,其中,13678.03678.0111353.013678.03678.011353.0111114241323122211211ggggggggG12(偏置)网络4/4给定数据(对)比待求参数(个)多,可用最小二承求伪逆,即给定数据(对)比待求参数(个)多,可用最小二承求伪逆,即,把值及值代入得到,把值及值代入得到dGGGdGwTT1)(692.1284.2284.2,4202.19202.04202.19202.02509.18292.12509.16727.02509.16727.02509.18292.1wG检查结果如下:检查结果如下:数据序号数据序号输入()输入()希望输出希望输出实际输出()实际输出()(,(,)(,(,)(,(,)(,(,)5(分)试用双向异联想网络分析其联想存储过程。设欲存储的两对矢量对分别为(),()(),()答:()首先将它们转换为双极性矢量对答:()首先将它们转换为双极性矢量对(),()(),()()形成权矩阵()形成权矩阵2002022020022002022020022211YXYXWTT()设域值为,运用所求的验证联想的结果()设域值为,运用所求的验证联想的结果()()()()()()()()结果是:无论是从哪端输入,均能实现正确联想。结果是:无论是从哪端输入,均能实现正确联想。