资源描述
第15章 人工神经网络方法
人工神经网络是在现代神经科学研究成果的基础上提出的一种抽象的数学模型, 它以某种简化、抽象和模拟等方式, 反映大脑功能的若干基本特征. 数学建模的人工神经网络方法就是从大量数据中利用某些方法,寻找该系统或事件的内在规律,建立该系统或事件的数据之间的联系,并用一种数学描述其输入与输出之间的关系. 它将一个系统的内在联系是通过数据、图表、图像、图形、公式、方程、网络结构等形式来体现的,所以,在某种程度上可以说,数据、图表、图像、图形、公式、方程、网络结构等都是该系统的模型表达,这种表达就是相似系统的概念。因此,数学建模就是由一种系统的模型表达转换为系统的另一种模型或表达形式, 比如数据、图表、图像、图形、公式、方程、网络结构等形式. 这种表达就是相似系统的概念. 数学建模的人工神经网络方法就是用人工神经网络的结构形式来代替实际物理系统模型。
15.1人工神经网简介
15.1.1什么是人工神经网络
人工神经网络(Artif icial Neural Network, ANN),简称为神经网络, 是由大量处理单元(人工神经元)广泛互连而成的网络,是对人脑的抽象、简化和模拟,反映人脑的基本特征.
它按照一定的学习规则, 通过对大量样本数据的学习和训练, 抽象出样本数据间的特性----网络掌握的“知识”, 把这些“知识”以神经元之间的连接权和阈值的形式储存在下来, 利用这些“知识”可以实现某种人脑的推理、判断等功能.
人工神经网络的研究是从人脑的生理结构出发来研究人的智能行为, 模拟人脑信息处理的能力。它是根植于神经科学、数学、统计学、物理学、计算机科学及工程等学科的一种技术。
15.1.2人工神经网络的要素
一个神经网络的特性和功能取决于三个要素:一是构成神经网络的基本单元----神经元;二是神经元之间的连续方式----神经网络的拓朴结构;三是用于神经网络学习和训练,修正神经元之间的连接权值和阈值的学习规则。
1.神经元
人工神经元是对生物神经元的功能的模拟。人的大脑中大约含有个生物神经元,生物神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干。主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成,如图15-1所示。
图15-1 生物神经元示意图
生物神经元通过突触接收和传递信息。在突触的接受侧,信号被送入胞体,这些信号在胞体里被综合。其中有的信号起刺激作用,有的起抑制作用。当胞体中接受的累加刺激超过一个阈值时,胞体就被激发,此时它将通过枝蔓向其他神经元发出信号。
根据生物神经元的特点,人们设计人工神经元,用它模拟生物神经元的输入信号加权和的特性。设个输入分别用表示,它们对应的联接权值依次为,用表该神经元所获得的输入信号的累积效果,即该神经元的网络输入量,表示神经元的实际输出。图15-2给出了人工神经元基本特性示意图。
图15-2 人工神经元基本特性示意图
为了实现人工神经元的功能, 人工神经元有一个变换函数, 用于执行对该神经元所获的网络输入量的转换, 这就是激活函数, 它可以将神经元的输出进行放大处理或限制在一个适当的范围内. 一般地, 激活函数由以下几种形式:
(1)硬极限函数,也叫阈值函数, 阶跃函数 常用于分类。
其中sgn(*)为符号函数。
(2)线性函数 常用于实现函数逼近的网络。
(3)饱和线性函数, 也叫非线性斜面函数, 它是最简单的非线性函数, 常用于分类。
(4)Sigmoidal函数, 也称S(型)函数, 压缩函数, 逻辑斯特函数 常用于分类、函数逼近或优化。
(5)高斯函数 常用于智能控制,系统优化,信息处理,模式识别等。
2. 网络的拓扑结构
单个的人工神经元的功能是简单的, 只有通过一定的方式将大量的人工神经元广泛的连接起来, 组成庞大的人工神经网络, 才能实现对复杂的信息进行处理和存储, 并表现出不同的优越特性. 根据神经元之间的连接的拓扑结构上的不同, 将人工神经网络结构分为两大类, 即层次型结构和互连型结构.
(1) 层次型拓扑结构
层次型结构的神经网络将神经元按功能的不同分为若干层, 一般有输入层、中间层(隐层)和输出层,各层顺序连接, 如图15-3所示。输入层接受外部的信号,并由各输入单元传递给直接相连的中间层各个神经元。中间层是网络的内部处理单元层,它与外部没有直接连接,神经网络所具有的模式变换能力,如模式分类、模式完善、特征提取等,主要是在中间层进行的。根据处理功能的不同,中间层可以是一层、多层也可以。由于中间层单元不直接与外部输入输出进行信息交换,因此常将神经网络的中间层称为隐层,或隐含层,隐藏层等。输出层是网络输出运行结果并与显示设备或执行机构相连接的部分。
图15-3 层次型神经网络拓扑结构图
(2)互连型拓扑结构
互连型结构的神经网络是指网络中任意两个神经元之间都是可以相互连接的,如图15-4所示。例如,Hopfield网络(循环网络)、波尔茨曼机模型网络的结构均属于这种类型。
图15-4 全互连型网络拓扑结构图
3. 网络的学习规则(算法)
神经网络的学习有两种形式:有导学习和无导学习。
有导学习也称监督学习(Supervised Learning)。一般情况下,有导学习的训练样本是输入输出对(),,其中为输入样本,为输出样本(期望输出,或导师信号)。神经网络训练的目的是:通过调节各神经元的自由参数,是网络产生期望的行为,即当输入样本时,网络输出尽可能接近。
无导学习也称无监督学习(Unsupervised Learning)或自组织学习(Self-Organized Learning)。无导学习不提供导师信号,只规定学习方式或某些规则,具体的学习内容随系统所处环境(即输入信号情况)而异,系统可以自动发现环境特征和规律。
不管是有导学习还是无导学习,都要通过调整神经元的自由参数(权值或阈值)实现。
输入样本:
当前权值:
期望输出:
权值调节公式:,其中为学习率,一般取较小的值,权值调整量一般与x,d及当前权值w(t)有关。
(1) Hebb学习规则
输入样本:
当前权值:
实际输出:
权值调节公式:,其中权值调整量.
(2) 离散感知器学习规则
如果神经元的基函数取线性函数,激活函数取硬极限函数,则神经元就成了单神经元感知器,其学习规则称离散感知器学习规则,是一种有导学习算法。常用于单层及多层离散感知器网络。
输入样本:
当前权值:
期望输出:
当前输出:
当前误差信号:
当前权值调节量:
权值修正公式:。
(3) Delta()学习规则
1986年,认知心理学家McClelland和RumeChart在神经网络训练中引入了(Delta)规则,该规则也称连续感知器学习规则。
输入样本:
当前权值:
期望输出:
基函数:
实际输出:(激活函数)
输出误差:
神经元权值调节学习规则的目的是:通过训练权值w,使得对于训练样本对(x,d),神经元的输出误差达最小,误差E是权向量w的函数,欲使误差E最小,w应与误差的负梯度成正比,即,其中,比例系数是一个常数,误差梯度:
得权值调整公式:
常用于:单层、多层神经网络、BP网。
(4) 最小均方(LMS)学习规则
1962年,Bernard Widrow和Marcian Hoff提出了Widrow-Hoff学习规则,因为它能使神经元实际输出与期望输出之间的平方差最小,故又称最小均方规则(LMS)。
在学习规则中,若激活函数f(·)取:,则学习规则就成为LMS学习规则:
输入样本:
当前权值:
期望输出:
基函数:
实际输出:(激活函数)
输出误差:
权值调整公式:
常用于自适应线性单元。
(5) 竞争学习规则
也称Winner-Take-All(胜者为王)学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入,竞争层的所有神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元,即:. 只有获胜神经元才有权调整其权向量,调整量为:,式中,是学习常数,一般其值随着学习进展的增大而减少。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的是使进一步接近当前输入. 显然,当下次出现与相像的输入模式时,上次获胜的神经元更容易获胜,在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为样本空间的聚类中心。
15.1.3数学建模中常用的两种网络
在数学建模中,常用的人工神经网络主要有两类:一是基于误差反向传播算法的前馈神经网络,比如BP神经网络,主要用于实现非线性映射;二是自相连映射神经网络,比如Hopfield神经网络,主要用于聚类和模式识别等。
15.2人工神经网的实现
15.2.1 BP网络算法与实现
1.BP网络算法
BP网络是有指导训练的前馈多层网络,其训练算法为BP(Back Propagation)算法,是靠调节各层的加权,使网络学会由输入输出对组成的训练组的特性。下面进行BP算法推导,图15-5为BP为网络的结构图。
图15-5 三层BP网络结构
输入向量:
隐层输出向量:
输出层输出向量:
期望输出向量:
输入层到隐层之间的权值矩阵:, 其中列向量为隐层第j个神经元对应的权向量:.
隐层到输出层之间的权值矩阵:,其中列向量为输出层第k个神经元对应的权向量:
对于输出层,激活函数为
, (15.1)
该层的网络输入为
; (15.2)
对于隐层,激活函数为
, (15.3)
该层的网络输入为
. (15.4)
以上所选激活函数均为Sigmoid函数,它是连续可导的。例如, 可令
, (15.5)
则.
定义输出误差为
(15.6)
将以上误差定义式代入至输出层,有
(15.7)
进一步展开至隐层,有
(15.8)
从式(15.7) (15.8)可以看出,误差是各层权值的函数。调整权值可使误差不断减小,因此,因使权值的调整量与误差的梯度下降成正比,即
(15.9)
(15.10)
式中,负号表示梯度下降,常数在训练中表示学习速率,一般取.
根据式(15.9)(15.10), 可对连接权值进行调整。下面进行对连接权调整的理论推导,在以下推导过程中, 我们有:. 由(15.9)(15.10)得,
(15.11)
(15.12)
对于输出层和隐层,分别定义一个误差信号,记为
, (15.13)
由(15.2)和(15.13),则(15.11)可写为:
(15.14)
由(15.4)和(15.13),则(15.12)可写为:
(15.15)
由(15.14)(15.15)可知, 为调整连接值, 只需求出误差信号,.事实上,它们可展开为:
(15.16)
(15.17)
又由(15.6)(15.7)可得:
(15.18)
(15.19)
将(15.18)(15.19)分别代入(15.16)、(15.17), 并利用(15.5), 得:
(15.20)
(15.21)
至此, 我们得到了两个误差信号的计算公式, 将它们代入到(15.14)(15.15), 就得到了BP算法连接权的值调整计算公式:
, (15.22a)
. (15.22b)
2. BP算法程序实现
(1)连接权初始化
对权值矩阵赋随机数,将样本模式计数器P和训练次数计数器q置为1,误差E=0,学习率设为,网络训练后达到的精度.设为一个小的正数(0.001).
(2)输入训练样本对,计算各层输出
用当前样本对向量组赋值,用下式计算中各分量:
输出层:
隐层:
式中,
(3)计算网络输出误差
假设共有P对训练样本, 总输出误差为
,
其中.
(4)计算各层误差信号:,
(5)调整各层权值
应用(15.22a),(15.22b),计算W,V中各分量。
(6)检查是否对所有样本完成一次轮训
若,计数器各增加1,返回步骤(2),否则转步(7)。
(7)检查网络总误差是否达到精度要求,若,训练结束。
15.2.2 Hopfield网络算法与实现
Hopfield网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型和连续性两种。根据神经网络运行过程中的信息流向,可分为前馈式和反馈式两种基本类型。前馈网络的输出仅由当前输入和权矩阵决定,而与网络先前的输出状态无关。
一般地, 神经元信息的传递需要对神经元进行刺激,这就是信息的输入,这部分是由树突完成的,当然对于不同的神经元而言输入信息的种类不同。
信息输入的形式是以局部电流的形式,但由于每一个生物神经元的始段与任意一个神经元的突触距离是不同的,所以要考虑在总和之前乘以不同的权值。而在始段的电位类似于感觉神经元的性质,只是此处的输入可以视作为电流在始段处加权后电流的总和。
信息的输出结果则是由各突触在始段的电位大小与此神经元的阈值大小的关系决定的。如果神经元的输出只取1和0这两个值,那么该网络称为离散Hopfield神经网络。在离散Hopfield网络中,所采用的神经元都是二值神经元。因此,所输出的离散值1和0分别表示神经元处于激活和抑制状态。
考虑由三个神经元组成的离散Hopfield神经网络,其结构如图15-6所示。
图15-6 离散Hopfield神经网络图
在图15-6中,第0层仅仅是作为网络的输入,它不是实际神经元,所以无计算功能;而第一层是实际神经元,故而执行对输入信息与权系数乘积求累加和,并由非线性函数f处理后产生输出信息。f是一个简单的阈值函效,如果神经元的输出信息大于阈值θ,那么,神经元的输出就取值为1;小于阈值θ,则神经元的输出就取值为0。
在Hopfield网络中,信息的传递由输入、联结权、网络输入以及输出构成。Hopfield神经网络由单层全互联的神经元组成,神经元没有自连接,即;神经元与神经元之间的连接是对称的,即,故各神经元之间的权向量:
.
当用Hopfield网络作为相联存储器时,设有个样本向量、、、…、要存入Hopfield神经网络中,则以及第个神经元与第个神经元之间相连的权值为:
,
即当在时等于0,则说明一个神经元的输出并不会反馈到它自己的输入;这时,离散的HopfieId网络称为无自反馈网络; 当在时不等于0,则说明—个神经元的输出会反馈到它自己的输入;这时,离散的Hopfield网络称为有自反馈的网络。
离散HopfieId网络二值输出为:
,
且.
连续Hopfield网络的拓扑结构和离散Hopfield网络的结构相同。这种拓扑结构和生物的神经系统中大量存在的神经反馈回路是相一致的。在连续Hopfield网络中,其稳定条件也要求,这和离散Hopfield网络一致. 连续Hopfield网络和离散Hopfield网络不同的地方在于其输入不是脉冲函数,而是连续的S型函数。
连续Hopfield网络要求在时间上是连续的.所以,网络中各神经元是处于同步工作状态。对于一个神经细胞,即神经元,设其内部膜电位状态用表示, 细胞膜输入电容为,细胞膜的传递电阻为,输出电压为,外部输入电流用表示,则连续Hopfield网络可用图15-7所示的电路表示。
图15-7连续Hopfield神经网络图
网络输出为
其动力学方程为
其中为输出电位, 为输入电位。由此可用一般式表示, 即
.
评价此模型的重要指标为能量函数,其表示如下:
其中
----网络的一致性测度;
----神经元的输入和输出的一致性测度;
----神经元自身的稳定性的测度。
对于离散型Hopfield神经网络, 其能量函数的计算公式为
其中表示第个神经元的网络输出。
对于连续型Hopfield神经网络, 其能量函数的计算公式为
比较以上两个能量函数, 不难发现无论网络属于哪种类型,均有
.
因此, 当网络神经元的传递函数是S函数,且网络权系数矩阵对称时, 则网络的能量会随时间的增加而下降或保持不变;而且只有当输出电位随时间变化不变时.网络的能量才会不变。简而言之,在上述条件下, 网络的能量是不变或下降的。
15.2.3程序实现
Matlab的人工神经网络工具箱描述了图形用户接口, 运算法则和体系结构,并且解释了工具箱为了使用模块化网络对象描述而增强的机动性。
1.BP网络的主要函数
数据归一化——mapminmax; mapstd;
创建BP网络——newff;
初始化——init;
仿真—— sim;
训练算法——trainlm(速度快,需存储空间大);
学习规则——learngdm;
网络训练——train.
2. Hopfield网络的主要函数
饱和线性传递函数——satlin;
对称饱和线性传递函数——satlins;
生成一个Hopfield回归网络——newhop;
更新NNT 2.0 Hopfield回归网络——nnt2hop.
15.3人工神经网的应用
人工神经网络经过多年的发展,应用研究也取得了突破性进展,范围正在不断扩大,其应用领域几乎包括各个方面。半个世纪以来,这门学科的理论和技术基础已达到了一定规模,就应用的技术领域而言有计算机视觉,语言的识别、理解与合成,优化计算,智能控制及复杂系统分析,模式识别,神经计算机研制,知识推理专家系统与人工智能。涉及的学科有神经生理学、认识科学、数理科学、心理学、信息科学、计算机科学、微电子学、光学、动力学、生物电子学等。
人工神经网络具有的独特结构和信息处理能力,使得它具有广泛的应用领域和潜在的应用领域.
1.模式识别
神经网络可以实现许多的模式预处理和模式识别. 所谓模式,一般指文字、符号、图形、图像、声音等. 模式预处理就是对模式进行压缩、增强、去噪、特征提取、以及各种变换等, 就是通过某种预处理接收一种形式的信息,然后应用某种方法把他们转换成更多的、想要的、可用的形式的信息. 模式识别就是对输入模式映射到某些特定类别,从而加以识别分类。
2.信号处理
神经网络被广泛地应用于信号处理领域, 主要包括: 信号变换与分解, 自适应均衡与干扰对消, 信号检测与估计, 图像处理, 阵列信号处理, 谱估计, 小波变换, 等.
3.自动控制
神经网络在自动控制方面的应用很多, 例如: Window提出的LMS算法就是应用于自动控制的一个典型代表, 前馈神经网络和反馈神经网络的应用, 机器人智能控制, 神经网络的系统辨识, 模糊神经网络智能控制(如控制洗衣机的整个洗衣过程), 等.
4.其它应用
随着神经网络理论研究和计算能力的不断深入,神经网络的应用领域不断扩展,应用水平不断提高. 目前, 人们也将神经网络用于航空航天事业, 空难事故分析、控制系统、自动驾驶, 通信、图像压缩、口语实时翻译,娱乐、游戏、下棋,等。
15.4 建模案例及分析
本节我们建立基于Matlab平台的BP神经网络模型,研究2011年全国数学建模A题(城市表层土壤重金属污染分析)的污染的预测问题.
15.4.1问题的提出
我们首先给出2011年全国数学建模A题关于“城市表层土壤重金属污染分析”的问题:
随着城市经济的快速发展和城市人口的不断增加,人类活动对城市环境质量的影响日显突出。对城市土壤地质环境异常的查证,以及如何应用查证获得的海量数据资料开展城市环境质量评价,研究人类活动影响下城市地质环境的演变模式,日益成为人们关注的焦点。
按照功能划分,城区一般可分为生活区、工业区、山区、主干道路区及公园绿地区等,分别记为1类区、2类区、……、5类区,不同的区域环境受人类活动影响的程度不同。
现对某城市城区土壤地质环境进行调查。为此,将所考察的城区划分为间距1公里左右的网格子区域,按照每平方公里1个采样点对表层土(0~10厘米深度)进行取样、编号,并用GPS记录采样点的位置。应用专门仪器测试分析,获得了每个样本所含的多种化学元素的浓度数据。另一方面,按照2公里的间距在那些远离人群及工业活动的自然区取样,将其作为该城区表层土壤中元素的背景值。
另外, 该题目还有三个附件, 其中附件1列出了采样点的位置、海拔高度及其所属功能区等信息,附件2列出了8种主要重金属元素在采样点处的浓度,附件3列出了8种主要重金属元素的背景值。
下面我们运用BP神经网络, 预测重金属污染物对环境的影响情况.
15.4.2问题的分析
由于定性分析重金属污染物的传播特征需要较强的专业知识背景,而所给数据的变量不多(变量仅坐标、高度与功能区),统计学方法又不足以完全揭示变量与污染物传播特征的关系。一方面,人工神经网络具有较强的自组织、自适应与自学习能力,能够在未完全了解重金属污染物传播机理的情况下,完成自变量、变量间与重金属污染物浓度之间的非线性映射;另一方面,将重金属污染传播过程看作网络输入与输出的一类非线性映射,但是仅通过网络的输入输出数据难以准确寻找重金属污染物浓度的极值(即污染源),而遗传算法具有全局的非线性寻优能力。综合上述考虑,我们建立神经网络预测重金属污染的数学模型。
15.4.3污染传播的BP神经网络模型
1数据预处理
题目附件中所给的原始数据共计319组,显然不能满足神经网络的训练要求,因此,我们从问题一中插值过后的60501组数据中随机选择10000组数据。前9900组作为BP网络的训练数据集,后100组数据作为BP网络的检验数据集。数据归一化可以方便后面数据的处理,并保证程序运行时收敛加快。我们将数据集按公式(15.21)进行归一化处理:
, (15.21)
其中, 表示需要归一化的数据, 分别为需要归一化的数据集的最大值, 最小值.
Matlab工具箱中函数“mapminmax”可以实现了数据的归一化任务。命令为[inputn,inputps]=mapminmax(input_train);其中,inputn为归一化后的数据集,inputps为原始数据集信息,input_train为原始数据集。
2. 建立BP网络
在这里,我们建立3—N—1的BP网络结构,其中,3表示输入项(分别为坐标,坐标,高度);N为隐藏层神经元个数;1表示输出项(重金属污染物浓度)。网络的拓扑结构如图15-8所示。
图15-8 BP网络结构图
隐藏层激活函数选择双曲正切S形函数,即
;
输出层激活函数采用简单的线性函数:.
隐藏层神经元个数对BP神经网络预测精度有显著的影响,节点数太少, 网络不能很好地学习, 需要增加训练次数, 训练的精度也受影响;节点数太多, 训练时间增加, 网络容易过拟合。人工神经网络隐层神经元数目的确定方法还没有一个完善的理论指导,通常是在实际操作中根据神经网络设计者经验和估计确定,例如:
(,
)
式中,为输入层节点数; 为隐含层节点数, 即隐藏层神经元个数; 为输出层节点数; 为0~10之间的常数。在实际问题中, 隐含层节点数的选择首先是参考公式来确定节点数的大概范围, 然后用试凑法确定最佳的节点数。经过多次试验,可以选择,此时BP神经网络达到了较高的精度。
学习速度同样对BP神经网络具有重要影响作用,学习速度太小,网络学习缓慢,需要增加训练次数;学习速度太大,网络学习迅速,但是容易导致网络不收敛,影响训练的精度。我们最终决定学习速度为0.01,训练次数为300.
BP神经网络的采用梯度修正法作为权值和阈值的学习算法,从网络预测误差的负梯度方向修正权值和阈值,没有考虑以前经验的积累,学习过程收敛缓慢。对于这个问题,可以采用附加动量方法来解决,带附加动量的权值学习公式为:
.
Matlab神经网络工具箱中函数“traingdm”可实现了上述学习方式.
3.结果输出
训练好的BP神经网络还只能输出归一化后的浓度数据,为了得到真实的数据值,我们还必须对输出数据进行反归一化。反归一化过程可以利用归一化过程中的信息,通过函数“mapminmax”来实现。其Matlab命令为:
BPoutput=mapminmax('reverse',an,outputps),
其中,BPoutput为反归一化后的数据,an为神经网络预测输出,outputpa为原始输出数据集信息。
网络的收敛速度较快,以Cu元素为例,训练结束的神经网络性能图见图15-9. 在图15-9中,训练在第222次迭代过程达到均方误差最小,MSE=0.00044917。此时,训练结束。用训练好的神经网络预测重金属Cu污染,如图15-10所示。
图15-9 Cu元素网络训练性能图
图15-10 Cu污染的网络预测结果
可见,预测输出与期望输出相差不大,基本达到了我们要求的效果。结合图15-10分析,神经网络在个别点上误差较大。但由于污染物浓度随空间变化总是渐变的,这类误差不会影响我们寻找污染源。
进一步,用训练好的神经网络,模拟出了整个城区各种金属的污染传播特征图,如图15-11所示。
图15-11 神经网络模拟八种重金属污染分布特征图
15.4.4模型的结果分析
1.利用人工神经网络,对污染物进行预测,基本可以反映它们对环境的影响。预测值和实测值之间虽然有误差,但是误差不大,可以反映主要污染物的位置和污染物对环境影响的特征。
2.人工神经网络具有对非线性适应性问题和信息的处理能力.
参考文献
[1] 蒋宗礼,人工神经网络导论,北京:高等教育出版社,2001.
[2] 葛哲学,孙志强, 神经网络理论与MATLAB R2007实现, 北京:电子工业出版社, 2007.
[3] 韩力群, 人工神经网络教程, 北京:北京邮电大学出版社, 2006.
[4] 雷英杰,matlab遗传算法工具箱及应用,西安:西安电子科技大学出版社,2005.
[5]
[6]
展开阅读全文