收藏 分销(赏)

基于改进麻雀搜索算法的优化型极限学习机.pdf

上传人:自信****多点 文档编号:637108 上传时间:2024-01-21 格式:PDF 页数:7 大小:1.34MB
下载 相关 举报
基于改进麻雀搜索算法的优化型极限学习机.pdf_第1页
第1页 / 共7页
基于改进麻雀搜索算法的优化型极限学习机.pdf_第2页
第2页 / 共7页
基于改进麻雀搜索算法的优化型极限学习机.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第26卷第9期2023年9月软件工程 S O F T W A R E E N G I N E E R I N GVol.26 No.9Sep.2023文章编号:2096-1472(2023)09-0018-07DOI:10.19644/ki.issn2096-1472.2023.009.004收稿日期:2 0 2 3-0 2-0 3基金项目:国家自然科学基金(6 2 2 0 3 3 3 2);大学生创新创业训练计划项目(2 0 2 2 1 0 0 6 9 0 1 3)基于改进麻雀搜索算法的优化型极限学习机张恩辅,段冰冰,刘津平,马云鹏,金 音(天津商业大学信息工程学院,天津 300134);摘

2、 要:为提升极限学习机的性能,文章利用改进的麻雀搜索算法对极限学习机的参数进行优化。首先,提出一种菱形分组机制用于增加算法种群多样性和融合模拟退火思想改善算法陷入局部极值点的缺陷。其次,通过1 0个基准函数进行仿真测试,实验结果表明,改进的麻雀搜索算法在大部分测试函数上表现出更好的性能。最后,将改进的算法用于优化极限学习机的输入权阈值,通过基准数据集仿真测试,优化后的极限学习机在建模精度上平均提高了7.4%。关键词:极限学习机;麻雀搜索算法;分组机制;模拟退火中图分类号:T P 1 8 1 文献标志码:AA n O p t i m i z e d E x t r e m e L e a r n

3、 i n g M a c h i n e B a s e d o n I m p r o v e d S p a r r o w S e a r c h A l g o r i t h mZHANG Enfu,DUAN Bingbing,LIU Jinping,MA Yunpeng,JIN Yin(College of Information Engineering,Tianjin University of Commerce,Tianjin 300134,China); A b s t r a c t:In order to improve the performance of the Ex

4、treme Learning Machine(ELM),this paper proposes to optimize the parameters of the ELM with an Improved Sparrow Search Algorithm(ISSA).Firstly,a rhombus grouping mechanism is proposed to increase the diversity of the algorithm population and to improve the defect of the algorithm trapped in local ext

5、reme points by incorporating the Simulated Annealing idea.Then,the simulation test is carried out through 10 benchmark functions,and the experimental results show that ISAA has better performance on most test functions.Finally,ISSA is used to optimize the input weight threshold of the ELM.Through th

6、e simulation test of the benchmark data set,the optimized ELM has an average improvement of 7.4%in modeling accuracy.K e y w o r d s:Extreme Learning Machine;Sparrow Search Algorithm;grouping mechanism;Simulated Annealing0引言(I n t r o d u c t i o n)极限学习机1(E x t r e m e L e a r n i n g M a c h i n e,

7、E L M)是黄广斌教授于2 0 0 4年提出的一种单隐层前馈神经网络模型,该模型简单、运算速度高,具有较好的回归预测能力2。然而,E L M存在随机的权阈值,可能导致其出现稳定性差和泛化性能不高等问题,而群体智能优化算法可以解决以上问题。X U E等3于2 0 2 0年提出麻雀搜索算法(S p a r r o w S e a r c h A l g o r i t h m,S S A),但该算法仍存在种群多样性不足和易陷入局部最优等缺点,为进一步提高S S A的性能,S U N等4将混沌映射机制与柯西变异扰动策略结合,提升了原始算法的种群多样性,增强了全局搜索能力。L I U等5首先利用教与

8、学的策略扩大算法的搜索范围,其次结合滑动窗口技术对E L M的参数进行优化,最后应用于预测赤铁矿的研磨粒度,经过改进的第 26卷第 9期张恩辅等:基于改进麻雀搜索算法的优化型极限学习机E L M拥有更快的收敛速度和预测准确度,但算法的稳定性仍有待提高。为解决S S A存在的问题,本文提出一种改进的麻雀搜索算法(I m p r o v e d S p a r r o w S e a r c h A l g o r i t h m,I S S A)。首先在麻雀的位置更新策略中引入一种菱形结构的分组机制,可以有效地提升算法的种群多样性,其次在更新种群的最优值时,引入模拟退火的思想,增加种群的全局搜索

9、范围和获取最优解的概率,最后对I S S A的收敛精度和稳定性等进行测试,并应用于优化E L M的模型参数。实验结果表明:I S S A有更高的收敛精度和更好的稳定性,并且可有效地提高E L M的模型精度。1知识简介(K n o w l e d g e i n t r o d u c t i o n)1.1极限学习机E L M的核心是将单隐层神经网络的训练学习过程转化为求解线性最小二乘问题,再通过求解广义逆矩阵计算隐藏层与输出层连接权值。设E L M中目标函数的输出为公式(1):T=H(1)公式(1)中,H表示隐藏层的输出矩阵,表示隐含层与输出层的连接权值,T表示期望输出矩阵,具体表示如下:H

10、(W,b,X)=g(w1x1+b1)g(wlx1+bl)g(w1xN+b1)g(wlxN+bl)Nl(2)=1,2,l Tml(3)T=t1,t2,tN TmN(4)其中,N为样本个数,m为输出层神经元个数,l代表隐藏层神经元个数。连接权值可以通过最小二乘法求解公式(5):a r g m i nH-T(5)获得解如下:=H+T(6)公式(6)中的H+为矩阵H的广义逆矩阵。1.2麻雀搜索算法在麻雀搜索算法中,将麻雀主要分为探索者、追随者。探索者的任务主要是探索食物,而追随者的任务是跟随探索者觅食,这两类麻雀的角色在它们的竞争过程中可能发生互换,并且均会对周围环境保持警惕,以防止天敌的到来。在该模

11、型中规定,适应度值较优的麻雀角色为探索者,在捕获食物的过程中拥有优先权且有更宽阔的搜索范围,因此探索者位置的更新公式由公式(7)表示:Xt+1i,j=Xti,je x p-ii t e rm a x ,R2n2Xt+1P+Xti,j-Xt+1PA+L,其他(8)在麻雀种群位置不断更新的过程中,假设有1 0%2 0%的麻雀会意识到有危险发生,它们的初始位置将随机产生,并由公式(9)进行位置的更新。Xt+1i,j=Xtb e s t+Xti,j-Xtb e s t,fifgXti,j+KXti,j-Xtw o r s t(fi-fw)+,fi=fg(9)2改进的麻雀搜索算法(I m p r o v

12、 e d S p a r r o w S e a r c h A l g o r i t h m)2.1分组机制为增加麻雀种群的多样性和让种群分布更加均匀,本文将采用一种分组机制对麻雀追随者的位置进行更新。首先将所有的追随者按照适应度值从优到劣进行排序,其次根据混合蛙跳算法中的分组思想,将所有的追随者分为若干个大组6。我国城市流动人口网络是以菱形结构为核心的,这样的结构使得我国流动人口的变化相对稳定,也在一定程度上验证菱形结构的稳定性较强,最后将每一大组的麻雀根据菱形结构划分为三个小组,如图1所示,菱形结构上部2 0%的麻雀为高级麻雀,菱形结构下部2 0%的麻雀为低级麻雀,中间部分6 0%的麻

13、雀作为中级麻雀,级别越高麻雀的其适应度值更优7。在三类麻雀中,由于高级麻雀的学习能力较强,因此将其与探索者中最优的麻雀进行学习。中级麻雀的学习能力一般,因此将其与组内最优的麻雀进行学习,并利用一个非线性的动态权重值,让其学习速度随着迭代次数的增加而增大。低级麻雀的学习能力一般,因此利用它进行全局的搜索,可防止麻雀后期陷入局部最优。追随者的位置由公式(1 0)和公式(1 1)进行更新。图1 麻雀数量分布图F i g.1 D i s t r i b u t i o n m a p o f s p a r r o w p o p u l a t i o nXt+1p o s=Xt+1P+Xtp o

14、s-Xt+1PA+L,j4 t N u m5t x B e s t+Xtp o s-t x B e s tr a n d nw,其他 (1 0)w=c o s2ti t e rm a x (1 1)其中,t N u m为每大组的麻雀数量,t x B e s t为第i组最优麻雀的位置,r a n d n是一个均值为0、方差为1的标准正态分布随机数,t为当前的迭代次数,i t e rm a x为最大的迭代次数。p o s=n u m+g C n t(j-1)+i,n u m是探索者的数量,g C n t是划分的大组数量,i表示麻雀所在的大组序号,j表示麻雀在大组内的位置编号。2.2模拟退火思想麻雀

15、搜索算法的种群更新机制依赖于每一次的最优适应度91软件工程2023年9月值,并以贪婪的方式对最优位置和最优适应度值进行更换,因此在算法的后期容易产生陷入局部最优、全局的搜索范围变窄等现象。模拟退火算法8可以解决上述问题。模拟退火算法的全局搜索能力较强,它会根据算法的迭代次数评估算法获取最优解的可靠性,并以一定的概率接受“较差”的结果,有助于扩大麻雀种群在后期的整体搜索范围,获取到更高精度的解。因此,根据公式(1 2)对麻雀最优的适应度值及其位置进行更新。b e s t X=Xti,fb e s t=fti,ftir a n d(1 2)其中,b e s t X表示当前麻雀最优适应度值的位置,X

16、ti表示第i个麻雀在迭代第t次时的位置。fb e s t表示当前最优的适应度值,fti表示第i个麻雀在迭代第t次时的适应度值。T表示当前退火的温度值,r a n d表示一个(0,1)的随机数。当ftir a n d的条件下,同样对麻雀最优的适应度值及位置进行更新,从而在一定程度上提升了种群的多样性,避免了麻雀在后期的搜索过程中陷入局部最优解,并且平衡了算法的全局搜索和局部搜索能力。为了使I S S A的流程更加的简洁明了,给出其流程图如图2所示。图2 I S S A流程图F i g.2 I S S A f l o w c h a r t2.3基准函数集测试为了更好地展现I S S A算法的改进

17、效果,将I S S A分别与S S A3、P S O9、GWO1 0、B A1 1等经典群体智能优化算法进行对比。为了体现实验的公平性,此次测试设置相同的基础参数。所有群体智能优化算法的最大迭代次数i t e rm a x均为1 0 0 0,优化的问题变量维数d i m相同。为了测试算法在不同维度下函数的性能,分别将d i m设为1 0、3 0和5 0,并观察算法改进后的效果。在S S A和I S S A中,麻雀个体数量n均为1 0 0,探索者的占比为2 0%,追随者的占比为8 0%,并随机从麻雀种群中寻找2 0%的个体作为可以意识到危险会发生的物种,安全阈值S T均为0.8。模拟退火算法的初

18、始温度T为2 0 0 0 0,温度变化率为0.2。本次实验采用的C P U型号是I n t e l(R)C o r e(TM)i 7-8 5 6 5 U C P U 1.8 0 G H z,并在MA T L A B 2 0 2 0 b仿真软件上对代码进行编译和运行。由于每一次单独的实验具有偶然性,因此本实验将对基准函数集(表1)的1 0个函数进行测试,使算法对每个函数独立运行3 0次,并取平均收敛值和标准差作为实验结果。这两个性能指标越小,意味着算法的收敛精度越高、稳定性越好。实验最终结果记录在表2、表3和表4中,最优性能参数以加粗形式呈现。表 1 基准函数集Tab.1 Benchmark f

19、unction set函数函数表达式迭代次数/次取值范围理论最优值F1f(x)=ni=1(xi)21 0 0 0-1 0 0,1 0 00F2f(x)=ni=1xi+ni=1xi1 0 0 0-1 0,1 00F3f(x)=ni=1(ij=1xj)21 0 0 0-1 0 0,1 0 00F4f(x)=m a xxi1in1 0 0 0-1 0 0,1 0 00F5f(x)=n-1i=11 0 0(xi+1-x2i)2+(x2i-1)1 0 0 0-3 0,3 00F6f(x)=ni=1(i xi)4-r a n d o m0,1)1 0 0 0-1.2 8,1.2 80F7f(x)=ni=1

20、(-xis i nxi)1 0 0 0-5 0 0,5 0 0-4 1 8.9 8 2 9nF8f(x)=ni=1x2i-1 0 c o s(2 xi)+1 01 0 0 0-5.1 2,5.1 20F9f(x)=-2 0 e x p-0.2 s q r t1nni=1c o s(x2i)-e x p1nni=1c o s(2 xi)+2 0+e1 0 0 0-3 2,3 20F1 0f(x)=14 0 0 0ni=1x2i-ni=1c o s(xii)+11 0 0 0-6 0 0,6 0 0002第 26卷第 9期张恩辅等:基于改进麻雀搜索算法的优化型极限学习机 通过表2可以发现,I S

21、S A除了在函数F8、F9和F1 0的平均收敛值与S S A相等,剩余函数的平均收敛值均优于S S A。此外,尽管S S A在函数F7的标准差略优于I S S A,但I S S A的标准差在函数F4、F5和F6均小于S S A。表3中,I S S A除了在函数F8、F9和F1 0的平均收敛值与S S A相等,剩余函数的平均收敛值均优于S S A。尽管S S A在函数F6和F7的标准差略优于I S S A,但除了二者标准差在函数F8、F9和F1 0相等,I S S A的标准差均小于S S A。表4中,除了函数F7的标准差,I S S A在剩余函数的平均收敛值和标准差为全局最优。此外,在三个维度下

22、,I S S A在大部分的函数性能均优于G WO、P S O和B A。表 2 实验结果对比(d i m=1 0)Tab.2 Comparison of experimental results(dim=10)函数 性能I S S AS S AGWOP S OB AF1M e a n06.8 8 71 0-2 4 05.2 3 81 0-1 7 85.2 6 81 0-5 65.9 8 51 0-5S t d0002.7 3 71 0-5 51.4 8 81 0-5F2M e a n01.4 7 81 0-2 1 01.1 3 71 0-8 74.4 4 51 0-1 97.6 8 81 0-5

23、S t d006.0 6 71 0-8 71.3 7 31 0-1 81.4 8 71 0-5F3M e a n01.2 4 21 0-2 2 11.0 3 31 0-8 71.8 01 0-1 87.1 0 71 0-5S t d003.2 9 11 0-8 74.4 2 51 0-1 82.0 8 31 0-5F4M e a n 8.5 5 21 0-2 1 12.8 7 41 0-1 0 81.0 7 31 0-5 61.1 5 51 0-1 60.0 0 4S t d01.5 7 41 0-1 0 74.5 7 41 0-5 63.3 9 71 0-1 66.4 8 61 0-4F5M

24、 e a n9.1 9 71 0-82.7 8 61 0-65.9 3 02.6 6 30.9 2 8 7S t d3.4 0 71 0-78.6 1 01 0-60.5 3 71.1 7 91.7 9 9F6M e a n4.6 4 91 0-59.0 2 31 0-59.1 8 61 0-50.0 0 1 70.0 0 4S t d4.4 3 21 0-56.2 0 31 0-55.0 3 41 0-50.0 0 10.0 0 2F7M e a n-3 1 2 3.0 0 8-2 8 5 2.9 4 6-3 0 6 7.3 0 1-2 7 0 1.9 5 6-I n fS t d5 1 2

25、.8 8 23 6 7.7 8 73 2 9.4 3 92 8 4.4 9 6N a NF8M e a n0001.7 5 88.5 3 7S t d0001.1 8 84.0 2 0F9M e a n 8.8 8 21 0-1 68.8 8 21 0-1 64.5 5 91 0-1 54.4 4 11 0-1 50.7 5 0S t d006.4 8 61 0-1 600.7 9 2F1 0M e a n000.0 1 10.1 3 17.1 7 61 0-6S t d000.0 1 50.0 7 11.6 5 01 0-6表 3 实验结果对比(d i m=3 0)Tab.3 Compari

26、son of experimental results(dim=30)函数 性能I S S AS S AGWOP S OB AF1M e a n08.4 4 21 0-1 3 81.9 9 51 0-8 51.0 3 01 0-1 50.0 0 1S t d04.6 2 41 0-1 3 75.2 5 31 0-8 51.4 2 81 0-1 51.6 2 71 0-4F2M e a n 3.1 4 01 0-2 0 45.2 8 61 0-6 73.1 3 31 0-4 91.1 1 41 0-70.1 7 2S t d02.8 9 51 0-6 64.0 0 11 0-4 92.4 5 7

27、1 0-70.0 9 9F3M e a n 3.7 3 31 0-3 1 52.3 4 21 0-1 6 23.7 3 61 0-2 73.0 3 30.0 0 3S t d01.2 7 71 0-1 6 18.4 0 01 0-2 71.6 8 37.0 8 61 0-4F4M e a n 1.1 7 41 0-2 0 22.3 4 01 0-6 78.5 9 01 0-2 20.2 1 30.0 1 5S t d01.2 8 21 0-6 69.4 2 71 0-2 20.0 7 60.0 0 1F5M e a n1.7 7 71 0-82.5 8 41 0-72 6.0 7 54 0.5

28、 5 22 7.4 4 0S t d5.7 9 81 0-84.3 9 61 0-70.6 6 93 3.1 3 61.2 0 5F6M e a n1.1 7 41 0-41.2 8 01 0-42.6 8 71 0-40.0 2 90.0 1 1S t d1.4 9 41 0-41.4 7 91 0-41.7 7 11 0-40.0 1 0 80.0 0 4F7M e a n-9 7 2 3.4 3 8-7 6 0 2.9 1 3-6 5 7 1.5 2-7 1 0 8.2 4 5-I n fS t d1 6 4 7.6 9 68 0 6.0 2 25 7 1.9 5 06 8 3.7 9

29、6N a NF8M e a n000.1 4 53 0.9 3 12 5.9 7 3S t d000.7 9 57.6 8 77.3 5 1F9M e a n 8.8 8 21 0-1 68.8 8 21 0-1 61.0 9 51 0-1 42.0 2 31 0-80.6 0 3S t d003.1 0 61 0-1 52.5 4 71 0-80.6 5 5F1 0M e a n000.0 0 10.0 1 06.1 0 51 0-5S t d000.0 0 30.0 1 09.7 7 61 0-6表 4 实验结果对比(d i m=5 0)Tab.4 Comparison of experi

30、mental results(dim=50)函数 性能I S S AS S AGWOP S OB AF1M e a n02.2 8 21 0-1 5 03.0 7 21 0-6 23.6 6 81 0-70.0 0 3 9S t d01.2 5 01 0-1 4 95.8 3 61 0-6 25.5 9 71 0-73.1 2 81 0-4F2M e a n5.8 71 0-1 9 93.1 2 01 0-5 41.7 5 11 0-3 60.0 0 30.4 8 6S t d01.7 0 91 0-5 39.5 7 91 0-3 70.0 0 50.1 8 9F3M e a n4.3 11

31、0-2 7 31.8 6 21 0-1 3 08.0 3 11 0-1 52 0 3.7 9 60.0 2 7S t d01.0 2 01 0-1 2 92.2 9 11 0-1 45 1.5 6 30.0 0 5F4M e a n 2.8 0 01 0-1 5 31.6 0 01 0-7 83.9 8 41 0-1 51.5 3 90.0 4 2S t d1.5 3 21 0-1 5 28.7 6 31 0-7 84.8 1 01 0-1 50.2 1 70.0 3 5F5M e a n6.5 9 61 0-81.9 2 21 0-64 6.3 0 81 1 1.9 5 64 8.2 4 6

32、S t d1.2 5 81 0-72.8 5 71 0-60.7 6 57 3.8 1 10.7 2 6 6F6M e a n1.2 6 81 0-41.3 2 61 0-45.2 3 81 0-40.2 0 10.0 2 1S t d1.3 6 91 0-41.5 9 01 0-41.9 7 11 0-40.0 4 50.0 0 6F7M e a n-1 5 8 1 1.2 2 2-1 2 5 5 3.0 5 3-9 4 9 5.6 5 7-1 0 6 1 9.8 1 8-I n fS t d2 5 7 9.0 3 99 3 6.1 4 51 4 8 7.9 1 41 1 8 7.7 3 0

33、N a NF8M e a n000.3 9 79 6.0 2 84 1.2 7 3S t d001.5 6 11 6.4 9 01 1.4 5 3F9M e a n8.8 8 21 0-1 68.8 8 21 0-1 62.0 1 91 0-1 40.0 0 20.7 9 1S t d004.4 4 41 0-1 50.0 0 50.6 6 5F1 0M e a n002.6 0 91 0-40.0 0 21.3 8 91 0-4S t d000.0 0 10.0 0 41.6 7 81 0-512软件工程2023年9月 图3至图8为仿真实验的部分适应度值对比图,其中实线表示S S A的适应度

34、值变化过程,虚线和圆点构成的曲线为I S S A的适应度值变化过程,其他曲线为GWO、P S O和B A的适应度值变化过程。从图3至图8可知,无论是在单峰函数还是多峰函数,无论是在低维还是高维条件下,I S S A的收敛速度均比S S A的收敛速度快。综上所述,I S S A在大部分的函数收敛精度更高、稳定性更好,有更快的收敛速度,并且更适用于求解高维函数的最优值问题。因此,I S S A存在巨大的发展空间。图3 函数F1(d i m=1 0)适应度值对比F i g.3 C o m p a r i s o n o f f i t n e s s v a l u e s f o r f u n

35、c t i o n F1(d i m=1 0)图4 函数F2(d i m=3 0)适应度值对比F i g.4 C o m p a r i s o n o f f i t n e s s v a l u e s f o r f u n c t i o n F2(d i m=3 0)图5 函数F3(d i m=5 0)适应度值对比F i g.5 C o m p a r i s o n o f f i t n e s s v a l u e s f o r f u n c t i o n F3(d i m=5 0)图6 函数F5(d i m=1 0)适应度值对比F i g.6 C o m p a r

36、 i s o n o f f i t n e s s v a l u e s f o r f u n c t i o n F5(d i m=1 0)图7 函数F9(d i m=3 0)适应度值对比F i g.7 C o m p a r i s o n o f f i t n e s s v a l u e s f o r f u n c t i o n F9(d i m=3 0)图8 函数F1 0(d i m=5 0)适应度值对比F i g.8 C o m p a r i s o n o f f i t n e s s v a l u e s f o r f u n c t i o n F1

37、0(d i m=5 0)3优 化 型 极 限 学 习 机(O p t i m i z e d E x t r e m e L e a r n i n g M a c h i n e)3.1整定参数思路由于极限学习机中输入层权值Wln和隐藏层神经元阈值bl 1为随机值,这意味着一共存在ln+l个随机数,而大量的随机数容易导致算法的稳定性较差,因此可以考虑对输入层权值和隐藏层神经元阈值进行优化。整定参数的步骤如下。(1)数据集的选定、数据预处理工作和训练集、测试集的划分。(2)初始化E L M的参数,确定隐藏层的神经元的个数l、22第 26卷第 9期张恩辅等:基于改进麻雀搜索算法的优化型极限学习机

38、激活函数g(x)。(3)初始化I S S A的参数,麻雀总数量为n,用麻雀的位置信息表示W、b,每只麻雀的位置维度d i m=ln+l。(4)设f(x)为E L M模型在训练过程中的均方根误差(RM S E),利用I S S A寻找在f(x)最小值时的连接权值,即公式(1 3):f(x)=1nni=1(Ti-Yi)2(1 3)其中,n为样本总数,Ti为预测输出的结果,Yi为实际输出的结果。(5)返回E L M模型最优的W、b和。(6)利用最优的W、b和作为E L M的参数,建立E L M预测模型。(7)通过决定系数(R2)、均方误差(M S E)和标准差(S T D)三个性能指标对I S S

39、A-E L M的性能进行评估。3.2模型预测效果对比为了验证使用S S A优化E L M的有效性和可行性,以及I S S A的性能,本文采用U C I(U n i v e r s i t y o f C a l i f o r n i a,I r v i n e,加州大学欧文分校)数据集进行仿真实验,此次实验的数据集简要信息如表5所示,表5中的6个数据集分别记录了基于近红外光谱的汽油辛烷值含量(S p e c t r a)、台湾地区某地的房地产价值(E s t a t e)、建筑的热负荷(E f f i c i e n c y)、美 国 的 保 险 费(I n s u r a n c e)、混

40、凝土抗压强度(C o n c r e t e)和意大利某城市的空气湿度值(A i r Q u a l i t y)。为了保证实验的公平性,S S A和I S S A的基本参数均一致,并且E L M模型中隐含层的神经元个数均设定为3 0个,使用的激活函数为S i g m o i d。本文将每一个数据集进行3 0次的独立实验,并取决定系数(R2)、均方误差(M S E)和标准差(S T D)的平均值作为结果,决定系数越大、均方误差和标准差越小,说明模型预测值的拟合度更高且预测效果更稳定,最终E L M、S S A-E L M和I S S A-E L M模型的预测性能指标对比如表6所示。表 5 实验

41、数据集描述Tab.5 Description of experimental data set数据集名称属性个数/个样本总数/个训练集个数/个测试集个数/个S p e c t r a4 0 26 05 01 0E s t a t e74 1 43 3 48 0E f f i c i e n c y97 6 85 8 81 8 0I n s u r a n c e71 0 0 08 0 02 0 0C o n c r e t e91 0 3 08 3 02 0 0A i r Q u a l i t y1 11 5 0 01 2 0 03 0 0表 6 预测性能指标对比Tab.6 Comparis

42、on of predicted performance indicators数据集决定系数(R2)E L MS S A-E L MI S S A-E L M均方误差(M S E)E L MS S A-E L MI S S A-E L M标准差(S T D)E L MS S A-E L MI S S A-E L MS p e c t r a 0.7 7 4 0.8 3 3 0.9 2 60.7 7 00.4 4 20.1 7 00.0 7 8 0.2 0 40.0 4 4E s t a t e0.6 1 1 0.6 3 1 0.6 4 17 2.5 4 66 9.8 5 76 7.1 6 40.

43、1 0 0 0.1 0 00.0 9 0E f f i c i e n c y 0.9 2 3 0.9 7 4 0.9 8 87.9 0 02.6 4 71.2 9 40.0 1 0 0.0 1 10.0 0 8续表 数据集决定系数(R2)E L MS S A-E L MI S S A-E L M均方误差(M S E)E L MS S A-E L MI S S A-E L M标准差(S T D)E L MS S A-E L MI S S A-E L MI n s u r a n c e 0.7 9 9 0.8 4 6 0.8 4 73.0 7 11 072.3 6 01 072.3 3 91

44、070.0 5 8 0.0 4 20.0 4 3C o n c r e t e 0.6 9 0 0.8 1 4 0.8 3 28 5.5 1 05 2.3 0 24 5.8 5 40.0 4 0 0.0 3 00.0 3 0A i r Q u a l i t y0.9 2 4 0.9 3 0 0.9 3 39 6.0 2 29 0.1 9 08 5.2 1 80.0 2 6 0.0 2 30.0 2 4 通过对表6的数据进行分析可知,尽管在第四个和第六个数据集中,S S A-E L M模型略优于I S S A-E L M模型的S T D,但I S S A-E L M模型在6个数据集的决定系数和

45、均方误差都优于S S A-E L M模型,并且I S S A-E L M所有的性能参数均远优于原始的E L M模型。经过计算可知,I S S A-E L M模型的预测精度平均值比S S A-E L M模型高2.3%,比E L M模型高7.4%。因此,I S S A算法对E L M模型的参数调优效果更佳,更适合其他研究人员利用E L M模型进行相关实验。实验的部分仿真效果图如图9至图1 2所示,其中星形实线为数据集目标值,即图例中的P r e d i c t i v e T e s t S e t,圆圈实线为E L M模型的预测值,叉形实线为S S A-E L M模型的预测值,六角星实线为I S

46、 S A-E L M模型的预测值,观察图9至图1 2可以发现I S S A-E L M模型的拟合效果更好。图9 S p e c t r a仿真图F i g.9 S p e c t r a s i m u l a t i o n d i a g r a m图1 0 E s t a t e仿真图F i g.1 0 E s t a t e s i m u l a t i o n d i a g r a m32软件工程2023年9月图1 1 E f f i c i e n c y仿真图F i g.1 1 E f f i c i e n c y s i m u l a t i o n d i a g r

47、 a m图1 2 C o n c r e t e仿真图F i g.1 2 C o n c r e t e s i m u l a t i o n d i a g r a m4结论(C o n c l u s i o n)本文通过改进麻雀搜索算法的种群位置更新机制和种群寻优策略,提出了一种改进的麻雀搜索算法,并基于1 0个基准测试函数,将I S S A与4种传统的群体智能优化算法在3个不同的维度下进行仿真对比实验,结果表明:I S S A算法具有更高的收敛精度、更好的稳定性和更快的收敛速度,并且更适用于求解高维函数的最优值问题。此外,将I S S A用于整定极限学习机模型参数,提出了一种I S

48、S A-E L M模型并通过U C I数据集将其与传统的E L M模型、S S A-E L M模型在模型精度和稳定性上进行对比,结果表明:I S S A-E L M具有更高的模型精度和更好的稳定性。综上,这种优化型极限学习机既具有理论意义,又具有实用价值。参考文献(R e f e r e n c e s)1 HU A N G G B,Z HU Q Y,S I EW C K.E x t r e m e l e a r n i n g m a c h i n e:t h e o r y a n d a p p l i c a t i o n sJ.N e u r o c o m p u t i n

49、 g,2 0 0 6,7 0(1-3):4 8 9-5 0 1.2 H U A N G G B,Z H O U H M,D I N G X J,e t a l.E x t r e m e l e a r n-i n g m a c h i n e f o r r e g r e s s i o n a n d m u l t i c l a s s c l a s s i f i c a t i o nJ.I E E E T r a n s a c t i o n s o n S y s t e m s,M a n,a n d C y b e r n e t i c s,P a r t B(C y b e r n e t i c s),2 0 1 2,4 2(2):5 1 3-5 2 9.3 X U E J K,S H E N B.A n o v e l s w a r m i n t e l l i g e n c e o p t i m i z a-t i o n a p p r o a c h:s p a r r o w s e a r c h a l g o r i t h mJ.S y s t e m s S c i-e n c e&C o n t r o l E n g i n e e r i n g,2 0 2 0,8(1):2 2-3 4.4 S U N

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服