收藏 分销(赏)

一种用于医疗EEG数据集的联邦遗传算法_陈海宇.pdf

上传人:自信****多点 文档编号:594969 上传时间:2024-01-11 格式:PDF 页数:7 大小:1.31MB
下载 相关 举报
一种用于医疗EEG数据集的联邦遗传算法_陈海宇.pdf_第1页
第1页 / 共7页
一种用于医疗EEG数据集的联邦遗传算法_陈海宇.pdf_第2页
第2页 / 共7页
一种用于医疗EEG数据集的联邦遗传算法_陈海宇.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023 年 6 月伊犁师范大学学报(自然科学版)Jun.2023第 17 卷 第 2 期Journal of Yili Normal University(Natural Science Edition)Vol.17 No.2一种用于医疗EEG数据集的联邦遗传算法陈海宇(肇庆医学高等专科学校 公共卫生学院,广东 肇庆526070)摘要:为了提高医疗数据的共享安全性,提出了一种基于遗传算法的联邦学习算法.该算法将单个用户到服务器的数据传输减少到单个适应度值,用户不需要上传模型的梯度信息,避免了传输数据泄露带来的问题.使用卷积神经网络对脑电波EEG信号进行分类,使用改进的遗传算法对模型进行优化,

2、设计了合适的编码、交叉、变异算子以及精英保留策略对问题进行求解.实验结果表明,该算法可以得到较好的求解精度,较好保障了医疗数据的隐私安全.关键词:联邦学习;遗传算法;梯度信息;EEG数据集;神经网络中图分类号:TP393.1文献标识码:A文章编号:2097-0552(2023)02-0064-070引言引言随着数字化在社会和经济等各个方面的不断普及,导致产生的数据量不断增加.在处理用户生成的敏感数据时,如何保护用户的隐私不被泄露是一个重要问题,也就是说,用户不希望其他人对其拥有的机密信息进行分析,从而得出任何结论1.联邦学习的提出,加强了用户的隐私保护,为解决此问题提供了一种有效方法2.医疗领

3、域是联邦学习的一个重要应用领域3.每个医疗机构可能拥有大量的患者数据,但是基于这些独立数据,不足以构建并训练出性能良好的预测模型,进而更好地服务于医疗工作.针对这个问题,医疗机构之间共享数据,可以极大地帮助开发自动化诊断工具,从而有效解决这个问题.但是这些患者数据都属于私人信息,医院有义务保护患者的隐私,再加上法律法规的约束,阻碍了机构之间的数据共享4.联邦学习的应用可以帮助医疗行业的不同机构,在不共享患者数据的情况下,联合训练机器学习模型5,6.为了解决全局模型的学习问题,联邦学习的主流方式如下7,8:首先,根据问题的先验知识,构建一个基础的神经网络结构,用户利用某种梯度下降的方法训练局部模

4、型;然后,服务器端聚合各局部模型参数,完成全局模型的更新.这个过程经过多次迭代,最终实现神经网络的训练.联邦平均算法是一种典型的联邦学习算法,在解决聚合问题时具有很好的效果,但这种方式仍然面临着一些威胁9,10.例如,当攻击者获得了全局模型,并劫持了用户的局部模型更新梯度时,就可以倒推出用户的部分隐私数据.为了进一步加强用户的隐私保护,差分隐私、安全多方计算等方法被应用到联邦学习算法中11.虽然这些方法很有效,却给联邦学收稿日期:2022-09-10基金项目:广东省普通高校特色创新类项目(2021KTSCX332);2022年度广东省教育科学规划课题(高等教育专项)(2022GXJK650);

5、广东省职业技术教育学会科研规划项目20212022年度课题(粤职学会 2021 5号:202103G185).作者简介:陈海宇(1978),女,广东罗定人,副教授,硕士,研究方向:智能计算、医学大数据.陈海宇:一种用于医疗EEG数据集的联邦遗传算法第2期习带来了更大的计算压力和通信开销.最近,研究人员提出了一种新颖的方法12,其主要思想如下:结合遗传算法的相关知识,在不使用梯度的情况下训练全局模型,该算法将从单个用户到服务器的数据传输减少到单个适应度值.通过这种方式,用户不需要上传模型的梯度信息,进而提高了数据的安全性.在该算法的实验中,使用卷积神经网络对脑电波EEG(electroencep

6、halography)信号进行分类,验证了遗传算法应用于联邦学习的可行性.本文基于该算法,使用改进的遗传算法对模型进行优化,并与该算法进行了比较.1具体模型具体模型1.1神经网络模型结构全局模型的结构对于联邦学习的实际表现至关重要.针对上述问题,选择专门为脑电图预测问题设计的文献13-15中介绍的浅卷积网络.该网络的核心是3个卷积层,旨在识别信号中的特征信息.前两个卷积层之后是一个池化层,随后是第三个卷积层.在这一层的输出上,应用批处理归一化,然后添加了带有sigmoid激活函数的全连接输出层.1.2目标函数为了使适应度在遗传训练中最大化,选择负均方误差(NMSE),计算方法如式(1)所示:f

7、NMSE(w)=-1*1ni=1nj=1d(y?()ij-y()ij)2.(1)其中,w是权重值,y?是基于参数w的预测输出值,y是模型的目标输出向量,d是输出的维度,n是用例数量,i表示第i个用例数()1 i n,j表示第j维度(1 j d),y(i)j表示第j维度的第i列数的目标输出向量,y?(i)j表示第j维度的第i列数的预测输出值.结合NMSE进行适应度的评价,原始的单目标优化问题就转换为优化神经网络中w的值,使得计算出的NMSE值最大化,如下式所示:maxfNMSE()w=-i=1ny?()i-y()i22.(2)在本文中,个体的生成,即选择、交叉和变异发生在中央服务器的一个集中位置

8、.系统的连接节点通过评估不同的设置来参与优化.一个个体的适应度可以通过对局部适应度值的加权平均来计算.2基于改进遗传算法的问题求解过程基于改进遗传算法的问题求解过程在本节中,将描述求解问题时不同阶段采用的特定方法.(1)编码使用直接编码方式对上述介绍的神经网络进行编码,模型中的连接权重等参数使用实数进行编码.例如,对于具有30个卷积核的卷积层,卷积核的大小为1 25时,对应的编码采用30 1 25的矩阵进行实数编码.(2)种群初始化开始时,创建一个初始种群,其中每个个体随机初始化模型的权重.从初始种群开始,沿着计算适应度-选择-交叉-突变循环迭代.(3)交叉操作交叉方式决定了从父代生成新个体的

9、方法,从种群中随机选择两个父代个体,用于生成子代.下面介绍65伊犁师范大学学报(自然科学版)2023年了4种交叉的方式:(a)对半混合:这种交叉方式实现起来比较简单,通过将第一个父代个体的基因前半部分与第二个父代个体的基因后半部分结合在一起,构成子代的基因型,使用式(3)表示:offspringini=1=|ai,if i n2;bi,if i n/2.(3)其中,n为个体基因向量的长度,并且a=(a1,a2,an),b=(b1,b2,bn)代表了两个父代的基因向量,1 i n.(b)交错混合:在这种方式中,来自两个父代的基因向量通过交错赋值的方式,来创建后代向量,如下式所示:offsprin

10、gini=1=ai,if i mod 2=0;bi,if i mod 2=1.(4)其中,n为个体基因向量的长度,a和b代表两个父代基因向量.(c)均值混合:在这种交叉方式中,取两个父代个体的基因向量在相同位置上的平均值,创建子代的基因向量,可以表示为下式:offspringini=1=ai+bi2.(5)其中,n为个体基因向量的长度,a和b代表两个父代基因向量.(d)卷积核交叉:这种交叉的方式,较上述3种有着本质上的不同,特点是保留了部分父代个体的模型信息.在每个卷积层中,有多个卷积核/过滤器.这些卷积核对数据进行特征提取,保存着关键的模式信息,从而帮助神经网络更好地学习数据集.类似地,在全

11、连接层中,神经元的输入权重也描述了前一层的某些模式.卷积核交叉通过将父代基因向量中每一层的卷积核随机混合,生成子代个体的基因型.这种方式保证了交叉过程中卷积核的完整性,使得神经网络的模式信息得到保留,表达式如式(6)所示:offspringchannle_inum_channeli=1achannel_i,if 0.5;bchannel_i,if 0.5.(6)其中,num_channel为个体基因向量中卷积核的个数,a和b代表两个父代基因向量,channel_i表示第i个卷积核,为取值范围在0-1之间的随机数.前3种交叉方式,实现过程比较简单.由于没有考虑到神经网络的结构和卷积核的学习模式,

12、在一些实验中模型的收敛性能较差.卷积核交叉方式是一种更高层次的方法,用来作为遗传神经网络的交叉方式,具有很高的适用性.在自然界中,遗传也是一种更高层次的基因混合,而不是有机分子的低层次混合.因此,父母的特征是完整的,它与遗传学的相似之处可以概括为:DNA代表了网络的权值,而基因则代表的是卷积核.本算法采用了卷积核交叉来进行交叉操作.(4)变异交叉操作本质上是父代个体的交叉组合,在此基础上,使用变异操作增加产生新个体的潜力,可以进一步扩大算法的搜索空间,找到适应度更高的个体.为了定义变异算子,首先需要定义变异基因的数量和这些基因上的改变量.对于前者,使用一个概率值来确定个体基因中每个值的变异概率

13、;后者是一个浮点值,用于确定对每个变异基因的变化量.下面介绍两种执行变异操作的方法:(a)通过偏移量变异:这种方式,通过对产生变异的节点添加一个随机值,完成变异的操作.在具体的实现中,使用到的偏移量是取值范围在-mutation_rate,mutation_rate之间的一个随机值,mutation_rate表示66陈海宇:一种用于医疗EEG数据集的联邦遗传算法第2期变异概率.(b)通过乘法进行变异:在这种变异方式中,对产生变异的节点与一个随机值相乘.在具体的实现中,乘法因子取值范围是在|100-mutation_rate100,100+mutation_rate100之间的一个随机值.在本文

14、的实验中,选择第二种变异算法.(5)选择通过对当前种群基于适应度函数值进行排序,得到候选种群.选择种群中适应度函数值最高的n-1个个体,并在种群中余下的个体间随机选择一个,共同组成下一代种群.这样做的原因是可以增加种群的多样性,改善遗传的方向.(6)精英保留策略为了防止种群个体在遗传过程中发生遗传衰退的现象,在本算法中,加入了覆盖法6作为种群更新的策略.覆盖法的算法流程如下:Step 1:计算当前子代个体的适应度,根据适应度值降序排列当前子代种群中的个体.Step 2:根据一定的覆盖比率,将当前子代种群中的前ReN个体替换为精英个体.其中ReN的大小可以根据种群规模的大小进行自适应的变化.计算

15、公式如下式:ReN=Rreplace*sizepop.(7)其中,ReN是当前子代种群中的个体,Rreplace是种群覆盖比率,sizepop为当前子代的种群规模.精英保留策略是精英遗传算法的特有策略,可以有效地防止遗传倒退现象的发生,同时加快搜索效率.3仿真实验仿真实验在本节中,仿真实验所用电脑配置如下:64位Windows操作系统,处理器为八核Intel Core i5-9300HCPU 2.40 GHz,内存为24 GB,并使用python进行了仿真实验.3.1数据集在实验中,使用了脑电波(EEG)数据集13.该EEG数据集对122个受试者分别进行了120个刺激实验.受试者包括两类:酗酒

16、者与正常对照组.在每个实验中,向受试者展示一张或两张Snodgrass和Vanderwart图片集中的图像,接收到刺激后,对他们的脑电波进行采样,然后根据受试者所属的类别对脑电波图像进行标签的标记.因此,所建立的模型的任务是,根据受试者的脑电图,预测受试者属于两类人群的哪一类.3.2实验参数设置本实验中使用的神经网络结构使用如下设置14:输入的数据维度为(64,256,1),输出的类别为两类:酗酒者与对照组.采用的神经网络具有3个卷积层,第一个卷积层具有30个卷积核;后面的两个卷积层分别具有10个和2个卷积核,并且在第二个卷积层与第三个卷积层之间加入了一个平均池化层;最后是一个全连接层,采用s

17、oftmax函数进行分类.遗传算法中的种群大小设置为50,考虑到本算法中没有使用梯度进行模型更新,使得模型收敛的速度较慢,迭代次数设为3 000,保证模型最后能够收敛到一个稳定的水平.交叉采用了卷积核交叉算法,变异操作中的变异概率设为0.01.过拟合是深度学习中经常出现的问题,避免过拟合的主要思想是,在模型的训练期间,不要把整个数据集一次性分配给模型学习.在每一次迭代中使用训练数据的子集进行训练,训练集的子集可以每次迭代更改一次,也可以保持几次迭代不变.通过这种方法,可以有效地避免模型训练后产生过拟合问题.67伊犁师范大学学报(自然科学版)2023年本实验中为了避免过拟合,在遗传联邦学习的每一

18、代中,随机选择数据集整体的一个子集,对当前种群的适应度进行评估.3.3实验结果与分析在服务器上,保留一个验证集,在每一代中,计算并存储当前一代中最适合的模型精度,使用本文带有精英保留策略的遗传算法对该问题进行优化.同时,为了对比本文算法的效果,在相同的参数设置下,使用遗传算法对该问题进行优化.结果如图1和表1所示.图 1模型精度表 1相关算法模型精度对比5001 0001 5002 0002 5003 000本文算 法68.573.575.176.378.680.0遗传算法64.169.272.374.475.676.1使用两种优化算法,得到的种群的适应度函数值变化曲线如图2和表2所示.图 2

19、模型适应度精度(%)进化代数68陈海宇:一种用于医疗EEG数据集的联邦遗传算法第2期表 2相关算法模型适应度对比5001 0001 5002 0002 5003 000本文算法0.250.240.220.190.150.10遗传算法0.300.270.260.230.200.12根据图(1)和图(2)可以观察到本算法收敛是缓慢但稳定的.相较于遗传算法,本文提出的算法具有更好的搜索性能.从一个完全随机的状态下,该算法能够达到80%的模型训练精度.虽然这低于深度神经网络学习的平均水平,但考虑到模型的更新过程中没有使用梯度,而是使用了遗传算法的适应度值作为代替,这仍然是一个很好的结果.4结论结论联邦

20、学习结合遗传算法的一个优势是,客户端传输到服务器的数据更少.虽然本文算法收敛速度要慢一些,但由于只公开了模型的一个适应度函数值,而无需传输模型的梯度信息,从而提高了数据的安全保障能力.本文算法实际上是通过牺牲一定的学习速度来保护数据的隐私,因此,对于一些特殊应用场景有着较大的优势.比如:对于来自医疗机构的数据,学习过程的通信开销并不是最重要的,而保持用户数据的隐私才是至关重要的.实验结果表明,本文算法较好地保障了医疗数据的隐私安全,具有一定的应用价值.参考文献:1 ZHU T,YU P S.Applying Differential Privacy Mechanism in Artificia

21、l Intelligence C.IEEE 39thInternational Conferenceon Distributed Computing Systems(ICDCS),IEEE,2019:1601-1609.2 LIU W,LUONG N C,HOANG D T,et al.Federated Learning in Mobile Edge Networks:A Comprehensive Survey J.IEEECommunications Surveys and Tutorials,2020,22(3):2031-2063.3 YANG W,ZHANG Y,LI Y B,et

22、 al.Privacy is not Free:Energy-Aware Federated Learning for Mobile and Edge IntelligenceC.International Conference on Wireless Communications Signal Processing,IEEE,2020:233-238.4 ALISTAH D,GRUBIE D,LI J Z,et al.QSGD:Communication-Efficient SGD via Gradient Quantization and Encoding C.31stAnnual Con

23、ference on Neural Information Processing Systems(NIPS),CurranAssociates,2017:1709-1720.5 KONET J.S,Distributed and Federated Optimization for Machine Learning J.ArXiv e-prints,2017:1707.01155.6 KONECJ,MEMCEMHB,RAMAGED,etal.FederatedOptimization:DistributedMachineLearningforOn-DeviceIntelligenceJ.ArX

24、iv e-prints,2016:1610.02527.7 DINCH C T,TRAN N H,NGUNH N H,et al.Federated Learning Over Wireless Networks:Convergence Analysis andResourceAllocation J.IEEE/ACM Transactions on Networking,2021,29(1):398-409.8 WEN W,XU C,YAN F,et al.TernGrad:Ternary Gradients to Reduce Communication in Distributed De

25、ep Learning C.Advances in Neural Information Processing Systems(NIPS),CurranAssociates,2017:1509-1519.9 SATTLAR F,WIEDESR S,MULLER K R,et al.Robust and Communication-Efficient Federated Learning From Non-i.i.d.Data J.IEEE Transactions on Neural Networks and Learning Systems,2020,31(9):3400-3413.10XU

26、 J,DU W,CHENG R,et al.Ternary Compression for Communication-Efficient Federated LearningJ.IEEE适应度进化代数69伊犁师范大学学报(自然科学版)2023年transactions on neural networks learning systems,2020,33(3):1162-1176.11 MOCAUN D C,MOCANU E,STONE P,et al.Scalable training of artificial neural networks with adaptive sparse c

27、onnectivityinspired by network scienceJ.Nature Communications,2018,9(1):1-12.12 SZEIGE G,KISS P,HORVATH T.Evolutionary Federated Learning on EEG-data C/Proceedings of the 19th ConferenceInformation Technologies-Applications and Theory(ITAT),CEUR-WS,2019:71-78.13 ZHU HY,JINYC.Multi-Objective Evolutio

28、nary Federated Learning J.IeeeTransactions on Neural Networks and LearningSystems,2020,31(4):1310-1322.14 YANG S,REN B,ZHOU X,et al.Parallel Distributed Logistic Regression forVertical Federated Learning withoutThird-PartyCoordinator J.ArXiv e-prints,2019:1911.09824.15 SCHIAMNER R T,SPRINGER J T,FIE

29、DER LD J,et al.Deep learning with convolutional neural networks for EEG decodingand visualization J.Human Brain Mapping,2017,38(11):5391-5420.【责任编辑:张建国】AFederated GeneticAlgorithm forMedical EEG DatasetsChen Haiyu(School of Public Health,Zhaoqing Medical College,Zhaoqing,Guangdong 526070,China)Abstr

30、act:Using federated learning for medical data can improve data sharing security.This paper proposes a federated learningalgorithm based on an genetic algorithm,which reduces the data transmission from a single user to the server to a single fitness value.The user does not need to upload the gradient

31、 information of the model,which avoids the problem of transmission data leakage.Appropriate coding,crossover,mutation operators and elite retention strategies are designed to solve the problem.The experimental resultsshow that the proposed algorithm can obtain better solution accuracy.Key words:federated learning,genetic algorithm;gradient information;EEG dataset;neural network70

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服