收藏 分销(赏)

基于对抗生成网络的时序脑功能网络预测方法.pdf

上传人:自信****多点 文档编号:2177257 上传时间:2024-05-22 格式:PDF 页数:8 大小:2.59MB
下载 相关 举报
基于对抗生成网络的时序脑功能网络预测方法.pdf_第1页
第1页 / 共8页
基于对抗生成网络的时序脑功能网络预测方法.pdf_第2页
第2页 / 共8页
基于对抗生成网络的时序脑功能网络预测方法.pdf_第3页
第3页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第5 4卷 第5期2 0 2 3年9月 太原理工大学学报J OUR NA L O F T A I YUAN UN I V E R S I T Y O F T E CHNO L OG Y V o l.5 4 N o.5 S e p.2 0 2 3 引文格式:王子健,薛家玥,杨鹏飞,等.基于对抗生成网络的时序脑功能网络预测方法J.太原理工大学学报,2 0 2 3,5 4(5):8 3 0-8 3 7.WAN G Z i j i a n,XU E J i a y u e,YANG P e n g f e i,e t a l.A m e t h o d o f l i n k p r e d i c

2、t i o n o f s e q u e n t i a l f u n c t i o n a l b r a i n n e t-w o r k s b a s e d o n g e n e r a t i v e a d v e r s a r i a l n e t w o r kJ.J o u r n a l o f T a i y u a n U n i v e r s i t y o f T e c h n o l o g y,2 0 2 3,5 4(5):8 3 0-8 3 7.收稿日期:2 0 2 1-1 2-1 4;修回日期:2 0 2 2-0 2-2 5 基金项目:国

3、家自然科学基金资助项目(6 2 1 7 6 1 7 7,6 1 8 7 3 1 7 8,6 1 8 7 6 1 2 4,6 1 9 0 6 1 3 0);山西省国际科技合作项目(2 0 1 8 0 3 D 4 2 1 0 4 7)第一作者:王子健(1 9 9 5-),硕士研究生,(E-m a i l)w a n g z i j i a n 1 8 8 61 2 6.c o m 通信作者:相洁(1 9 7 0-),博士,教授,主要从事大数据管理与分析、脑科学与智能计算、计算机网络与信息安全研究,(E-m a i l)x i a n g j i e t y u t.e d u.c n基于对抗生成网

4、络的时序脑功能网络预测方法王子健,薛家玥,杨鹏飞,李艺茹,相 洁(太原理工大学 信息与计算机学院,山西 晋中 0 3 0 6 0 0)摘 要:【目的】通过实现脑功能网络的预测,为研究脑功能网络的变化演化规律提供参考。【方法】建立基于对抗生成网络的时序脑功能网络的链路预测模型,通过图卷积和长短期记忆网络分别捕捉脑功能网络的拓扑特征和时序特征,通过全连接层进行特征融合,实现脑功能网络的预测。【结果】所提出的脑功能网络预测方法在两种不同的静息状态功能性磁共振成像数据上,预测AU C为0.9 5,MA P为0.9 2,与其他的链路预测模型相比较,该方法在脑功能网络上可以达到较好的预测效果。对脑功能网络

5、的准确预测,在脑网络解码和脑机接口领域具有广泛的应用前景。关键词:对抗生成网络;时序链路预测;图卷积;功能磁共振中图分类号:T P 3 9 1;T P 3 9 3 文献标识码:AD O I:1 0.1 6 3 5 5/j.t y u t.1 0 0 7-9 4 3 2.2 0 2 3.0 5.0 1 0 文章编号:1 0 0 7-9 4 3 2(2 0 2 3)0 5-0 8 3 0-0 8A M e t h o d o f L i n k P r e d i c t i o n o f S e q u e n t i a l F u n c t i o n a l B r a i n N e

6、 t w o r k s B a s e d o n G e n e r a t i v e A d v e r s a r i a l N e t w o r kWA N G Z i j i a n,X U E J i a y u e,Y A N G P e n g f e i,L I Y i r u,X I A N G J i e(C o l l e g e o f I n f o r m a t i o n a n d C o mp u t e r,T a i y u a n U n i v e r s i t y o f T e c h n o l o g y,J i n z h o

7、n g 0 3 0 6 0 0,C h i n a)A b s t r a c t:【P u r p o s e s】F o r t h e p u r p o s e o f p r e d i c t i n g t h e f u n c t i o n a l b r a i n n e t w o r k a n d p r o v i d i n g r e f e r e n c e f o r s t u d y i n g t h e e v o l u t i o n p a t t e r n s o f f u n c t i o n a l b r a i n n e

8、 t w o r k,a m o d e l o f s e q u e n t i a l b r a i n f u n c t i o n n e t w o r k b a s e d o n G e n e r a t i v e A d v e r s a r i a l N e t w o r k s h a s b e e n b u i l t.【M e t h o d s】T h e t o p o l o g i c a l a n d t e m p o r a l c h a r a c t e r i s t i c s o f b r a i n f u n c

9、t i o n n e t w o r k a r e c a p t u r e d t h r o u g h G r a p h C o n v o l u t i o n a l N e t w o r k a n d l o n g-t e r m a n d s h o r t-t e r m m e m o r y n e t w o r k s e p a r a t e l y,a n d t h r o u g h f e a t u r e f u s i o n i n t h e w h o l e c o n n e c t i o n l a y e r t o

10、r e a l i z e t h e p r e d i c t i o n o f f u n c t i o n a l b r a i n n e t w o r k.【F i n d i n g s】T h e a c c u r a c y o f n e t w o r k p r e d i c t i o n w i t h AU C a n d MA P i n d i c a t o r s h a s b e e n t e s t e d.T h e e x p e r i m e n t a l r e s u l t s s h o w t h a t t h e

11、 AU C a n d MA P o f t h e p r o p o s e d m e t h o d a r e 0.9 5 a n d 0.9 2,r e s p e c t i v e l y o n t w o d i f f e r e n t r e s t i n g s t a t e f MR I d a t a.C o m p a r e d w i t h o t h e r l i n k p r e d i c t i o n m o d e l s,t h i s m e t h o d c a n a c h i e v e b e t t e r p r

12、e d i c t i o n e f f e c t o n f u n c t i o n a l b r a i n n e t w o r k.T h e a c c u-r a t e p r e d i c t i o n o f b r a i n f u n c t i o n n e t w o r k o w n s a w i d e a p p l i c a t i o n p r o s p e c t i n t h e f i e l d o f b r a i n n e t w o r k d e c o d i n g a n d b r a i n c

13、o m p u t e r i n t e r f a c e.K e y w o r d s:g e n e r a t i v e a d v e r s a r i a l n e t w o r k;s e q u e n t i a l l i n k p r e d i c t i o n;g r a p h c o n v o l u t i o n a l n e t w o r k;f u n c t i o n a l m a g n e t i c r e s o n a n c e 人脑具有网络特性1,它可以理解为大脑中不同区域相互通信,协同处理各种类型信息的复杂网络。

14、脑功能网络近年来被广泛应用于分析大脑活动,它能够展示出大脑皮层区域之间的相互作用,特别是人脑的演化过程、刺激反应和认知状态。功能性磁共振成像数据因其具有较高的时间和空间分辨率并能够反映出潜在的功能性脑网络结构,被认为是研究脑的重要工具。在提取一段时间的核磁信号可以得到当前被试的认知状态,这在脑机接口领域具有广泛的应用。脑功能网络与被试的认知状态和行为的关系十分紧密2,那能否通过当前的核磁信号来预测后续的认知状态,这具有挑战性。从当前已有的脑功能网络预测后续脑网络,实际上就是复杂网络领域中的链路预测。近年来,时序网络中的链路预测成为了动态网络的研究热点之一3,在社交网络朋友推荐、科研网络合作推荐

15、等方面发挥了重要作用。符汉杰等4在F a c e b o o k、E p i n i o n s、D i g g等社交网络上提出T L P算法较好地完成了动态网络的预测。潘嘉琪等5在Em a i l、I n f e c t i o n等网络上提出R T R BM算法模型,对动 态 网 络 中 的 链 路 关 系 完 成 分 类 和 预 测。GOYA L e t a l6在两个真实网络数据集和生成的含有1 0 0 0个节点的S BM网络中提出d y n g r a p h 2 v e c模型并完成了链路预测。刘留等7在斯坦福网络分析平台S NA P中的4个时序网络中提出一种演化序列半监督学习框架

16、用于预测时序网络。冯译萱等8考虑了网络有向性和网络历史结构的影响,在e m a i l-E u-c o r e数据集上提出了一种基于归一化AA和L A S的时序有向的链路预测算法。但对于脑功能网络少有研究。由于深度学习具有强大的特征提取和分析能力,其在脑功能网络的研究上取得了突飞猛进的发展,特别是在人脑解码方面。S HE N e t a l9通过将与测试图像相关的功能磁共振成像活动作为输入对脑功能网络 解码来重建 图像。VAN RU L L E N e t a l1 0使用GAN训练了一个可变自动编码神经网络,通过输入人脑功能磁共振成像数据对脑解码。网络不仅可以区分视觉上相似的输入,并且可以准

17、确地进行性别分类。S E E L I G E R e t a l1 1训练了一个能够生成灰度照片的深层卷积生成对抗网络,以创建与呈现的刺激图像相似的图像,从而重建部分自然图像集的结构和一些语义特征。然而,在脑解码的相关研究中,仅局限于对当前时刻的解码,对于后续的脑网络变化很少有涉及。对后续脑网络的准确预测,就可以在某种意义上实现“读脑术”,这在脑机接口领域中具有广泛的应用前景。针对上述问题,受到L E I e t a l1 2G C N-GAN链路预测模型的启发,提出了图卷积对抗生成模型(G C GAN)。相比G C N-GAN,利用C NN在图像领域的强大处理能力,在上述模型的基础上,判别器

18、中加入了3层卷积神经网络,将生成网络和真实网络转化为二值图片的格式送入判别器以提高判别器的效率。模型整体是一个生成对抗网络(GAN),生成器配合图卷积(G C N)和长短期记忆网络(L S TM),对脑功能网络进行预测;判别器使用卷积神经网络(C NN)对真实网络和预测网络进行判别。实验过程如图1所示。此外,本研究还对其他对模型预测有效果的因素进行了探究。LSTMFCGCN生成器预测网络真实网络FCGCNfMRI 时间矩阵皮尔逊相关二值化时间序列时间序列带通滤波标准化fMRI 数据判别器使用 DPABI 工具箱处理原始功能磁共振成像数据,使用 AAL 模板用于识别大脑 ROI,用皮尔逊相关系数

19、来衡量功能联系的强度并使用 GRETNA 对数据二值化。预处理后的二值网络送入生成模型中,将预测的网络和真实网络送入判别网络。图1 算法总体框架图F i g.1 F r a m e w o r k o f p r o p o s e d m e t h o d138 第5期 王子健,等:基于对抗生成网络的时序脑功能网络预测方法1 方法和材料1.1 模型搭建实验过程如图1所示。GAN的每层是一个递归神经网络,每层的输入是上层输出的时间序列。这种结构会自动在不同级别上创建不同的时间尺度,从而形成时间层次结构。在用时序脑功能网络训练后,用上层输出自动预测下一时刻的脑功能网络。整个G C GAN模型由

20、两个模型组成。第一个模型是生成器,它用于生成下一时刻脑功能网络快照。另一个模型是判别器,用于提高生成器的拟合精度。1.1.1 生成器生成器由一个图卷积网络(G C N)层、一个短期记忆网络(L S TM)层和一个全连接(F C)层。其中,图卷积层用于捕捉时间序列动态脑网络的拓扑属性;L S TM是捕捉时间序列动态脑网络的时间特征;全连接层用来整合上述特征并生成下一时刻功能脑网络。K I P F e t a l1 3提出的图卷积可以捕获网络的拓扑属性。它可以表示为:H(l+1)=D-12AD-12H(l)W(l).(1)其中,A=A+I,A是邻接矩阵;I是单位矩阵;D表示A的度矩阵;H(l)是第

21、l层中的激活矩阵;H(0)=X,其中X是节点特征向量矩阵;W(l)是第l层的权重矩阵;()是激活函数,如R e L u和S i g m o i d;H(l+1)是第l层中的输出。L S TM层是长短期记忆网络,用于捕捉网络序列的时间特征。对于L S TM单元,输入有两个部分,一个是ht-1,另一个是Ct-1.它分别表示最后一个L S TM单 元 的 嵌 入 矩 阵 和 状 态 单 元 矩 阵。L S TM单元由3个门单元门组成:it、ft和ot,ft门用于控制当前从t-1时间戳中忘记消息;it门用于控制从Ct-1保存消息;ot门用于控制从Ct输出消息。3个门可表示为:it=(Wiht-1,xt

22、+bi).(2)ft=(Wfht-1,xt+bf).(3)ot=(Woht-1,xt+bo).(4)其中,Wi、Wf和Wo是权重;bi、bf和bo是3个门的偏置值;()是S i g m o i d激活函数,可将it、ft和ot控制为0,1,表示保持在一定比例内以传递消息。接下来,输入门i和遗忘门f分别为当前状态单元Ct提供部分信息。类似地,输出门o和当前状态单元Ct也为输出嵌入矩阵ht提供部分信息。这些关系可以表示为:Ct=t a nh(WCht-1,xt+bC).(5)Ct=ftCt-1+itCt.(6)ht=ot t a nh(Ci).(7)其中,Ct是中间变量,表示由xt和ht-1生成的

23、临时状态单元矩阵。WC和bC分别表示L S TM中的权重和偏置。根据这个公式,ht已经包含了历史网络快照的特征信息。在获得下一次脑功能网络快照后,我们使用全连接层对下一次脑功能网络快照进行输出。全连接层可以表示为:Yd=S i g m o i d(Wdht+bd).(8)其中,Wd和bd分别是解码器层的权重和偏置。Yd表示生成器模型的结果。需要注意的是,预测结果不是二值矩阵,而是每个值都在0到1之间,表示功能网络节点之间存在连接的概率,即yd0,1.为了方便地将预测结果送到判别模型中,需要将结果重塑为9 09 0的形状。1.1.2 判别器判别器采用三层卷积神经网络(C NN)和两层全连接网络(

24、F C).将生成的图像和真实图像扩展到三维,转为二值图像。将两个图像分别送到判别器中判别图像之间的差异,并反馈给生成器以不断提高脑功能网络的预测精度。卷积层的作用是提取局部区域的特征,不同的卷积核相当于不同的特征提取器,然后由激活函数生成输出特征。分别使用Kli和bli来表示层l中第i个滤波器核的权重和偏置,并使用xl(j)来表示层l中的第j个局部区域。因此,卷积过程描述如下:yl+1(j)=Klixl(j)+bli.(9)其中,符号计算内核和局部区域的点积,yl+1(j)表示层l+1的帧i中第j个神经元的输入。1.2 数据获取和预处理本文共使用两批数据集,分别来自剑桥老化与神经中心(c a

25、m b r i d g e c e n t r e f o r a g i n g a n d n e u r o-s c i e n c e,C a m_C AN)的1 88 8岁健康被试和阿尔茨海默病神经影像学协会(a l z h e i m e rs d i s e a s e n e u-r o i m a g i n g i n i t i a t i v e,A D N I)数据库。C a m_C AN的被试者在观看名为B a n g!Y o ur e D e a d 的黑白电影中采集的f MR I数据。根据年龄将受试者分为3组:7 1名年轻人受试者(平均年龄为3 4.3 4岁;3

26、 8名238太 原 理 工 大 学 学 报 第5 4卷 女性)、7 5名中年人受试者(平均年龄为5 2.3 9岁;4 2名女性)和1 6 0名老年人受试者(平均年龄为7 2.7 9岁;8 9名女性)。tR=2 2 5 0.0 m s,tE=2.9 9 m s.A D N I被试f MR I数据由3.0特斯拉飞利浦医疗系统 扫描。翻转角度为8 0;重复 时间(tR)为3 0 0 0 m s;回声时间(tE)为3 0 m s.2 9名A D患者(平均年龄为7 2.3 3岁;1 7名女性)、6 5名MC I患者(平均年龄为7 1.8岁;2 9名女性)和3 0名N C受试者(平均年龄为7 4.1 8岁

27、;1 9名女性)的功能磁共振成像数据。有关静息状态参数的更多详细信息,可以访问A D N I网站。本文利用脑成像数据处理与分析(D P A B I)工具箱处理原始功能磁共振成像数据。D P A B I是一个基于统计参数映射软件(S PM 8)和R E S T工具包的功能磁共振成像数据处理工具包。我们使用自动解剖标记(AA L)模板用于识别大 脑感兴趣区 域(R O I),为每个研究对象获得多张图像。该模板将整个大脑分成9 0个区域,每个半球占据4 5个区域。每个感兴趣区域(R O I)的时间序列由每个对应区域的体积时间序列的平均值计算得出。对每个研究对象进行功能磁共振成像扫描后,得到一个9 0

28、行t列的矩阵M(9 0t).每行表示一个与一个感兴趣区域(R O I)对应的时间序列,而每列对应于一个特定时间点上所有区域的信息。1.3 脑功能网络构建脑功能网络的功能连接强度通常用皮尔逊相关系数来衡量。皮尔逊相关系数由以下公式给出,该公式广泛用于计算两个变量(如X和Y)之间的线性关系。r=ni=1(Xi-X)(Yi-Y)ni=1(Xi-X)2ni=1(Yi-Y)2.(1 0)式中:Xi表示X序列中的第i个采样点,而Yi表示Y序列中的第i个采样点。X代表所有X采样点的平均值,Y代表所有Y采样点的平均值。对于每个研究对象,计算每个大脑区域对之间的相关系数,最后从9 0个感兴趣区域(R O I)中

29、获得相关系数矩阵M(9 09 0).不同的数据集因采集时的tR不同,在生成相关系数矩阵M时,涵盖的网络数目也会存在差异1 4。在A D N I数据集中,每3 5个时间点计算皮尔逊相关系数,以获得1 0 5个9 09 0矩阵。在C a m_C AN数据集中,每5 0个时间点获得一个矩阵,总共获得2 1 1个9 09 0矩阵。用G R E T NA对得到的矩阵进行二值化,阈值为0.4.该过程如图1所示,数据集信息如表1所示。将原始 的 功 能 磁 共 振 成 像 数 据 转 换 成 可 直 接 用 于G C GAN模型的格式,即n个9 09 0的二值矩阵。表1 被试的具体信息T a b l e 1

30、 S p e c i f i c i n f o r m a t i o n o f s u b j e c t sD a t a s e tC a m_C ANA D N IT i m e p o i n t s2 6 11 4 0tR2.2 53.0 0f m i n0.0 10.0 1W i n d o w s s i z e5 03 5N u m b e r o f c o n t i n u o u s n e t w o r k s p e r s u b j e c t2 1 11 0 5T r a i n s a m p l e s1 7 09 0T e s t s a m p

31、 l e s4 11 51.4 其他参数设置1.4.1 模型参数生成网络中,G C N层的输入特征维数为1,输出特征维数为5.L S TM层的输入特征维数为G C N层的输出特征维数R O I,隐藏层维数为送入模型中连续网络的数量。全连接层对L S TM输出的特征张量扁平化,转化为9 09 0的预测矩阵。判别网络中,前3个卷积层的卷积核大小分别为77、55和33,通道数量分别为1、9 0和1 2 8,步长大小均为2,详细参数如表2所示。表2 模型参数T a b l e 2 P a r a m e t e r s o f G C G ANG e n e r a t o rL e a r n i

32、n g r a t e0.0 0 5G C N i n p u t1G C N o u t p u t5L S TM i n p u t59 0L S TM o u t p u tN u m b e r o f c o n t i n u o u s n e t w o r k sD i s c r i m i n a t o rL e a r n i n g r a t e0.0 0 0 0 1C NN_1 k e r n e l s i z e77C NN_1 c h a n n e l n u m b e r1C NN_2 k e r n e l s i z e55C NN_2 c h

33、a n n e l n u m b e r9 0C NN_3 k e r n e l s i z e33C NN_3 c h a n n e l n u m b e r1 2 81.4.2 损失函数为了评估预测网络和真实网络,使用均方误差(M S E,EM S)作为损失函数,它表示目标变量与预测值之间距离平方和。具体公式为:EMS=n2i=1(yi-y i)2n2.(1 1)其中,n为R O I的数量,yi表示真实网络中的值,y i表示预测网络中的值。338 第5期 王子健,等:基于对抗生成网络的时序脑功能网络预测方法1.4.3 实验评估指标AU C常用于分类指标,但也可以作为评价矩阵的相似度

34、,AU C值越大代表预测效果越好(式中用A u c)。其定义如下:A u c=n+0.5n n.(1 2)其中,n是独立比较的次数,n 是存在边获得比不存在边更高分数的次数,n 表示存在边和不存在边获得相同分数的次数。平均精度(MA P,PMA)是一种具有良好分辨力和稳定性的度量。其计算如下:p r e c i s i o n k=|j|i,jV,i n d e x(j)k,i(j)=1|k.(1 3)PA(i)=jp r e c i s i o n j(i)i(j)|i(j)=1|.(1 4)PMA=iQA P(i)|Q|.(1 5)其中,V是顶点集,i n d e x(j)是第j个顶点的排

35、名索引,i(j)=1表示vi和vj有一条边,Q是查询集。2 结果和分析2.1 训练集和测试集损失随着训练轮数的增加,生成器生成的网络快照与真实网络快照之间在训练集和测试集的均方误差损失如图2所示,说明该模型能够捕捉脑功能网络的演化规律。图2显示了前2 0 0个轮损失值的变化。训练集损失测试集损失35?00030?00025?00020?00015?00010?0005?000损失值050100150200训练轮数图2 损失值变化F i g.2 V a r i a t i o n o f l o s s d u r i n g t r a i n i n g2.2 预测结果实验使用AU C和MA

36、 P来评估GAN模型在预测脑功能网络方面的性能。图3显示了不同受试者组在A D N I数据集和C a m_C AN数据集中可以达到的最佳预测效果。图3中,前3组是C a m_C AN数据集,后4组是A D N I数据集。由于A D N I数据集时间点数较少,使得A D N I数据集平均预测表现稍好于C a m_C AN数据,原因在下一小节中阐述。但不管是在AU C还是在MA P上,对后一个网络的预测,两批数据表现相差不多,具体如表3所示。AUCMAP1.00.90.80.7评价指数YoungCam_CANMidOldNCEMCILMCIADADNI图3 预测结果F i g.3 E v a l

37、u a t i o n o f p r e d i c t i o n表3 预测后网络的AU C和MA PT a b l e 3 T h e AU C a n d MA P o f t h e f i r s t p r e d i c t e d n e t w o r k数据集AU CMA PC a m_y o u n g0.9 5 0 2 8 30.9 1 0 6 9 5C a m_m i d0.9 5 6 7 6 30.9 2 4 8 1 3C a m_o l d0.9 5 7 5 2 70.9 2 8 2 6 2A D N I_A D0.9 4 8 3 2 40.9 1 6 4 9A

38、 D N I_EMC I0.9 4 7 8 6 60.9 1 9 2 6 2A D N I_LMC I0.9 5 3 7 6 90.9 2 6 1 9 8A D N I_N C0.9 4 3 4 2 40.9 1 6 4 3 72.3 预测效果衰减模型训练完成后,将测试集的数据送到模型中,以预测测试集的时序网络。图4显示了评估两个测试集预测效果的两个指标。图4(a)显示了C a m_C AN数据集中测试集AU C和MA P随时间的变化趋势。它呈下降趋势,随着时间的增加,预测精度会逐渐下降。图4(b)显示A D N I数据集中测试数据后1 5个时间点的脑功能网络预测,与C a m_C AN数据集

39、一致,也呈现出下降趋势。100.920.880.840.80MAP次数0.920.880.840203040MAP4次数081216YoungMidOldNCEMCILMCIAD100.950.900.850.80AUC次数0.930.900.870.840203040AUC4次数081216(a)(b)图4 预测效果衰减F i g.4 P r e d i c t i o n e f f e c t a t t e n u a t i o n438太 原 理 工 大 学 学 报 第5 4卷 由下降趋势可得,模型的预测效果会随着时间的增加而逐渐衰减。C a m_C AN数据集中含有更多的时间点,

40、这也是2.2中C a m_C AN数据集的平均预测效果低于A D N I数据集的原因。2.4 消融实验除了对模型进行训练和测试外,还在两组7组数据集上进行了消融实验,从生成模型中分别去除G C N和L S TM,以探讨G C N和L S TM对预测效果的影响。图5显示了消融实验的结果,图5(a)显示测试集的AU C,图5(b)显示测试集的MA P.GCNLSTM1.00.80.6AUCYoungCam_CANMidOldNCEMCILMCIADADNIGCN+LSTM1.00.80.6MAPYoungCam_CANMidOldNCEMCILMCIADADNI(a)(b)图5 消融实验结果F i

41、 g.5 A b l a t i o n r e s u l t s从图中不难看出,与单独使用G C N或L S TM相比,G C N和L S TM模型的组合可以在两个数据集上实现最高的预测效果。在C a m_C AN数据集中,单独使用G C N模型在AU C上有很大影响,去掉会使得预测效果显著降低,而在MA P指标中,仅使用L S TM更为明显。在A D N I数据集中,MA P对预测评估更为敏感,单独使用G C N和L S TM将显著 减 少,但 使 用AU C进 行 评 估 时,单 独 使 用G C N的下降并不明显。总体来说,G C N和L S TM的结合可以达到最佳的预测效果。在G

42、C GAN中,G C N用于捕捉动态脑功能网络的拓扑特征;L S TM捕捉动态脑功能网络的时序特征,二者将捕捉的特征相结合,能够实现最佳的预测效果,缺失其一,整体预测效果就会下降。消融实验呈现出A D N I数据集预测表现优于C a m_C AN数据集的现象。一方面,受疾病因素的影响,A D N I数据集相较于C a m_C AN数据集贡献更多的时序信息,同时,脑功能网络的结构也因病理的原因而发生变化。另一方面,受预测效果衰减和数据集自身特点影响,A D N I数据集时间点数较少,具体表现如表2所示。在两种数据集上,预测效果都呈现出衰减的现象,具体如图4所示。受两方面因素综合影响,整体预测效果

43、表现出A D N I数据集预测效果优于C a m_C AN数据集。2.5 与其他模型的对比为了验证模型的有效性,本文做了其他两种模型的实验,分别为经典链路预测模型n o d e 2 v e c1 5和在文献6 中涉及的模型d y n g r a p h 2 v e c A E R NN.表4展示的是3种模型在C a m_C AN数据集上不同组别的预测效果。可以看出:相较于传统的链路预测模型N o d e 2 V e c和 社 交 网 络 链 路 预 测 模 型d y n-g r a p h 2 v e c A E R NN,G C GAN在AU C和MA P指标上都高于其他模型。这表明,我们使

44、用的模型在节点较少的稠密网络中,尤其是复杂的脑功能网络,可以捕捉到更加丰富的网络特征,从而达到更好的链路预测效果。表4 不同模型效果对比T a b l e 4 C o m p a r i s o n o f d i f f e r e n t m o d e l s数据集M e t h o dAU CMA PN o d e 2 V e c0.6 5 8 20.7 8 3 7C a m_YOUN Gd y n g r a p h 2 v e c A E R NN0.6 3 7 30.8 7 7 6G C N-GAN0.9 7 3 80.9 6 2 7N o d e 2 V e c0.6 5 4

45、70.8 1 5 1C a m_M I Dd y n g r a p h 2 v e c A E R NN0.7 5 6 20.9 3 2 7G C N-GAN0.9 8 9 10.9 5 4 6N o d e 2 V e c0.6 5 8 10.7 8 3 7C a m_O L Dd y n g r a p h 2 v e c A E R NN0.7 3 1 40.9 1 7 7G C N-GAN0.9 5 7 50.9 2 7 62.6 训练时间对预测的影响本文的预测方法可以理解为使用一个包含多个连续网络的窗口来预测下一时刻的网络。需要确定多少连续网络可以达到最佳预测效果。同时探讨了连续网

46、络的数量在不同数据集和不同组的预测精度上的影响。预测效果用AU C和MA P表示。每组的值是组中受试者的平均值。C a m_C AN数据集被分为3组,送入模型的网络数量从2 0到1 5 0.3组的平均AU C和MA P均在8 0%以上。当连续网络数量为1 5 0时,达到最佳的预测效果,具体为:老年组A U C为0.8 7 3 7 7,MA P为0.8 6 5 3 7;中年组A U C为0.8 6 6 9 5,MA P为0.8 5 6 2 6;青年组AU C为0.8 5 5 4 6,MA P538 第5期 王子健,等:基于对抗生成网络的时序脑功能网络预测方法为0.8 3 9 0 5.A D N

47、I数据集中四组的AU C和MA P均能达到0.8 5以上,可以很好地预测下一时刻的大脑功能网络。与C a m_C AN数据集一样,连续网络数量从1 5到6 0,步长为5,具体表现为:A D组AU C为0.8 9 7 0 9,MA P为0.8 7 2 1 1,LMC I组AU C为0.8 9 0 2 8,MA P为0.8 7 6 1 6,EMC I组AU C为0.9 0 7 1 2,MA P为0.8 8 2 8 5,N C组A U C为0.8 9 1 3 8,MA P为0.8 6 9 5 3,具体如图6所示。图6(a)图为C a m_C AN数 据 集 上 连 续 网 络 数 量 对AU C和M

48、A P的影响,图6(b)图为A D N I数据集上连续网络数量对AU C和MA P的影响。两批数据集的预测结果均表明,通过将尽可能多的连续网络送到模型中进行训练,可以达到最佳预测效果。3 结束语本文基于对抗生成网络,利用图卷积和长短期记忆网络,建立了一种脑功能网络预测模型方法。本文的主要贡献为:1)在深度神经网络的基础上结合了对抗生成网络,与其它的时序网络链路预测相比,本文提出的方法在脑功能网络上具有较高的预测准确率。2)对本文提出的方法模型进行了消融实验,初步探究各个模型对于网络链路预测的影响,得出了G C N和L S TM相结合可以达到更好预测效果的结论。3)本文还从连续网络数量、预测效果

49、的衰退性等方面讨论了对脑功能网络链路预测准确率的影响因素。对掌握脑功能网络的演化规律具有重要意义,同时在脑机接口领域,对预测被试的认知状态具(a)Cam-CAN 数据集AUC1501351201059075连续网络数量4530150.873?80.865?30.856?80.848?20.839?70.831?2OldMidYoung150135120105907560453015MAP0.865?40.856?70.848?00.839?20.830?50.821?8OldMidYoung(b)ADNI 数据集150135120105907560453015AUC0.907?20.899?3

50、0.891?40.883?40.875?50.867?6ADLMCIEMCINC150135120105907560453015MAP0.882?90.877?00.871?20.865?30.859?50.853?6ADLMCIEMCINC60连续网络数量连续网络数量连续网络数量图6 连续网络数量对预测的影响F i g.6 I n f l u e n c e o f c o n t i n u o u s n e t w o r k n u m b e r o n p r e d i c t i o n有广泛的应用前景。参考文献:1 黄嘉爽,接标,丁卫平,等.脑网络分析方法及其应用J.数据采

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服