收藏 分销(赏)

基于集合约束的异质超网络表示学习.pdf

上传人:自信****多点 文档编号:2331944 上传时间:2024-05-28 格式:PDF 页数:8 大小:1.65MB
下载 相关 举报
基于集合约束的异质超网络表示学习.pdf_第1页
第1页 / 共8页
基于集合约束的异质超网络表示学习.pdf_第2页
第2页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 49卷 第 11期2023年 11月Computer Engineering 计算机工程基于集合约束的异质超网络表示学习刘贞国,朱宇,王晓英,黄建强,曹腾飞(青海大学 计算机技术与应用系,西宁 810000)摘要:与节点之间仅具有成对关系的普通网络不同,超网络的节点之间还存在复杂的元组关系,因而现有的大多数普通网络表示学习方法不能有效地捕获复杂的元组关系。为此,提出一种捕获成对关系和元组关系的基于集合约束的异质超网络表示学习方法。结合团扩展和星型扩展,将抽象为超图的异质超网络转化成抽象为 2-截图+关联图的异质网络。基于 2-截图+关联图,采用感知节点语义相关性的元路径游走方法获取异质节点

2、序列,并通过基于拓扑派生目标函数的模型训练异质节点序列上的成对关系,采用基于集合约束目标函数的模型,将与节点关联的超边集合融入到超网络表示学习中来训练节点之间的元组关系,从而获得高质量的节点表示向量。实验结果表明,对于链接预测任务,该方法的性能接近于其他最优基线方法;对于超网络重建任务,当超边重建比率大于 0.7时,该方法在 drug数据集上具有较优的性能,在 GPS数据集上的平均性能超过其他最优基线方法 16.2%。关键词:网络表示;超网络结构;集合约束;链接预测;超网络重建开放科学(资源服务)标志码(OSID):中文引用格式:刘贞国,朱宇,王晓英,等.基于集合约束的异质超网络表示学习 J.

3、计算机工程,2023,49(11):115-122.英文引用格式:LIU Z G,ZHU Y,WANG X Y,et al.Heterogeneous hypernetwork representation learning based on set constraints J.Computer Engineering,2023,49(11):115-122.Heterogeneous Hypernetwork Representation Learning Based on Set ConstraintsLIU Zhenguo,ZHU Yu,WANG Xiaoying,HUANG Jianq

4、iang,CAO Tengfei(Department of Computer Technology and Application,Qinghai University,Xining 810000,China)【Abstract】Unlike ordinary networks,which only have pairwise relationships between the nodes,hypernetworks exhibit more intricate tuple relationships among their nodes.However,most existing repre

5、sentation learning methods for ordinary networks cannot effectively capture such complex tuple relationships.Therefore,this paper proposes a representation learning method for heterogeneous hypernetworks,denoted as Heterogeneous hypernetwork Representation learning with Set Constraints(HRSC),to capt

6、ure pairwise and tuple relationships.This method combines clique expansion and star expansion to transform a heterogeneous hypernetwork abstracted as a hypergraph into a heterogeneous network abstracted as a 2-section graph+incidence graph.Based on this combination of 2-section graph+incidence graph

7、,the meta-path walk method is employed to consider the semantic relevance of nodes,generating heterogeneous node sequences.Pairwise relationships within these sequences are then trained using a model grounded in topology-derived objective functions.Finally,the model,including a set constraint object

8、ive function,incorporates hyperedge sets associated with nodes into the hypernetwork representation learning process to train tuple relationships among nodes,thereby yielding high-quality node representation vectors.Experimental results demonstrate that,for link prediction tasks,the proposed method

9、performs comparably to other optimal baseline methods.In hypernetwork reconstruction tasks,the method outperforms other optimal methods on the drug dataset when the hyperedge reconstruction ratio exceeds 0.7.Additionally,the average performance of the proposed method surpasses other optimal baseline

10、 methods by 16.2%on the GPS dataset.【Key words】network representation;hypernetwork structure;set constraint;link prediction;hypernetwork reconstructionDOI:10.19678/j.issn.1000-3428.0065729基金项目:国家自然科学基金(62166032,62162053,62062059,62101299);青海省自然科学基金(2022-ZJ-961Q)。作者简介:刘贞国(1995),男,硕士研究生,主研方向为机器学习、网络表示

11、学习;朱 宇(通信作者),讲师、博士;王晓英、黄建强,教授、博士;曹腾飞,副教授、博士。收稿日期:2022-09-13 修回日期:2022-12-07 Email:人工智能与模式识别文章编号:1000-3428(2023)11-0115-08 文献标志码:A 中图分类号:TP182023年 11月 15日Computer Engineering 计算机工程0概述 网络表示学习1也称为网络嵌入,其将网络中的每个节点映射到一个低维的向量表示空间,学习到的节点表示向量可以被用于节点分类2-4、链接预测5-7、社区检测8-9等网络分析任务。现有的网络表示学习方法大多针对普通网络,其中,节点之间的关系是

12、成对关系,即每条边只连接一对节点,而在现实生活中的数据对象之间的关系通常比较复杂,而且不一定是成对关系。例如,吉姆参加了一场在北京举行的学术会议,就形成了一种元组关系。捕获这种元组关系的网络通常称为超网络,其中,元组关系被看作超边。与普通网络相比,超网络逐渐变得更受欢迎,如何从超网络结构中挖掘有用信息变得十分有意义。然而,现有的大多数网络表示学习方法不能直接应用于超网络。鉴于上述事实,团扩展、星型扩展10和BTR11将超边分解为对边,然后学习节点表示,但是该类方法在超网络展开过程中会丢失超边信息。Hyper2vec12、HPSG13没有分解超边,而是基于超路径游走序列来捕获节点之间的成对关系,

13、但是它们没有很好地捕获节点之间的元组关系。HPHG13和DHNE14可以很好地捕获节点之间的成对关系和元组关系,但是它们受限于固定大小和固定类型的异质超边。Hyper-SAGNN15相比于 DHNE 和 HPHG具有更好的泛化性,对输入元组的节点数目大小和类型没有要求,但是由于该方法构造了很多中间特征,其模型计算复杂度较高。受到上述方法的启发,将结构复杂的超网络转化为结构简单的普通网络,以便于使用普通网络表示方法学习节点表示向量,同时考虑节点之间的成对关系和元组关系。本文提出一种基于集合约束的异质超网络表示学习方法 HRSC。该方法通过结合团扩展和星型扩展策略将异质超网络转化为异质网络16,采

14、用感知节点语义相关性的元路径游走算法来捕获异质节点之间的语义信息,并根据集合约束机制,在基于拓扑派生目标函数的模型上融入超边。1相关工作 超网络作为一种特殊的图结构化数据,逐渐受到 研 究 者 的 广 泛 研 究。团 扩 展、星 型 扩 展10和BTR11是超网络学习的传统主流方法,它们将谱理论应用到超网络中,通过严密的数理推导来求解目标函数的最优解,其中,团扩展使得超边内部节点连接成完全图,即使得超边内部节点之间两两相连。星型扩展通过引入超边节点,使得超边内部节点与超边节点相连。BTR使用超边内部距离最远的两个节点的连接边代替超边本身,大幅降低了展开过程的时间复杂度,但是当其应用于节点差异度

15、较大的超网络时会丢失较多的结构信息。Hyper2vec12在拉普拉斯算子上加入导向函数,提出基于超边的有偏随机游走,使其能够适应不同的网络结构,从而更好地保留超网络结构信息。HPSG13基于超边的随机游走来构造节点的异质邻域,然后通过 Skip-gram模型学习节点表示向量。DHNE14直接对超边进行建 模,但 该 方 法 局 限 于 固 定 大 小 的 异 质 超 边。HPHG13基 于 超 边 的 随 机 游 走 节 点 序 列 上 训 练Hyper-gram 模型,更好地保留了超网络结构,实现了优于 DHNE的性能,但是其只适用于均匀超网络,很难扩展到任意规模的超网络。Hyper-SAG

16、NN15使用自注意力机制对超图信息进行聚合,结合节点动态特征和静态特征对节点进行学习,对输入元组的节点类型、数目没有要求,相比 DHNE和 HPHG 具有更好的泛化性,但由于该方法构造了很多中间特征,其模型计算复杂度较高。Event2vec17将多个对象之间关系建模为事件,通过在嵌入空间中保留事件一阶和二阶近似性学习节点表示向量。与上述方法不同,HRSC 不仅可以捕获节点之间的成对关系和元组关系,而且可以平衡优化节点之间的成对关系和元组关系,以便于获得高质量的节点表示向量。在 3个不同类型的超网络数据集上的实验结果表明,HRSC 方法在链接预测和超网络重建任务中表现优异。2问题定义 超网络通常

17、被抽象为超图H=(VE),其中,V=vi|V|i=1=VtTt=1是T种类型的节点集合,Vt表示第t种类型的节点集合,E=ei=v1v2vm|E|i=1(m 2)是超边集合。如果对于任意ei E均有|ei|=k,则称H为 k-均匀超图;如果 k=2,则超网络退化为传统网络;如 果T 2,则 超 网 络 定 义 为 异 质 超 网 络。如图 1 所示,给定一个异质超图H=(VE),其中,E=e1=a1b1c1e2=a2b2c2e3=a1b1c2,V=a1b1c1a2b2c2,a、b、c表示节点的类型。图 1异质超图Fig.1Heterogeneous hypergraph116第 49卷 第 1

18、1期刘贞国,朱宇,王晓英,等:基于集合约束的异质超网络表示学习定义 1(异质超网络表示学习)给定一个异质超网络H=(VE)。异质超网络表示学习为每个节点vi V学习一个低维向量rvi k,其中,k|V|。它的目的是使得学习到的向量显式地保留异质超网络结构信息,并且异质超网络结构中相邻的节点在向量表示空间中也相邻。3预备知识 文献 18 提出分别通过团扩展和星型扩展将超图转化为 2-截图和关联图。受文献18的启发,文献 19 提出将超图转换为 2-截图+关联图和感知节点语义相关性的元路径游走方法。下面详细介绍超图转换为 2-截图、关联图、2-截图+关联图和感知节点语义相关性的元路径游走。3.1超

19、图转换为 2-截图、关联图与 2-截图+关联图的方法超图转换为 2-截图、关联图与 2-截图+关联图方法如下:1)2-截图超图H=(VE)的 2-截图(2-section graph)是满足以下条件的图S=(VE):(1)V=V,即S的 节 点 集 合 与H的 节 点 集 合相同。(2)任意两个不同的节点之间连一条边,当且仅当它们同时与H的至少一条超边关联。图 2是图 1超图对应的 2-截图。2)关联图超图H=(VE)的关联图是满足以下条件的图I=(VE):(1)V=V E,即将超图H中的每条超边看成一个节点,I的节点集合是H的节点集合和超边集合的并集。(2)vi V和ei E相邻,当且仅当v

20、i ei。图 3 为图 1 超图对应的关联图,其中 e节点代表超边节点。3)2-截图+关联图超图H=(VE)的 2-截图+关联图是满足以下条件的图I=(VE):(1)V=V E,即将超图H中的每条超边看成一个节点,I的节点集合是H的节点集合和超边集合的并集。(2)对于vi V和ei E,当且仅当vi ei时,vi与ei相邻;对于vivj ei,当且仅当vi和vj节点之间语义相关,vi和vj相邻。图 4 为图 1 超图对应的关联图,其中,b1和c1、b1和c2、b2和c2节点之间语义相关。3.2感知节点语义相关性的元路径游走在 2-截图+关联图G=(VE)上的感知节点语义相关性的元路径游走定义如

21、下:V11V2ViiVi+1VjeVj+1Vl-1l-1Vl其中:i表示Vi和Vi+1类型节点之间存在语义相关;e表示Vj和Vj+1类型节点之间通过超边节点关联;=1iel-1表示V1和Vl类型节点之间的复合关系。与传统随机游走相比,采用感知节点语义相关性的元路径游走获取的异质节点序列,可以更好地保留超网络中节点之间的元组关系和增强节点之间的成对关系。4HRSC方法 HRSC 方法的框架如图 5 所示。该框架包括2 个主要部分:(a)基于拓扑派生目标函数的模型;(b)基于集合约束目标函数的模型。其中,Ev和v分别表示嵌入矩阵和参数向量,ev和ew分别为v和w对应的向量,v和w分别表示目标节点和

22、与目标节点关联的超边。图 22-截图Fig.22-section graph图 3关联图Fig.3Incidence graph图 42-截图+关联图Fig.42-section graph+incidence graph1172023年 11月 15日Computer Engineering 计算机工程4.1拓扑派生目标函数采用基于感知节点语义相关性游走来获取的异质节点序列C作为 HRSC 方法的输入,通过基于拓扑派生目标函数的模型来捕获序列C上节点之间的成对关系。下面详细介绍拓扑派生目标函数。对 于 目 标 节 点v C,当v的 上 下 文 节 点 为c context(v)时,将c视为正

23、样本,将非上下文节点Neg(v)视为负样本。节点的标签定义如下:L(u)=1u c0u Neg(v)(1)p(u|v)表示在已知目标节点v的条件下预测其上下文节点u概率。对于给定节点序列C,最大化拓扑派生目标函数如下:L1=v Cc context(v)u c Neg(v)p(u|v)(2)对于每一个节点v,嵌入向量ev是v作为目标节点的表示向量,参数向量v是v作为上下文节点时的表示向量,则p(u|v)定义如下:p(u|v)=(Tuev)L(u)=11-(Tuev)L(u)=0(3)其中:(Tuev)=11+e-Tuev是 Sigmoid函数。式(3)可以重写为:p(u|v)=(Tuev)L(

24、u)1-(Tuev)1-L(u)(4)因此,式(2)可重新表示如下:L1=v Cc context(v)u c Neg(v)(Tuev)L(u)1-(Tuev)1-L(u)(5)通过最大化L1将超网络拓扑结构融入到超网络表示学习中来捕获节点之间的成对关系。4.2集合约束目标函数上述基于拓扑派生目标函数的模型仅采用近似于超图的 2-截图+关联图作为输入来学习节点表示向量,没有充分地捕获节点之间的元组关系,即超边。为了更好地捕获节点之间的元组关系,提出一种基于集合约束目标函数的模型,该模型将与节点关联的超边集合融入到超网络表示学习中。下面详细介绍集合约束目标函数。对于目标节点v C,w表示与目标节

25、点关联的超边,Tv表示与目标节点关联的超边集合,如果将w看作节点,Tv也表示与目标节点v相关联的节点集合。将目标节点v视为正样本,对于w Tv,NEG(w)表示目标节点v的负样本子集。节点标签定义如下:L(|v)=1 v0 NEG(w)(6)对于目标节点v,通过集合约束机制,将与节点相关联的超边集合作为约束条件融入到节点的表示学习过程中。集合约束目标函数的计算公式如下:L2=v Cw Tvp(v|w)=v Cw Tv v NEG(w)(Tew)L(|v)1-(Tew)1-L(|v)(7)通过最大化L2,将与节点相关联的超边集合融入到超网络表示学习过程中来捕获节点之间的元组关系。4.3联合优化目

26、标函数通过联合优化拓扑派生目标函数和集合约束目标函数,可以同时捕获节点之间的成对关系和元组关系。与其他超网络表示学习方法相比,HRSC 在2 个层次上进行了改进:1)在超网络拓扑结构层次上,HRSC捕获了节点之间的成对关系;2)在节点-超边层次上,HRSC 捕获了节点之间的元组关系。通过上述改进,HRSC 有效地融合超边到超网络表示学习中。为了便于计算,将拓扑派生函数L1和集合约束L2取对数后相加,并最大化联合优化目标函数如下:图 5HRSC框架Fig.5HRSC framework118第 49卷 第 11期刘贞国,朱宇,王晓英,等:基于集合约束的异质超网络表示学习L=L1+L2=v C c

27、 context(v)u c Neg(v)L(u)loga(Tuev)+1-L(u)loga1-(Tuev)+w Tv v NEG(w)L(|v)loga(Tew)+1-L(|v)loga1-(Tew)(8)其中:是平衡基于拓扑派生目标函数的模型和基于集合约束目标函数的模型的调和因子。为了便于推导,将L简记为L(vuw),即:L(vuw)=L(u)loga(Tuev)+1-L(u)loga1-(Tuev)+L(|v)loga(Tew)+1-L(|v)loga1-(Tew)(9)通过使用随机梯度上升(SGA)算法来优化目标函数L(vuw),给出L(vuw)的 4种梯度。首先,关于u的梯度计算如下

28、:L(vuw)u=L(u)1-(Tuev)ev-1-L(u)(Tuev)ev=L(u)1-(Tuev)-1-L(u)(Tuev)ev=L(u)-(Tuev)ev(10)因此,对u的更新公式如下:u=u+L(u)-(Tuev)ev(11)其中,是 HRSC 方法的学习率;当L(u)=1和L(u)=0时,分别更新正负样本节点的参数向量。其次,利用ev和u的对称性计算L(vuw)关于ev的梯度如下:L(vuw)ev=L(u)-(Tuev)u(12)因此,对ev的更新公式如下:ev=ev+u c Neg(v)L(u)-(Tuev)u(13)然 后,L(vuw)关 于的 梯 度 公 式 如 下:L(vu

29、w)=L(|v)log(Tew)+1-L(|v)log1-(Tew)=L(|v)1-(Tew)ew-1-L(|v)(Tew)ew=L(|v)1-(Tew)-1-L(|v)(Tew)ew=L(|v)-(Tew)ew(14)因此,对的更新公式如式(15)所示,当L(|v)=1或L(|v)=0时,分 别 更 新 正 负 样 本 节 点 的 参 数向量。=+L(|v)-(Tew)ew(15)最后,利用ew和的对称性计算L(vuw)关于ew的梯度如下:L(vuw)ew=L(|v)-(Tew)(16)因此,对ew的更新公式如下:ew=ew+v Neg(w)L(|v)-(Tew)(17)根据上述分析,HRS

30、C 方法的具体描述如算法 1所示。算法 1 HRSC algorithm输入 超网络H=(V,E),嵌入维度d输出 嵌入矩阵Ev()|V|+|E|d1.for v in V E do2.初始化嵌入向量ev d 13.初始化参数向量v d 14.end for/*C为采样节点序列语料库*/5.for v in C do6.for c in context(v)do7.for u in c Neg(v)do8.根据式(11)更新u9.end for10.根据式(13)更新ev11.end for12.if v V do13.for w in Tv do14.for in v NEG(w)do15.

31、根据式(15)更新16.end for17.根据式(17)更新ew18.end for19.end for20.return Ev4.4复杂度分析在算法 1 中,基于拓扑派生目标函数的模型和基于集合约束目标函数的模型分别捕获了节点之间的成对关系和元组关系,其时间复杂度如下:O(C(context (Neg+1)+Tmaxv(NEG+1)2d(|V|+|E|),其中:Tmaxv表示与v关联的超边集合的最大基数;Neg和NEG分别表示拓扑派生目标函数和集合约束目标函数的负采样样本大小。由于|V|和|E|通常较大,因此 HRSC 的时间复杂度大约为O(|V|+|E|),接近于HPHG 和 Event

32、2vec的时间复杂度,高于 DHNE 的时间复杂度。5实验 5.1数据集为了全面评估本文提出方法的效果,本文使用3 个超网络数据集,即药物网络、GPS 网络和社会网络。数据集的详细统计如表1所示。1192023年 11月 15日Computer Engineering 计算机工程1)drug:该数据集来自 FDA 不良事件报告系统(FAERS),包括提交给 FDA 的不良事件和用药错误报告的信息。元组关系(用户,药物,反应)被看作超边来构建超网络。2)GPS20:该数据集描述了一个用户在某个位置参加活动。元组关系(用户,位置,活动)被看作超边来构建超网络。3)MovieLens21:该 数 据

33、 集 描 述 了 来 自 于MovieLens的个人标记活动。元组关系(用户,电影,标签)被看作超边来构建超网络。5.2基线方法基线方法主要有以下 8种:1)deepwalk22将随机游走获取的节点序列作为Skip-gram模型的输入来获得节点表示向量。2)node2vec23采用有偏随机游走策略学习节点表示向量。3)metapath2vec24采用基于元路径的随机游走策略学习节点表示向量。4)Coarsas2hvec25通过 HIN 粗化和自避免短序列采样过程捕获异质网络的丰富的信息,从而学习节点表示向量。5)Hyper2vec12采用基于超边的二阶随机游走策略学习节点表示向量。6)HPSG

34、13基于超路径的随机游走结合 Skip-gram模型学习节点表示向量。7)HPHG13基于超路径的随机游走结合 Hyper-gram模型学习节点表示向量。8)Event2vec17通过学习事件嵌入来学习对象嵌入。HRSC 方法基于 2-截图+关联图来捕获节点之间的成对关系和元组关系来学习节点表示向量。5.3链接预测本节在 3 个超网络数据集上进行链接预测实验,通过 AUC26值来评估 HRSC 方法。实验随机选取 80%的边集作为训练集,对于全部方法,取 6 次AUC 平均值。以 drug 数据集为例,HRSC 方法对于2-截图、关联图分别采用方案1、2进行采样,对于2-截图+关联图采用感知节

35、点语义相关性的元路径游走方案3进行采样19。链接预测结果如表2所示。1:userR1drugR2reactionR3drugR4user2:userR1eR2drugR3eR4reactionR5eR6drugR7eR8user3:userR1eR2drugR3reactionR4eR5reactionR6drugR7eR8user表 2链接预测结果 Table 2Link prediction results%二元算子操作Weighted-L1Weighted-L2方法deepwalknode2vecmetapath2vecCoarsas2hvecHRSCHyper2vecHPSGHPHGE

36、vent2vecdeepwalknode2vecmetapath2vecCoarsas2hvecHRSCHyper2vecHPSGHPHGEvent2vecdrug2-截图79.1278.5484.3586.0289.4092.3791.9794.8695.2877.0877.9684.5787.0890.6793.4392.1495.8395.43关联图88.3288.1889.2688.1491.1089.0588.4789.4488.7791.732-截图+关联图88.9188.6192.5291.5394.9187.4588.4891.0392.8095.33GPS2-截图85.408

37、2.9989.1888.1486.4392.7893.2094.3396.0585.2283.8587.4687.8085.7491.9293.1293.4794.33关联图87.2188.1489.6991.9292.4688.6986.4389.1892.6192.132-截图+关联图90.5890.9290.3794.8593.6490.0691.1290.5594.2793.382-截图69.2071.3680.3293.6092.4796.1898.0891.6493.4568.7770.3778.5292.0791.2395.8297.8091.3891.91MovieLens关联

38、图89.0688.7684.2594.7794.5988.8689.2785.2294.1493.462-截图+关联图90.5490.3390.4896.3495.6290.6391.2689.2395.3194.69表 1数据集统计 Table 1Dataset statistics数据集drugGPSMovieLens节点类型用户,药物,反应用户,位置,活动用户,电影,标签节点数/个4,132,221146,70,5457,1 688,2 530边数/条1 1951 4365 965120第 49卷 第 11期刘贞国,朱宇,王晓英,等:基于集合约束的异质超网络表示学习由表 2 可知,HRS

39、C 方法在 2-截图、关联图、2-截图+关 联 图 上 的 AUC 值 优 于 deepwalk、node2vec、metapath2vec、Coarsas2hvec 普 通 网 络 学 习 方 法。HRSC 方法在 drug 和 GPS 超网络上的 AUC 值优于超网络表示学习方法 Hyper2vec 和 HPSG。原因是这两个超网络的内部节点之间的元组关系较强,因此特定地训练节点之间成对关系的方法 Hyper2vec和 HPSG 表现不佳。HRSC 方法在 MovieLens 超网络上的 AUC 值优于 HPHG 和 Event2vec,在 drug 和GPS 超网络上的 AUC 值接近

40、HPHG 和 Event2vec。原因是MovieLens超网络的内部节点之间的元组关系较弱,成对关系较强,因此特定地训练成对关系的方法表现较好,比如Coarsas2hvec、Hyper2vec和HPSG。5.4超网络重建选取 drug 和 GPS 超网络进行超网络重建实验。超网络重建13的评估指标定义如式(18)所示:AACC()=1|i=1|ni,0 1(18)其中:对重建超边的元组相似性按照升序排序,ni=1表示第 i个重建超边存在于原超网络中,否则ni=0;为重建的总超边数;为重建超边的比率。超网络重建实验如图 6 所示,HRSC 方法在 drug和 GPS超网络上的重建性能优于普通网

41、络表示学习方法 deepwalk、node2vec、metapath2vec和 Coarsas2hvec。原因是HRSC方法捕获了节点之间元组关系,即超边。超网络表示学习方法 Event2vec、Hyper2vec、HPSG 和HPHG在较大重建超边比率时,超网络重建性能不佳,而HRSC在各个比率的超边重建中都表现出了稳定的性能,且 HRSC在 GPS超网络上显著优于其他基线方法,这表明了HRSC方法的有效性和鲁棒性。5.5参数敏感度分析参数是一个平衡基于拓扑派生目标函数的模型和基于集合约束目标函数的模型的调和因子。当=0时,HRSC只能捕获节点之间的成对关系。当0 1时,HRSC可以同时捕获

42、节点之间的成对关系和元组关系。设置0 1,取各个超边重建比率的平均值AACC()。通过超网络重建任务分析参数的影响。由图 7可知,当=0时,HRSC方法仅捕获了节点之间的成对关系,没有考虑节点之间的元组关系;随着的增大,节点之间的元组关系被融入到节点表示向量中,HRSC方法分别在=0.6和=0.7时达到最大,表明元组关系的重要性在增强;继续增大,超网络重建性能开始下降,表明成对关系的重要性在增强。图 6超网络重建Fig.6Hypernetwork reconstruction图 7参数的敏感度分析Fig.7Sensitivity analysis of parameter 1212023年 1

43、1月 15日Computer Engineering 计算机工程6结束语 本 文 提 出 一 种 异 质 超 网 络 表 示 学 习 方 法HRSC。该方法采用集合约束机制将超边融入到超网络表示学习中来学习高质量的节点表示向量。实验 结 果 表 明,HRSC 方 法 在 drug、GPS、MovieLens 3 个超网络上的平均性能均优于基线方法。由于超边分解会带来信息损失,下一步将不再分解超边,而是在集合约束基础上引入超路径,以便于更好地处理异质超网络。参考文献 1 齐金山,梁循,李志宇,等.大规模复杂信息网络表示学习:概念、方法与挑战 J.计算机学报,2018,41(10):2394-24

44、20.QI J S,LIANG X,LI Z Y,et al.Representation learning of large-scale complex information network:concepts,methods and challenges J.Chinese Journal of Computers,2018,41(10):2394-2420.(in Chinese)2 BHAGAT S,CORMODE G,MUTHUKRISHNAN S.Node classification in social networks M.Berlin,Germany:Springer,201

45、1:115-148.3 ZHAO T X,ZHANG X,WANG S H.GraphSMOTE:imbalanced node classification on graphs with graph neural networks C/Proceedings of the 14th ACM International Conference on Web Search and Data Mining.New York,USA:ACM Press,2021:833-841.4 CHEN D L,LIN Y K,ZHAO G X,et al.Topology-imbalance learning

46、for semi-supervised node classification EB/OL.2022-08-10.https:/arxiv.org/abs/2110.04099.5 L L Y,ZHOU T.Link prediction in complex networks:a survey J.Statistical Mechanics and Its Applications,2011,390(6):1150-1170.6 ZHU Z C,ZHANG Z B,XHONNEUX L P,et al.Neural bellman-ford networks:a general graph

47、neural network framework for link prediction EB/OL.2022-08-10.https:/arxiv.org/abs/2106.06935.7 WANG M H,QIU L L,WANG X L.A survey on knowledge graph embeddings for link prediction J.Symmetry,2021,13(3):485.8 王思檬,曹佳.边异质网络中的社区结构发现算法 J.计算机工程,2019,45(6):140-145.WANG S M,CAO J.Community structure detect

48、ion algorithm for heterogeneous edge network J.Computer Engineering,2019,45(6):140-145.(in Chinese)9 李有红,王学军,谌裕勇,等.一种融合邻边属性的个人社交网络社区发现算法 J.计算机工程,2021,47(7):81-87.LI Y H,WANG X J,CHEN Y Y,et al.A community discovery algorithm fused with adjacent edge attribute for personal social network J.Computer E

49、ngineering,2021,47(7):81-87.(in Chinese)10 AGARWAL S,BRANSON K,BELONGIE S.Higher order learning with graphsC/Proceedings of the 23rd International Conference on Machine Learning.New York,USA:ACM Press,2006:17-24.11 LOUIS A.Hypergraph Markov operators,eigenvalues and approximation algorithms C/Procee

50、dings of the 47th Annual ACM Symposium on Theory of Computing.New York,USA:ACM Press,2015:713-722.12 HUANG J E,CHEN C A,YE F H,et al.Hyper2vec:biased random walk for hyper-network embedding M.Berlin,Germany:Springer,2019:273-277.13 HUANG J,LIU X,SONG Y Q.Hyper-path-based representation learning for

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服