收藏 分销(赏)

基于随机游走和GAN的异质信息网络表征方法.pdf

上传人:自信****多点 文档编号:639591 上传时间:2024-01-22 格式:PDF 页数:7 大小:1.32MB
下载 相关 举报
基于随机游走和GAN的异质信息网络表征方法.pdf_第1页
第1页 / 共7页
基于随机游走和GAN的异质信息网络表征方法.pdf_第2页
第2页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023 年第 5 期计算机与数字工程收稿日期:2022年11月13日,修回日期:2022年12月19日作者简介:蒋宗礼,男,博士,教授,博士生导师,研究方向:网络信息搜索与处理。谢欣彤,女,硕士研究生,研究方向:网络表征学习。1引言各种类型的网络可以看做是这个世界在某些方面的抽象,关于它的研究也一直是学术界的一个热点。如社交网络,它是人们社会关系网络的抽象,这种网络仅由一种类型的节点和边构成,也被称为同质信息网络。与之相对应的,包含一种或多种类型的节点和边的网络被称为异质信息网络(Heterogeneous Information Network,HIN)1。相较于同质信息网络,HIN将网络

2、中的对象和关系进行了区分,能够表达更丰富的信息,如图1所示。图1HIN举例HIN中通常包含大量的节点,这些节点分布在高维稀疏空间中。复杂而庞大的网络数据往往难以处理2,网络表征学习(Network RepresentationLearning,NRL)3则是应对以上问题的一种典型方总第 403期2023 年第 5期计算机与数字工程Computer&Digital EngineeringVol.51No.5基于随机游走和 GAN 的异质信息网络表征方法蒋宗礼谢欣彤(北京工业大学信息学部北京100124)摘要近年来,异质信息网络的表征学习逐渐成为了研究热点。已有的研究中,有使用生成对抗网络来应对这

3、个任务的方法,取得了不错的效果。但是该方法未能有效地利用节点的上下文语义信息。为此,论文提出一种结合生成对抗网络和截断随机游走思想的异质信息网络表征学习方法。首先使用截断随机游走方法获取一个节点的上下文信息,也即游走出的路径,然后基于这些路径借助生成对抗网络来训练模型。基于标准数据集的实验也证明了论文方法的有效性。关键词异质网络;表征学习;随机游走;生成对抗网络中图分类号O141.4DOI:10.3969/j.issn.1672-9722.2023.05.023Heterogeneous Network Representation Learning Based on RandomWalk a

4、nd GANJIANG ZongliXIE Xintong(Faculty of Information Technology,Beijing University of Technology,Beijing100124)AbstractIn recent years,representational learning of heterogeneous information networks has gradually become a researchhotspot.In the previous studies,there is a method to deal with it by u

5、sing generative adversarial network,which has achieved goodresults.However,this method fails to make use of the nodes contextual semantic information effectively.Therefore,this paper proposes an approach combining generative adversarial network and truncated random walk to apply to representation le

6、arning of heterogeneous information network.Firstly,the context of a node is obtained through truncated random walk algorithm,it is the traversedpaths.Then based on these paths,the model is trained under the framework of generative adversarial network.Experiments based onstandard data sets show the

7、effectiveness of our approach.Key Wordsheterogeneous information networks,representation learning,random walk,GANClass NumberO141.41101第 51 卷法。NRL将网络中的节点在高维空间的稀疏向量表示映射成低维空间稠密的向量表示,能够在一定程度上保留原始网络中的信息。由于低维的向量很容易被机器学习算法处理,故可有效地应用于节点分类、聚类、链接预测、社区发现和推荐等任务中4。本文的研究任务就是HIN的表征学习。目前已经有一些关于 NRL 的工作。Perozzi 等提出

8、的DeepWalk5就是一种经典的NRL方法。但该方法仅适用于同质信息网络的表征学习,在HIN上的表征学习效果并不好。Goodfellow等提出的生成对抗网络(Generative Adversarial Network,GAN)6由一个生成网络和一个判别网络组成,通过两个神经网络相互博弈的方式进行学习。Hu 等将其应用于HIN的表征学习,提出了HeGAN7。该方法利用一个节点的邻居节点作为该节点的上下文语义信息,融合到模型中,取得了不错的效果。但是,仅仅考虑邻居节点并不能完全反应该节点的上下文信息。因此我们提出利用DeepWalk的随机游走的方法,尽可能多地获取一个节点的上下文信息,再结合

9、GAN 的生成对抗思想,提出 RHGAN模型,并取得了较好的效果。2相关研究随着机器学习技术的发展,学习网络中的节点特征成为了一项新兴研究任务89。2014年,Perozzi等提出的 DeepWalk通过随机游走遍历网络中的节点,得到有序的节点序列。利用Word2Vec10思想和skip-gram11模型,由单个节点预测前后序列,从而学习得到该节点的向量表示。该方法可以处理无权重的无向图。LINE12由 Tang 等于 2015年提出,该算法保留了节点的一阶相似度和二阶相似度,可以处理任意类型的大规模网络,包括有权重或无权重的有向或无向图。2016年,Grover等在DeepWalk的基础上,

10、通过引入两个超参数p和q来控制游走策略,即采用宽度优先搜索或广度优先搜索进行游走,从而提出了node2vec13。该方法可处理有权重或无权重的有向或无向图。由同质信息网络表征学习方法得到启发,一些学者尝试将同质信息网络中的NRL思想应用到HIN中。Dong等采用 了 node2vec 中 的 随 机 游 走 的 思 想,结 合Skip-gram模型,提出了metapath2vec14。该方法对随机游走和Skip-gram模型分别进行改进,采用基于元路径的方式来控制随机游走,同时使改进后的Skip-gram模型能够在输出层上区分节点的类型。Wang等由GAN得到启发,提出了GraphGAN 15

11、。该方法根据生成器在线生成策略,使生成器为每个节点生成假样本。将真实数据与生成器生成数据同时输入到判别器中,由判别器进行区分,并将区分结果反馈给生成器。但该方法仅适用于同质信息网络。Hu等提出的HeGAN方法,结合GAN的思想,设计了关系感知的判别器和生成器。广义生成器虽然能够直接从连续分布中采样“潜在节点”,并且不局限于原始网络中的节点,但没有充分考虑节点的上下文信息。3本文提出的模型-RHGAN本文提出的RHGAN模型利用随机游走,将节点的上下文信息融入到GAN中,以充分挖掘网络的结构和语义信息。模型中用到的参数如表1所示。表1RHGAN模型用到的参数参数NeG、eDMG、MDPRpG、D

12、含义异质信息网络(HIN)生成模型、判别模型的表征向量生成模型、判别模型的关系矩阵节点通过随机游走得到的路径的集合P=(p1p2p3)路径p中所有关系的序列Rp=(r1r2r3)生成模型、判别模型的参数3.1截断的随机游走随机游走就是在网络上不断重复地随机选择游走路径,最终形成一条贯穿网络的路径。从某个特定的端点开始,游走的每一步都从与当前节点相连的边中随机选择一条,沿着选定的边移动到下一个顶点,不断重复这个过程。而截断随机游走(Truncated Random Walk)实际上就是长度固定的随机游走。它在DeepWalk中被用于同质网的表征学习,算法1对该算法进行了描述。算法1 截断随机游走

13、(Truncated Random Walk)输入:源节点u,随机游走步长sl输出:以节点u为起点的路径uPath1)将u加入uPath;2)while uPath的长度!=2*sl+1 do3)令currU为uPath中的最后一个节点;4)从currU所具有的关系中随机选取一种关系作为selR5)从currU通过关系selR链接到其他邻居节点的序列中随机选择一个节点作为selU6)分别将selR、selU加入uPath7)end while蒋宗礼等:基于随机游走和GAN的异质信息网络表征方法11022023 年第 5 期计算机与数字工程直观上,节点u的上下文和u之间的关系更加紧密,可以用u的

14、上下文来表示u所蕴含的语义信息。我们使用截断随机游走算法,来获取节点u的语义信息。我们为每一个节点采样一批路径,路经p 表示为p:ur1vr2u3r3rslusl+1,其中,u表示源节点,v表示节点u的邻居,sl表示随机游走的步长。我们令Rp=(r1r2r3rsl),表示路径 p中所有关系的序列。同时,我们将采样得到的路径作为新的训练集,用ucontext表示节点u的上下文。以图1中的HIN为例,从节点business1出发,随机游走步长分别为1、2、3时,我们可以得到三条游 走 的 路 径p1:business1re3star level 1,p2:business1re2user1re1b

15、usiness2,以 及p3:business1re2user1re1business2re3starlevel 2。这些路径本身包含了可解释的语义,如p1表示商家business1的星级star level 1,p2表示用 户user1同 时 关 注 了 商 家business1和business2,p3表示用户user1同时关注了商家business1和星级为star level 2的商家business2。正是因为这些随机游走出来的路径包含了丰富的语义,因此我们希望通过随机游走的方式尽可能多的游走一个节点的上下文,以充分挖掘这些语义信息。3.2RHGAN中的判别模型按算法1对节点u进行随

16、机游走,可以得到路径p:ur1vr2u3r3rslusl+1,路径 p 中的关系序列Rp为(r1r2r3rsl),v为u的邻居节点。u 的上下文信息ucontext由 u 和Rp得到。令ucontext为正样本。负样本产生方式如下:随机选择Rp中的一种关系进行替换,得到Rp=(r1r2r3rsl),此时路径中的两个节点存在一种错误的关系。负样本即为u的错误的上下文信息ucontext,由u和Rp得到。将路径p放入生成模型中,得到假样本,即u的生成的上下文信息uGcontext。判别模型的目的是对采样得到的正样本、负样本和假样本进行判别,根据节点u的上下文信息和节点u的邻居的关系,从而判断该样本

17、是否来自原始网络。判别模型的目标函数如式(1)所示。D()ev|(uRp);D=11+exp(eDuTMDRpev)(1)eDu表示节点u在判别模型中的表示向量,MDRp表示路径p中的关系序列Rp在判别模型中的矩阵乘积,MDRp=MDr1MDr2MDr3MDrsl。若为正确的上下文信息,则节点u的邻居节点v与u的上下文信息相近,判别器的值接近1,说明该样本属于原始网络的可能性较大;反之,判别器的值接近0,说明该样本属于原始网络的可能性较小。正 样 本 的 损 失 函 数 如 式(2)所 示。uRpvP表示从集合P中取路径p,u为p中的源节点,Rp为p中的关系序列,v为p中节点u的邻居。LDp=

18、EuRpvP(logD()eDv|(uRp)(2)负样本的损失函数如式(3)所示。RpPRp表示随机替换Rp中的任意一种关系得到Rp。LDn=EuvPRpPRp(log(1D()eDv|(uRp)(3)假样本的损失函数如式(4)所示。ev表示由生成模型生成的上下文信息的向量表示。LDf=EuRpPevG()uRp;G(log(1D()ev|(uRp)(4)判别模型的损失函数由正样本、负样本和假样本的损失函数构成,如式(5)所示。D是判别模型中用于控制正则化的参数。D是判别模型中所有节点u的向量表示eDu和对应关系序列Rp的矩阵MDRp的集合,由最小化判别模型的损失函数进行更新。LD=LDp+L

19、Dn+LDf+D|D|22(5)3.3RHGAN中的生成模型将路径p和随机噪声放入生成模型中,用以生成节点u的上下文信息的表示向量。生成模型的目标函数如式(6)所示:G()uRp;G=f(WLf()w1e+b1+bL)(6)f表示激活函数,模型所采用的激活函数为带泄露线性整流函数(Leaky ReLU)。同时,为增强伪装性,还增加了多层感知器,WL、bL分别表示第L层的权重矩阵和偏置矩阵。e的求法如式(7)所示。e(uRp)=eGuTMGRp+z(7)eGu表示节点u在生成模型中的表示向量,MGRp表示路径p中关系序列Rp在生成模型中的矩阵乘积,MGRp=MGr1MGr2MGr3MGrsl,z

20、表示随机噪声。生成模型的目标是尽可能地生成节点u的真实的上下文信息,以混淆判别模型的判断。其损失函数定义如式(8)所示。LG=EuRpPevG()uRp;G()logD()ev;uRp1103第 51 卷+G|G|22(8)G是生成模型中用于控制正则化的参数。G是生成模型中所有节点u的向量表示eGu和对应关系序列Rp的矩阵MGRp以及多层感知器中的参数WL和bL的集合,由最小化生成模型的损失函数进行更新。RHGAN模型的整体训练过程如算法2所示。算法2RHGAN模型训练输入:HIN N;模型的训练次数epoch;生成模型、判别模型的训练次数Gepoc、Depoc;每个节点的采样次数nsampl

21、e;随机游走步长sl输出:eG、eD1)初始化D、G2)for e=0;eepoch do:3)for n=0;nDepocdo:4)for num=0;numnsampledo:5)N中每个节点进行步长为sl的随机游走,得路径p6)由p可得路径p中的源节点u的关系序列Rp7)由u和Rp得到正样本,即u的上下文信息8)随机替换路径p中的任一关系得到Rp(RpPRp),由u和Rp得到负样本9)将路径p放入生成模型中,得到u的生成的上下文信息G()uRp;G10)通过式(5),更新D11)end for12)end for13)for n=0;nGepocdo:14)for num=0;numns

22、ampledo:15)N中每个节点进行步长为sl的随机游走,得路径p16)由p可得路径p中的源节点u的关系序列Rp17)通过u和Rp生成u的上下文信息G()uRp;G18)通过式(8),更新G19)end for20)end for21)end for4实验与结果4.1数据集本文在YELP数据集上验证了RHGAN模型的有效性。YELP数据集中的实体类型及数量如表2(a)所示,关系类型及数量如表2(b)所示。由表2(a)和2(b)可以看出,YELP数据集中包含用户(User,U)、商家(Business,B)、服务(Service,S)、星级(Star level,St)、预定(Reservat

23、ion,R)六种节点类型和B-U、U-B、B-S、S-B、B-St、St-B、B-R、R-B八种关系类型,共计3913个节点,38680条边。表2(a)YELP数据集中的实体类型及数量实体类型UserBusinessServiceStar LevelReservation总计数量1,2862,6142923,913表2(b)YELP数据集中的关系类型及数量关系类型Business-User/User-Business(B-U/U-B)Business-Service/Service-Business(B-S/S-B)Business-Star level/Star level-Business

24、(B-St/St-B)Business Reservation/Reservation-Business(B-R/R-B)总计数量30,8382,6142,6142,61438,6804.2评价指标本文通过RHGAN在聚类任务上的表现,来验证其有效性。归一化互信息(NMI)常被选作为评价聚类效果的标准。NMI值越大,表明聚类效果越好。其范围为 0,1。计算方法见式(9)。NMI()XY=I(X;Y)(H()X+H(Y)/2)(9)I表示互信息,即两个随机变量X和Y之间的关联程度。X 与 Y 关系越密切,则I(X;Y)的值越大。计算方法见式(10)。I()X;Y=kjP()wkcjlogP()w

25、kcjP()wkP()cj=kj|wkcj|NlogN|wkcj|wk|cj|(10)H表示熵,由概率的极大似然估计推导而来,计算方法见式(11)。H()=kP(wk)logP()wk=k|wk|Nlog|wk|N(11)4.3实验结果与分析4.3.1对比实验本文选用 NRL 经典算法 DeepWalk、LINE(采用一阶相似度LINE-1st和二阶相似度LINE-2nd)与基于 GAN 思想的 GraphGAN、HeGAN 作为基准实验,与本文所提出的RHGAN进行对比实验。其中,DeepWalk、LINE-1st、LINE-2nd、GraphGAN 均蒋宗礼等:基于随机游走和GAN的异质信

26、息网络表征方法11042023 年第 5 期计算机与数字工程为基于同质信息网络的模型,而HeGAN和RHGAN均为基于HIN的模型。基准实验的参数设置:Deepwalk设置从每个节点的出发次数number-walks为10,随机游走的步长walk-length 为 100,window-size 为 5。LINE-1st 和LINE-2nd设置总的样本数均为10000。GraphGAN设置生成模型和判别模型的训练次数均为30次、学习率均为0.001,每个节点的采样次数为20,总体的训练次数为20次。HeGAN设置生成模型和判别模型的训练次数分别为 5 和 15 次、学习率均为0.0001,总体

27、的训练次数为20次。实验结果如表3所示。表3对比实验结果方法DeepWalkLINE-1stLINE-2ndGraphGANHeGANRHGANNMI0.32900.35600.38670.34130.40370.4178由表3可以看出,基于HIN的模型整体上要优于基于同质信息网络的模型,在基于GAN思想的三种方法中,RHGAN 要明显优于另外两种方法。在基准实验中,效果最好的是HeGAN,其NMI值达到 了 0.4037。RHGAN 相 较 于 HeGAN 提 升 了1.41%,其NMI值达到了0.4178。以上结果表明HIN较同质信息网络具有更好的表征效果,同时,在GAN中融入节点的上下文

28、信息对HIN表征学习方面具有一定的提升效果,验证了本文所提出的RHGAN的正确性和有效性。4.3.2参数敏感度用 epoch表示总体训练次数,nsample表示每个节点的采样次数,Gepoc、Depoc分别表示生成模型和判别模型的训练次数,lGr、lDr分别表示生成模型和判别模型的学习率,sl表示随机游走步长。1)sl对模型效果的影响固定epoch为20,nsample为16,Gepoc为5、lGr为0.0003,Depoc为 15、lDr为 0.0001。将 sl 分别设置为 1,2,3,4,5,6,7,8,9,10,11,12。探究随机游走步长的变化对聚类结果的影响。实验结果如图2所示。其

29、中,左侧纵坐标轴表示在该随机游走步长下聚类的效果,以NMI值来评估;右侧纵坐标轴表示epoch为20时,在不同随机游走步长下,平均每个epoch所花费的训练时间,单位为s。图2随机游走步长对模型效果的影响图2中的NMI曲线表明,随着随机游走步长的增加,NMI值先增后减。当步长由 1增加至 2时,NMI值有所上升;当步长由2增加至3时,NMI值变化不大;当步长由3增加至4时,NMI值下降较多;继续增加步长,发现NMI值变化较为平缓。以上结果表明了在模型中对节点进行随机游走并融入节点上下文信息,可以提升聚类效果,但随机游走的步长并不是越长越好。随着步长的增加,节点的有效的上下文信息可能会被弱化,从

30、而影响模型的表征学习效果。图 2 中的时间变化曲线表明,随着步长的增加,每个节点进行随机游走所得到的路径就越长,平均每个epoch所花费的训练时间会逐步增加。但是所花费的训练时间基本符合线性增长,说明模型的训练是可控的且能被较好预测的。综合以上分析,当sl为2、3时,该模型在聚类效果和训练时间上都能取得较好的效果。2)Gepoc、Depoc的不同组合对模型的影响固定epoch为20,nsample为16,lGr为0.0003,lDr为0.0001,sl为3。将Gepoc、Depoc分别设置为 2,4,6,8,10,12,14,16,探究其不同的组合对聚类结果的影响。实验结果如图3所示。由图3可

31、以看出,当Depoc=2,Gepoc为2、4,或Depoc=4,Gepoc为2、8、14、16时,模型能有较好的聚类效果;当Depoc=6和Depoc=8,除了Gepoc=14,模型均能有较好的聚类效果;当Depoc=10,除了Gepoc=8,模型均能有较好的聚类效果;当Depoc=12、Depoc=14 或Depoc=16,无论Gepoc取值如何,模型均能有较好的聚类效果,且 NMI 值要优于Depoc取其他值的情况。当Gepoc位于 4,8 区间时,大多数Depoc的曲线波动变化较为平稳;当Gepoc大于8时,不同取值的Depoc曲线波动不同,存在上升和下降两种趋势。1105第 51 卷综

32、合以上分析,当Depoc位于 12,16,Gepoc位于 4,8 时,模型能有较好的效果。图3Gepoch、Depoch的不同组合对模型的影响3)epoch对模型的影响固定nsample为 16,Gepoc为 5、lGr为 0.0003,Depoc为 15、lDr为 0.0001,sl为 3,设置 epoch为 50。探究在一次训练过程中对抗学习的过程,以及生成模型和判别模型损失函数和聚类结果的变化。实验结果如图4(a)、4(b)所示。其中,图4(a)、4(b)的横坐标轴表示一次训练中epoch的变化,纵坐标轴分别表示损失函数以及该epoch下聚类的效果,以NMI值来评估。图4(a)总的训练次

33、数对损失函数的影响图4(b)总的训练次数对模型效果的影响由图4(a)可以看出,初始时判别模型的损失函数值较高,但随着epoch的增加,判别模型和生成模型的损失函数均逐渐下降。当epoch大于21时,判别模型和生成模型的损失函数曲线较为平缓,表明此时判别模型和生成模型均已趋于收敛。由图 4(b)可以看出,随着 epoch的增加,判别模型和生成模型的NMI值变化曲线呈现出上升后又下降的趋势。当 epoch 大于 19 时,判别模型的NMI值变化曲线总体呈下降趋势,而生成模型的NMI值变化曲线与之前趋势相同,总体较为平缓。这表明增加epoch并不一定会提升模型的效果,反而可能会导致模型出现过拟合的问

34、题。综合以上分析,当epoch位于 19,21 区间时,模型能取得较好的效果。5结语本文通过在聚类任务上的实验验证了所提RHGAN 方法的正确性和有效性,表明该方法在HIN表征学习方面有较好的表现。今后将在如何更好地融合网络中的结构信息和语义信息以及提升模型效率方面继续研究。参 考 文 献1Shi C,Li Y,Zhang J,et al.A survey of heterogeneous information network analysisJ.IEEE Transactions onKnowledge and Data Engineering,2016,29(1):17-37.2尹赢,吉

35、立新,黄瑞阳,等.网络表示学习的研究与发展J.网络与信息安全学报,2019,5(02):77-87.YIN Ying,JI Lixin,HUANG Ruiyang,et al.Researchand development of network representation learningJ.Chinese Journal of Network and Information Security,2019,5(02):77-87.3Zhang D,Yin J,Zhu X,et al.Network representationlearning:A survey J.IEEE Transacti

36、ons on Big Data,2020,6(1):3-28.4周慧,赵中英,李超.面向异质信息网络的表示学习方法研究综述 J.计算机科学与探索,2019,13(07):1081-1093.ZHOU Hui,ZHAO Zhongying,LI Chao.A Survey onRepresentation Learning Methods oriented to Heterogeneous Information NetworkJ.Journal of Frontiers ofComputer Science and Technology,2019,13(07):1081-1093.5Peroz

37、zi B,Al-Rfou R,Skiena S.Deepwalk:Online learning of social representations C/Proceedings of the 20thACM SIGKDD international conference on Knowledge discovery and data mining,2014:701-710.6Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial nets J.Advances in neural informationprocessi

38、ng systems,2014,27:2672-2680.7Hu B,Fang Y,Shi C.Adversarial learning on heterogeneous information networksC/Proceedings of the 25thACM SIGKDD International Conference on KnowledgeDiscovery&Data Mining,2019:120-129.蒋宗礼等:基于随机游走和GAN的异质信息网络表征方法11062023 年第 5 期计算机与数字工程8TU C C,YANG C,LIU Z Y,et al.Network

39、representation learning:an overviewJ.Scientia Sinica Informations,2017,47(8):980-996.9蒋宗礼,李苗苗,张津丽.基于融合元路径图卷积的异质网络表示学习J.计算机科学,2020,47(07):231-235.JIANG Zongli,LI Miaomiao,ZHANG Jinli.Graph Convolution of Fusion Meta-path Based Heterogeneous NetworkRepresentation Learning J.Computer Science,2020,47(07

40、):231-235.10Mikolov T,Sutskever I,Chen K,et al.Distributed representations of words and phrases and their compositionalityJ.Advances in Neural Information Processing Systems,2013,26:3111-3119.11Mikolov T,Chen K,Corrado G,et al.Efficient estimation of word representations in vector spaceJ.ArXivPrepri

41、nt ArXiv:1301.3781,2013.12Tang J,Qu M,Wang M,et al.Line:Large-scale information network embedding C/Proceedings of the 24thInternational Conference on World Wide Web,2015:1067-1077.13Grover A,Leskovec J.node2vec:Scalable feature learning for networks C/Proceedings of the 22nd ACM SIGKDD Internationa

42、l Conference on Knowledge Discoveryand Data Mining,2016:855-864.14Dong Y,Chawla N V,Swami A.metapath2vec:Scalable representation learning for heterogeneous networksC/Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,2017:135-144.15Wang H,Wang J,Wang J

43、,et al.Graphgan:Graph representation learning with generative adversarial nets C/Proceedings of the AAAI Conference on Artificial Intelligence,2018:2508-2515.puter Applications and Software,2015,32(02):261-263,277.6胡伟.改进的层次K均值聚类算法 J.计算机工程与应用,2013,49(02):157-159.HU Wei.Improved hierarchical K-means c

44、lustering algorithm J.Computer Engineering and Applications,2013,49(02):157-159.7李金涛,艾萍,岳兆新,等.基于K-means聚类算法的改进 J.国外电子测量技术,2017,36(06):9-13,21.LI Jintao,AI Ping,YUE Zhaoxin,et al.Improvement ofclustering algorithm based on K-means J.Foreign Electronic Measurement Technology,2017,36(06):9-13,21.8王勇,唐靖

45、,饶勤菲,等.高效率的K-means最佳聚类数确定算法 J.计算机应用,2014,34(05):1331-1335.WANG Yong,TANG Jing,RAO Qinfei,et al.High efficient K-means algorithm for determining optimal numberof clusters J.Journal of Computer Applications,2014,34(05):1331-1335.9熊开玲,彭俊杰,杨晓飞,等.基于核密度估计的K-means 聚类优化 J.计算机技术与发展,2017,27(02):1-5.XIONG Kail

46、ing,PENG Junjie,YANG Xiaofei,et al.K-means Clustering Optimization Based on Kernel Density EstimationJ.Computer Technology and Development,2017,27(02):1-5.10Jahangoshai Rezaee Mustafa,Eshkevari Milad,SaberiMorteza,et al.GBK-means clustering algorithm:An improvement to the K-means algorithm based on

47、the bargaining game J.Research Gate,2021,213:106672.11Benchara Fatma Zahra,Youssfi Mohamed.A new scalable distributed k-means algorithm based on Cloud micro-services for High-performance computing J.Parallet Computing,2021,101:102736.12王艳娥,梁艳,司海峰,等.基于K-means算法的最佳聚类数研究 J.电子设计工程,2020,28(24):52-56.WANG

48、 Yane,LIANG Yan,SI Haifeng,et al.Researchon the best clustering number based on K-means algorithmJ.Electronic Design Engineering,2020,28(24):52-56.13孟子健,马江洪.一种可选初始聚类中心的改进k均值算法 J.统计与决策,2014(12):12-14.MENG Zijian,MA Jianghong.An improved K-means algorithm with selectable initial clustering centers J.S

49、tatistics and decision,2014(12):12-14.14董秋仙,朱赞生.一种新的选取初始聚类中心的K-means算法 J.统计与决策,2020,36(16):32-35.DONG Qiuxian,ZHU Zansheng,A New K-means Algorithm for Selecting Initial Clustering CenterJ.Statistics and Decision,2020,36(16):32-35.15曹端喜,唐加山,陈香.一种优化初始聚类中心的自适应聚类算法 J.软件导刊,2020,19(07):28-31.CAO Duanxi,TANG Jiashan,CHEN Xiang.An Adaptive Clustering Algorithm by Optimizing Initial Clustering CentersJ.Software Guide,2020,19(07):28-31.(上接第996页)1107

展开阅读全文
收益排行: 01、路***(¥15400+),
02、曲****(¥15300+),
03、wei****016(¥13200+),
04、大***流(¥12600+),
05、Fis****915(¥4200+),
06、h****i(¥4100+),
07、Q**(¥3400+),
08、自******点(¥2400+),
09、h*****x(¥1400+),
10、c****e(¥1100+),
11、be*****ha(¥800+),
12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服