1、2023年11月第6 0 卷第6 期四川大学学报(自然科学版)Journal of Sichuan University(Natural Science Edition)Nov.2023Vol.60No.6基于高斯混合变分自编码器的协同过滤罗彪,周激流,张卫华(四川大学计算机学院,成都6 10 0 6 5)摘要:基于变分自编码器的协同推荐算法可以帮助解决推荐算法中的稀疏性问题,但是由于变分自编码器模型先验是单一的高斯分布,使得表达趋向简单和平均,存在拟合不足的问题。高斯混合变分自编码器模型拥有更加复杂的先验,相对于原本的变分自编码器模型,它对于非线性的任务有着更强的适应性和效果,已被广泛应用于
2、无监督聚类和半监督学习.受此启发,本文研究基于高斯混合变分自编码器模型的协同过滤算法.本文基于Cornac推荐系统比较框架设计实验,将高斯混合变分自编码器改进后用于协同推荐任务中,利用生成模型重新生成的用户-物品矩阵进行推荐.在推理模型和生成模型中分别用一层隐藏层提取深层特征增加模型鲁棒性,并且使用提前停止的训练策略以减少过拟合.本文在多组公开数据集上进行实验,与其他推荐算法在NDCG和召回率指标上进行对比.实验证明,改进的基于高斯混合变分自编码器模型的协同过滤算法在推荐任务中表现优异。关键词:协同过滤;变分自编码器;高斯混合;神经网络中图分类号:TP391.4Gaussian mixture
3、 variational autoencoder for collaborative filtering文献标识码:ADOI:10.19907/j.0490-6756.2023.062002LUO Biao,ZHOU Ji-Liu,ZHANG Wei-Hua(College of Computer Science,Sichuan University,Chengdu 610065,China)Abstract:The collaborative recommendation algorithm based on the Variational Autoencoder(VAE)canhelp s
4、olve the sparsity problem in the recommendation algorithm,but the VAE models prior is a singleGaussian distribution,which makes the expression tends to be simple and average,and suffers from theproblem of underfitting.The Gaussian Mixture Variational Autoencoder(GMVAE)model has a morecomplex prior,w
5、hich is more adaptable and effective for nonlinear tasks compared to the original VAEmodel,and has been widely used for unsupervised clustering and semi-supervised learning.Inspired bythis,this paper investigates a collaborative filtering algorithm based on the GMVAE model.In this pa-per,the authors
6、 design experiments based on the Cornac recommender system comparison framework,and use the improved GMVAE for the collaborative recommendation task,the user-item matrix regener-ated by the generative model is used for recommendation task.Deep features are extracted with one hid-den layer in the inf
7、erence model and one layer in the generation model to increase model robustness,andan early stop strategy is used to reduce overfitting.In this paper,experiments are conducted on multiplepublic datasets to compare with other recommendation algorithms in terms of NDCG and recall metrics.The experimen
8、ts demonstrate that the improved collaborative filtering algorithm based on a GMVAE收稿日期:2 0 2 2-0 4-2 4基金项目:四川省自然科学基金(2 0 2 2 YFQ0047)作者简介:罗彪(19 9 8-),男,四川绵阳人,硕士研究生,主要研究方向为推荐系统.E-mail:17 2 6 48 3 3 56 q q.c o m通讯作者:张卫华.E-mail:z h a n g w e i h u a s c u.e d u.c n062002-1第6 0 卷model performs well in
9、the recommendation task.Keywords:Collaborative filtering;Variational autoencoder;Gaussian mixture;Neural network1 引 言随着互联网的发展,往往有太多无用的几余信息被展示在用户面前,用户在海量的数据信息中寻找真正需要的信息变得越来越困难.在这种情况下,推荐系统变得越来越重要,一个好的推荐算法可帮助用户有效地找到他所需要的部分数据.协同过滤算法是一种被广泛使用的推荐系统算法,协同过滤算法通过用户的历史数据计算用户或物品之间的相似性来进行推荐1。隐性的偏好数据往往可以表达成用户-物品评分
10、矩阵,一些矩阵分解模型被用于协同过滤中,该方法相对简单2.3 1.然而,因为只能捕获数据中的线性模式,这些早期的方法能力大多是有限的,这使得要适应更大的稀疏矩阵成为挑战。许多情况下,在所有可能的用户与物品的互动中,只有不到1%的相互作用实际发生,也就是说用户-物品评分矩阵是一个巨大的稀疏矩阵,这被称为稀疏性问题,是协同过滤的一个重要的限制因素1.41.稀疏性问题不仅给矩阵分解方法带来了麻烦,而且给一些非线性神经网络方法也带来了很大的挑战和困难.这些神经网络方法的复杂性和确定性使其难以处理海量的稀疏数据.变分自编码器(Variational Autoencoder,VAE)模型可以帮助解决稀疏性
11、问题,且已经被应用于协同过滤推荐算法,体现出非常优越的性能5.变分自编码器是一种可通过神经网络构建非线性概率潜在模型的贝叶斯方法,它作为一种非线性神经网络方法,其性能优于矩阵分解等线性方法.与一般的神经网络不同,变分自编码器并不尝试学习特定的数据点,而是学习这些点上的潜在分布,从而让它具有解释潜在空间中的不确定性的能力6。现有文献已报道各种变分自编码器模型及其改进模型7.例如,Liang等人5在生成模型中使用多项似然以及在参数估计方面使用贝叶斯推理,将变分自编码器用于隐性偏好数据的协同推荐.Li等人8 提出了一种考虑内容信息的协同变分自编码器,利用评分信息和内容信息,克服了协同推荐中的稀疏性和
12、冷启动等困难.考虑到用户-物品评分矩阵是一种两路数据,Truong等人9 使用了一个生成模型和两个分别基于用户的和基于物品的四川大学学报(自然科学版)推断模型,提出了双边变分自编码器变分自编码器利用神经网络捕捉数据的潜在特征,假设潜变量服从简单的高斯分布,而后对数据进行重构.在这样的前提假设下,变分自编码器存在的问题之一是使用单一的高斯分布作为模型的先验.这只是一种对大多数问题的折中近似,并没有捕捉数据的完整特征.有研究表明,这个简单的假设将鼓励变分自编码器适应尽可能扩散10 1,这会导致模型对真实分布的拟合不足,更加倾向于一个接近平均的分布。面对这样的情况,将简单单一的高斯分布扩展成为多个高
13、斯的混合分布,就成了一个自然而然的想法.高斯混合变分自编码器(GMVAE)作为变分自编码器的一种变体,已经被广泛应用于半监督学习和无监督聚类中.高斯混合变分自编码器的主要思想是使用多重高斯分布取代传统变分自编码器的单一高斯先验.这种方式可以使得潜变量对于数据潜在分布的捕捉更加复杂,更加接近数据的真实分布,具有更强的学习能力.Kingma 等人11提供了高斯混合变分自编码器的概率模型并证明了生成方法可以有效地进行半监督学习Dilok-thanakul等人12 分析了一种使用混合高斯作为先验分布的变分自编码器,以便使用深度生成模型进行无监督聚类.Rao等人13 提出了一种方法(CURL)来解决一个
14、他们称之为无监督持续学习的问题.CURL使用了一种潜在的混合高斯,这与高斯混合变分自编码器中使用的图模型类似.Collier等人14表明,使用连续松弛法能在保持可接受的聚类质量的同时,大大减少训练时间.张显炀等人15的研究中,利用高斯混合的变分自编码器实现了对海面舰船的轨迹预测,相比于传统的预测算法,取得了更好的预测结果.现在已经有研究将高斯混合变分自编码用于协同过滤中,Charbonneau使用了这一模型应用于Tou.TV和 MovieLens-20M数据集并且测试了他的模型效果16.文献6 中模型在实现多重高斯时使用了多个不同的中间变量,有着更大的模型复杂度.与文献6 不同,本文的模型只有
15、一个中间变量,通过增加了一个网络结构实现了混合高斯,并且对模型进行了性能测试,在经典数据集上取得了优异的效果。062002-2第6 期第6 期罗彪,等:基于高斯混合变分自编码器的协同过滤第6 0 卷2背景知识在一个原始的变分自编码器中,潜变量的先验是一个固定的单一各向同性高斯分布.先验是一种对潜在分布进行的合理假设,它将作为一种潜在结构去影响变分自编码对于数据的学习和重构.如果数据的重新表达中包含单一高斯的先验,将使得表达趋向于简单和分散,对复杂的数据将拟合不足。这就需要选择更加合适的先验代替原先的简单高斯分布,来捕获更多结构层次的数据特征.从这个角度出发,已经有多种变分自编码的变体被发明,使
16、其可以学习更复杂的潜在表征.在本研究中,选择高斯混合变分自编码器,通过假设数据可以被多个混合的高斯生成,可以对多层次的结构化人群分布特点进行建模并且捕获他们的潜在特征.常规变分自编码器以lwN(w,diag(o)作为先验分布,它常常面临拟合塌的问题,使得模型不能充分表达生成数据.将单一高斯变为多重高斯时,首先要面对的问题是:将无法计算Kull-back-Leibler(K L)项,然而这个项是原来模型的学习优化算法中必须的.当变分后验分布遵循混合高斯17 时,变分自编码器中使用的积分6 是不解析的.为了解决这个问题,引人了一种被用在无监督集群任务12 中的方法,如图1所示.在基本的变分自编码器
17、框架下,增加了一个过程来引人不同类别的标签y,分别参与生成模型和变分模型.与无监督或者半监督学习有所不同,无监督或者半监督学习中引人这个分类过程最主要的目的是对数据进行聚类任务,这个变量作为学习的主要目标来输出聚类的类别标签.在模型中,这个分类变量并不作为标签输出而是作为一个新增的潜变量对人群进行建模,通过已知数据学习数据的潜在表达,重构生成数据,最后利用重构生成的数据对用户进行推荐.除了直接对个体和产品上的潜在分布进行变分自编码器学习外,本方法还包括了一个将人群聚集成更加具体的群体的过程.因此,可以将潜在空间划分为不同的类别,用混合高斯先验作为一种更加合适建模数据的结构,这对于推荐任务中的海
18、量用户和物品,以及不同用户的潜在关联有着更好的适应性和拟合能力.这个模型中的推断模型是一个关键的问题,然而这个问题通过多种方法已经解决,并且可以通过标准反向传播进行优化.3基基于高斯混合变分自编码器的协同过滤算法3.1生成模型用uE(l,,U)表示所有用户编号,iE(1,I)表示所有物品编号.矩阵XENUXI表示用户与物品的评分矩阵.在协同推荐任务中,通过生成模型来生成服从原始数据潜在分布的数据,利用生成的数据进行推荐.首先是生成模型p(y,,z)=p(y)p(z)po(l y,z).u=u,cu表示一个用户的用户向量,之表示了用户和物品的关系的潜在变量,表示一个标识属于不同组的用户分布的先验
19、变量.生成模型中描述重新生成的数据X由连续的潜在变量之和潜在的分类变量生成,如下.p(y)=Cat(yl 元),p(z)=N(z10,I),po(ly,z)=f(a;y,z,o).式中,将看成一个额外的潜变量,服从多项分布,通过对原始数据的后验分布 p。(l)来得到,表示每个用户所属的个体组。之是一个潜变量,f(;y,)是一个合适的似然函数,例如伯努利分布或者高斯分布,是一个有关潜变量的非线性变化,表示经过变分自编码器重构后的数据.在实验中是由深度神经网络来表示这个非线性函数的.3.2变分模型在模型中,由于随机变量之间的非线性依赖,对真实的后验分布的处理非常困难,因此,使用qa(y,l)来近似
20、难以处理的真实后验分布(y,).q(y,l)是一个混合高斯后验分布,该分布可以被分解成两个部分,(yl)是一个判别分类器将用户分类成不同的群体,(ly,)是对于某一特定群体的单一高斯后验分布.qe(z/y,)=N(zlg(y;a),diag(og(y;),qe(yl)=Cat(yl 元g(),(2)式中,q(,y)项服从受到和约束的高斯分布;(y;)是一个表示均值的向量;o(y;)是一个表示标准差的向量;q(l)服从一个受到约束的多项式分布;而元。()是一个概率向量.函数(y;),(y;)以及元()用深度神经网络表示.目标是找到一个q满足q(y,zl)=argmingeQKL(q(y,z)Ip
21、(y,|)062002-3(1)(3)第6 0 卷要最小化q(,)和真实分布(,)在K尺度上面的差异.可以通过下面的方式获得变分下界。KL(qe(y,z|)I/p(y,zl)=logp()Leuo=Eg(y.2/a)log如图1所示,将真实后验和估计分解如下.p(,z,y)=po(y)p(z)po(/y,z)最后得到了变分下界:Leuo=Ea,(y.2/a)logpo(l y,z)+logpo(y)+logp(z)-logq,(y,z/)(6)由于实际训练中没有关于y的标签,和King-ma 等人1不同的是本研究将y直接作为一个潜在变量,而不是输出作为一个标签.由此可见,混合高斯的作用主要是增
22、加模型容量,使其适应更复杂的数据,而不是将其用于分类任务.XX图1生成模型(左)和变分模型的概率图(右)Fig.1Probabilistic graphical of the generative model(left)and the variational model(right)本研究使用了和Kingma 等人相同的方法,使用通过蒙特卡罗采样估算损失.可以使用下界来优化和,下界主要部分的梯度如下所示.V(o.g)Ea,(2la)logpe(a y,)=ENel.,D V(o.g)logpo(al g(y;z)+o(y;c)Oe)(7)使用adaGrad优化器优化参数和,通过(0n+1,Pn
23、+1)=(0n,gn)+(go,gg),其中 r(ge,gg)是一个梯度对角矩阵.训练过程如下所示.算法1混合高斯变分自编码器的优化算法While training()doD-getRandomMiniBatch()yiq(y:lc,)V(ai,yilaOziq(zilyi,a)(go.g0)(0,p)(0,g)+r(go.gg)end while四川大学学报(自然科学版)4实验与分析本节开展了在公开的数据集上对GMVAE模型的实验,并分析了模型有效的原因.实验基于Cornacl18,10,,一个用于多模式推荐系统的比较框架.本实验用到的数据集、基线模型和指标都来自P(y,2,)(4)qe(y
24、,之)(5)062002-4第6 期该框架。4.1实验设计4.1.1数据集数据集如表1所示,对于所有的数据集,实验判断是否存在用户和物品的交互,并且将存在交互视为一种正反馈对数值评分数据进行二值化.表1数据集Tab.1DatasetDataset#UsersMovieLens 100 K943MovieLens 1 M6040MovieLens 10 M69878MovieLens 20 M138493Amazon Clothing5377Amazon Office3703Amazon Toy19.412Epinions40163ML-100K,ML-1M,ML-10M 以及 ML-20M是一
25、组大小不同且常在推荐系统领域作为评价标准的数据集,它包含了用户对不同电影的评分,其中,每一个用户至少对2 0 个电影进行评分。Amazon clothing,Amazon office 和 Amazontoy是一组由亚马逊提供的相对稀疏的数据集,包含了用户对物品的评分.另一个数据集epinions也包含了用户对产品的评分数据。4.1.2基线将本模型与两个变分自编码器变体模型和另外两个基于协同过滤的模型进行比较.(1)双边变分自编码器(BiVAECF):Bi V A E(Bilateral Variational Autoencoder)是一个变分自编码器系列模型,它以相似的方式对待用户和物品,
26、并且更适合两路数据.此外,约束自适应先验(Constrained Adaptive Priors,CAP)提高了 Bi-VAE的性能,增强模型的性能优于传统的VAE模型和其他几个类似的滤波模型9。(2)变分自编码器(VAECF):该模型是变分自编码器的扩展.与线性因子模型相比,它有更加优越的模型容量,同时它在一些真实的数据集上的#Items1682370610677267443393652311924139.738#Interactions1000001000209100000542000026313 68953282167597664 824第6 期表现优于不少最先进的基线5.(3)层次化的
27、泊松分解(HPF):H PF(H ie r a r-chicalPoissonFactorization)是一种将用户和商品与两个潜在向量关联起来的概率模型.经证实,HPF的性能优于其他竞争方法,包括MF(M a tr ixFactorization)模型2.(4)广义矩阵分解(GMF):GMF(GeneralizedMatrixFactorization)由矩阵分解模型演变而来,并与神经网络相结合.利用神经网络取代内积的方式,改进了在推荐系统中被广泛使用的矩阵分解方法.与其他基于分解的方法相比,GMF有显著的提升2 0 1。4.1.3评价指标选择了标准化折现累积增益(Normalized D
28、iscounted Cumulative Gain,ND-CG)和召回率作为评价模型的两个标准措施.选择M=50作为top-M推荐.4.1.4实验设置打乱数据集,将其分为训练集、验证集和测试集,分别占8 0%、10%和10%.在保留的验证集上,用NDCG作为基准调整了模型.表示人群类型数量的潜变量的维度和表示用户物品关系的潜变量之的维度分别被设定为10 和ML-100KML-1MMethodndcg Recall ndcg Recall ndcg Recall ndcg Recall ndcg Recall ndcg Recall ndcg Recall ndcg RecallGMVAE0.1
29、760 0.4073 0.1447 0.3058 0.1692 0.3927 0.1644 0.3726 0.0460 0.1479 0.0555 0.1557 0.0477 0.1438 0.0358 0.0727BiVAECF 0.1848 0.4178 0.1506 0.3081 0.1503 0.3399 0.1406 0.3113 0.0722 0.1894 0.0393 0.1294 0.0533 0.1589 0.0463 0.1184VAECFC0.1646 0.3746 0.1390 0.2779 0.1599 0.3576 0.1492 0.3279 0.0471 0.14
30、85 0.0514 0.1436 0.0461 0.1334 0.0380 0.1001HPF0.1775 0.3996 0.1287 0.2442 0.1407 0.3029 0.1260 0.2690 0.0254 0.0848 0.0443 0.1305 0.0205 0.0628 0.0313 0.0792GMF0.1626 0.3664 0.1416 0.2823 0.1528 0.3393 0.1386 0.2954 0.0423 0.1229 0.0379 0.1072 0.0213 0.0620 0.0201 0.0557罗彪,等:基于高斯混合变分自编码器的协同过滤表2 GMV
31、AE和其他基线的比较Tab.2Comparison of GMVAE and baselinesML-10M第6 0 卷100.然而,这些参数的改变对实验结果并没有明显的影响.对于推理和生成模型,分别使用具有一个隐藏层的MLPs,使用整流线性单元(ReLU)函数作为每个隐藏层的激活函数.对于隐藏层,将其宽度设置为2 56,本研究发现使用更深或更宽的隐藏层结构没有让实验结果有明显的改善.在重建损失方面,当使用交叉熵而不是平均平方误差(MSE)时,取得了显著的改善.从(1e-5,l e-)中选择1e-4作为学习率,从(10 0,,500)中选择10 0 作为每轮的步数.对于使用Adam优化,批次大
32、小被设定为12 8.与此同时,本研究还使用了早期停止策略来缓解模型的过度拟合.对于基线模型,使用Cornac中设置的默认参数.4.2实验分析高斯混合变分自编码器与BiVAECF、VA ECF、HPF和GMF进行比较.如表2 所示,模型在某些数据集上表现良好,但在其他数据集上则不然.模型在ML-10M和ML-20M数据集上取得了最好的效果,NDCG和Recall值同时较高,则表明模型有精准的推荐顺序且没有遗漏潜在的推荐物品,但在epinions数据集上则不然.ML-20MClothingOfficeToyEpinions模型在更完整的数据集上表现得更好,这归功于混合高斯先验使得模型有更大的模型容
33、量.混合高斯适用于预先对种群进行不同分类的假设,当用户数据量越来越密集时,这种假设更为合理。当用户数据较少时,由于很难对用户进行更清晰的分类,使得模型性能较弱.为了解释这一现象,本研究绘制了在不同的数据集上训练模型时的损失和NDCG.在相对密集的数据集上,高斯混合变分自编码器的效果良好,而在稀疏的数据集上,它的效果不佳.模型在ML-100K上训练时,性能较早达到峰值,然而随着loss的不断下降性能开始变差,如图2所示.这一迹象表明,模型可能在过于稀疏的数据集上陷入过拟合.然而当模型在ML-20M上进行训练时,随着训练的进行,性能逐渐稳定在一个较高的水平上.如图3 所示,在相对稀疏的数据集ama
34、zon_office和epinions上,模型都受到了过拟合带来的不良影响.然而,可以简单地使用早停策略来获得一个不错的最终结果.与传统的VAE模型相比,本文提出的模型假设人们可以被分配到不同的组中,同一组中用户行为相似.当用户群体规模较大时,这个假设是相对合理的,简单的单一高斯先验并不是一个好的选择.062002-5第6 0 卷80060040020000QSs6260585654-5250480图2GMVAE在 ML-100K(a)和 ML-20M(b)的训练效果Fig.2GMVAE training on ML-100K(a)a n d M L-2 0 M(b)loss120010008
35、0060040020000loss2520-1510510图3GMVAE在 amazon_office(a)和 epinions(b)的训练效果Fig.3GMVAE training on amazon_office(a)and epin-ions(b)四川大学学报(自然科学版)模型的先验假设能适应更大的数据集.对用户进行F0.20(a)ndcg100200训练轮次ndcg100200训练轮次ndcg100200训练轮次ndcg100第6 期从模型的复杂性来看,增加了模型的容量,使分类,使用对应的参数theta 和phi,将原始的单高归一化折损累计增益值斯先验转化为混合高斯先验.在一个相对完整
36、的数0.15据集上,本研究所用方法取得了很好的结果,这说0.10明混合高斯先验于真实场景是有效的,并且在实际应用中可以避免其过拟合时带来的副作用.0.055结 论300400(b)300400(a)300400(b)200300训练轮次5000.2200.2100.2050.2000.1955000.060.05归一化折损累计增益值0.040.030.020.010.005000.0400.035归一化折损累计增益值0.0300.0250.020400500协同推荐任务中的数据具有稀疏性,同时包括海量的物品和用户,而变分自编码器的单一高斯先验导致模型对数据拟合不足使模型趋向于分散和简单,难以适
37、应协同过滤任务中的特征.本文构建了一个用于协同过滤任务的GMVAE模型.与一般VAE相比,该模型是一种对原有模型的自然拓展,通过假设数据可以从多个不同的高斯分布生成,增加潜变量推测数据从其中一个高斯分布生成,学习数据的潜在特征和结构,达到比原模型更好的适应性和拟合效果.相比于初始的变分自编码器模型,增加了潜变量让模型可以学习到更多潜在表达,更复杂的先验使模型具有更大的模型容量。在多个经典的公开数据集上测试本文模型时,在NDCG和Recall指标上取得了不错的效果.实验结果表明,GMVAE算法可以应用于推荐任务中.然而,在稀疏的数据集上进行推荐依然是一项非常具有挑战性的任务,未来的工作可能包括改
38、进GMVAE存在的过拟合问题.参考文献:1Adomavicius G,Tuzhilin A.Toward the next gen-eration of recommender systems:a survey of thestate-of-the-art and possible extensions JJ.IEEE TKnowl Data En,2005,17:734.2Gopalan P,Hofman J M,Blei D M.Scalable rec-ommendation with hierarchical Poisson factorizationCJ/Proceedings of
39、 31 th Conference on Uncer-tainty in Artificial Intelligence.Arlington:AUAI,2015:326.3Koren Y,Bell R,Volinsky C.Matrix factorizationtechniques for recommender systems EB/OL.2023-09-20J.https:/arxiv.org/pdf/1312.6114v10.pdf.4Sarwar B,Karypis G,Konstan J,et al.Item-basedcollaborative filtering recomme
40、ndation algorithmsCJ/Proceedings of the 10th International Confer-062002-6第6 期ence on World Wide Web.New York:ACM,2001:285.5Liang D,Krishnan R G,Hoffman M D,et al.Var-iational autoencoders for collaborative filteringC/Proceedings of the 2018 World Wide WebConference.New York:ACM,2018:689.6Kingma D P
41、,Welling M.Auto-encoding variationalbayes EB/OL.2022-02-01.https:/arxiv.org/pdf/1312.6114 v10.pdf.7Girin L,Leglaive S,Bie X,et al.Dynamical varia-tional autoencoders:a comprehensive review J.Found Trends Mach Learn,2021,15:1.8Li X,She J.Collaborative variational autoencoderfor recommender systems CJ
42、/Proceedings of the23 th ACM SIGKDD International Conference onKnowledge Discovery and Data Mining.New York:ACM,2017:305.9Truong Q T,Salah A,Lauw H W.Bilateral varia-tional autoencoder for collaborative filtering C/Proceedings of the 14th ACM International Confer-ence on Web Search and Data Mining.N
43、ew York:ACM,2021:292.101Mi L,Shen M,Zhang J.A probe towards under-standing gan and vae modelsEB/OL.2022-02-01.https:/arxiv.org/abs/1812.05676.11Kingma D P,Rezende D J,Mohamed S,et al.Semi-supervised learning with dep generative mod-els EB/OL.2022-02-01.https:/arxiv.org/abs/1406.5298v2.12Dilokthanaku
44、l N,Mediano P A M,Garnelo M,etal.Deep unsupervised clustering with gaussian mix-ture variational autoencoders EB/OL.2022-02-罗彪,等:基于高斯混合变分自编码器的协同过滤1909.08994.15张显炀,朱晓宇,林浩申,等。基于高斯混合-变分自编码器的轨迹预测算法J.计算机工程,2 0 2 0,46:50.16Charbonneau K B.Variational autoencoders withGaussian mixture prior for recommender
45、 systemsD.Montral:Ecole De Technologie Superieure,2020.171Hershey J R,Olsen P A.Approximating the kull-back leibler divergence between Gaussian mixturemodels C/Proceedings of the 2007 IEEE Interna-tional Conference on Acoustics,Speech and SignalProcessing-ICASSP07.Piscataway:IEEE,2007.18 Salah A,Tru
46、ong Q T,Lauw H W.Cornac:a com-parative framework for multimodal recommendersystems JJ.J Mach Learn Res,2020,21:3803.19 Truong Q T,Salah A,Tran T B,et al.Exploringcross-modality utilization in recommender systemsJJ.IEEE Internet Comput,2021,25:50.20He X,Liao L,Zhang H,et al.Neural collaborativefilter
47、ing C/Proceedings of the 26th internationalConference on World Wide Web.New York:ACM,2017:173.第6 0 卷01.https:/ 1Rao D,Visin F,Rusu A,et al.Continual unsuper-vised representation learning EB/OL.2022-02-01.https:/arxiv.org/pdf/1611.02648.pdf.14Collier M,Urdiales H.Scalable deep unsupervisedclustering with concrete GMVAEs EB/OL.2022-02-01.https:/arxiv.labs.arxiv.org/html/引用本文格式:中文:罗彪,周激流,张卫华。基于高斯混合变分自编码器的协同过滤JJ.四川大学学报:自然科学版,2 0 2 3,6 0:062002.英文:Luo B,Zhou J L,Zhang W H.Gaussian mixture variational autoencoder for collaborative filtering JJ.J Si-chuan Univ:Nat Sci Ed,2023,60:062002.062002-7