收藏 分销(赏)

基于视觉特征与对抗学习的大五人格评估方法_冯宇.pdf

上传人:自信****多点 文档编号:290949 上传时间:2023-07-08 格式:PDF 页数:7 大小:1.19MB
下载 相关 举报
基于视觉特征与对抗学习的大五人格评估方法_冯宇.pdf_第1页
第1页 / 共7页
基于视觉特征与对抗学习的大五人格评估方法_冯宇.pdf_第2页
第2页 / 共7页
基于视觉特征与对抗学习的大五人格评估方法_冯宇.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 51 卷收稿日期:2022年8月3日,修回日期:2022年9月5日基金项目:国家自然科学基金项目(编号:72188101);安徽省自然科学基金面上项目(编号:2108085MH303)资助。作者简介:冯宇,男,硕士,研究方向:视线估计,情感计算。孙晓,男,博士,教授,研究方向:计算机视觉,情感计算。杨飞,男,博士,副教授,研究方向:数据挖掘,移动医疗。邵磊,男,研究员,研究方向:微表情,犯罪心理。汪萌,男,博士,教授,研究方向:多媒体信息处理,模式识别。基于视觉特征与对抗学习的大五人格评估方法冯宇1孙晓2,3杨飞1邵磊4汪萌1,2(1.安徽医科大学生物医学工程学院合肥230009)(2.合

2、肥综合性国家科学中心人工智能研究院合肥230088)(3.合肥工业大学计算机与信息学院合肥230009)(4.陕西警官职业学院西安710021)摘要由于传统的依托于人格量表的大五人格评估方法效率极低,而现有的基于多模态的人格评估方法在实用中很难满足多通道的高质量输入需求。针对这种情况,提出了一种基于纯粹的视觉特征的人格评估方法,并与对抗学习相结合,通过一个人日常生活中的视频,获取其大五人格的定量评估。首先,通过对视频图片帧进行建模,并结合对抗学习的思想,使特征提取器尽力提取与性别无关,而与人格有关的特征。其次,利用多粗细粒度损失结构的注视估计模型,获取人物注视分布及其视线序列特征,最后对提取的

3、所有视觉特征进行融合,并对其大五人格进行预测。实验结果表明,该方法的平均预测精度为91.96%,在ECCV 2016年人格挑战数据集中名列前茅,并且超过了此前所有的基于视觉特征的大五人格评估方法。关键词大五人格;对抗学习;视线估计;多级特征融合中图分类号TP391DOI:10.3969/j.issn.1672-9722.2023.03.014Big Five Personality Assessment Method Based on Visual Featuresand Adversarial LearningFENG Yu1SUN Xiao2,3YANG Fei1SHAO Lei4WANG

4、 Meng1,2(1.School of Biomedical Engineering,Anhui Medical University,Heifei230009)(2.Institute of Artificial Intelligence,Hefei Comprehensive National Science Center,Heifei230088)(3.School of Computer Science and Information Engineering,Hefei University of Technology,Heifei230009)(4.Shaanxi Police C

5、ollege,Xian710021)AbstractDue to the low efficiency of the traditional big five personality assessment method based on personality scale,theexisting personality assessment method based on multimodality is difficult to meet the demand of multi-channel high-quality inputin practice.In view of this sit

6、uation,a personality assessment method based on pure visual features is proposed,which is combinedwith adversarial learning to obtain the quantitative assessment of a persons major five personality through the video in his daily life.First,by modeling video frames and combining the idea of adversari

7、al learning,the feature extractor tries its best to extract featuresthat are not related to gender but related to personality.Secondly,the gaze estimation model with multi coarse and fine grain lossstructure is used to obtain the gaze distribution and gaze sequence features of the characters.Finally

8、,all the extracted visual features are fused and their major five personalities are predicted.The experimental results show that the average prediction accuracy ofthis method is 91.96%,which is among the best in the ECCV personality challenge data set in 2016,and exceeds all previous bigfive persona

9、lity assessment methods based on visual features.Key Wordsbig five personality,confrontation learning,gaze estimation,multi-feature fusionClass NumberTP3911引言人格是指个体在对人、对事、对己等方面的社会适应中行为上的内部倾向性和心理特征的总和,其描述的是一种稳定的心理状态,而非情绪那般在短时间内可不断变化。而对人格的研究,其应用领总第 401 期2023 年第 3 期计算机与数字工程Computer&Digital EngineeringV

10、ol.51 No.36122023 年第 3 期计算机与数字工程域非常广泛,在个人就业以及人力资源领域,人格测试可以帮助我们认清自己的真实人格特点,以选择最适合自己的岗位进行就业,而从企业单位的方面,对求职者的人格测试也有助于确定求职者的人格是否能够胜任相应的职位。而学术界在人格描述模式上,形成了比较一致的共识,即人格的大五模式12,大五人格模型(BFPM)提供了一个更普遍的人格模型,由于其统一的测试,它被广泛应用于临床和健康心理学的研究中。NEO-PI-R3为BFPM提供了一个统一的评估,并包含了100多个问题。而通过这种问卷的方法去评估大五人格,将耗费极大的人力和物力资源,因此希望提出一种

11、更快捷的,基于纯粹的视觉特征的人格评估方法。本文提出了以下贡献:1)将TimeSformer4首次应用在人格预测特征提取领域,并提出了一种基于对抗学习的提取与性别特征无关的方法,以减轻性别因素对于特征提取器提取的特征有效性造成的干扰。2)提出了一种多粗细粒度损失结构的网络框架,以对视线注视方向进行估计,进一步得到注视分布以及视线序列特征,这在人格评估中也发挥了重要作用。2相关工作2.1面部特征在过去的自动人格评估研究中,面部特征和人格评估的相关性已经得到充分证明。Donald F等5通过对面部结构和线索进行分析推断出了部分人格特质,孙晓等6通过对面部非兴趣区域的模型通道剪枝成功预测了大五人格分

12、值,并在基于视觉特征上的方法上取得了0.9165的平均精度,S.Aslan7等通过注意力机制以及误差一致性约束将图像与其他模态的特征融合并加权得到最佳特征组合,获得了0.9172的大五人格平均预测精度。2.2视线估计及眼动相关特征近些年的许多实验研究表明,从视线估计以及眼动追踪数据中可以自动推断出个性特征信息。例如,Sabrina Hoppe等8利用眼动仪采集大学生日常校园生活中的眼动数据,随后使用完善的调查问卷评估了他们的人格特质,使用随机森林训练人格分类器,并可靠地预测了大五人格中的四个,但受制于样本规模太小,而导致无法选用更高级可靠的预测分类模型;Lepri等9利用在小组会议中记录众人的

13、行为,并与视线注意力结合,建立了外向性人格预测模型。John F等10的研究也表明了凝视行为拥有着可以与人格特质联系起来的个体差异,特别是神经质性、外倾性、开放性与眼球运动的参数有着密切关系。2.3我们的工作考虑到自动人格评估的复杂性,需要一种有效的方法通过从视频中挖掘更多的有用信息来提高模型的性能。除了原始的图片帧外,本文单独对面部部分进一步地提取特征,并使用基于TranSformer11的视频理解框架TimeSformer4,对视频应用分开的时空注意力机制来提取其时空特征,此外提出了一种基于对抗学习12的提取性别特征无关的方法,对特征提取器进一步加以约束,以减轻性别因素对于特征提取器提取的

14、特征有效性造成的干扰。除了上述传统的面部特征外,视线估计与眼动也是人格评估的一种重要特征,但此前眼动仪信息采集的低效率限制了视线估计的应用,对此本文提出了一种多粗细粒度损失结构的网络框架,以对视线注视方向进行估计,进一步得到注视分布以及视线序列特征。然后,将这两种人格模型融合,得到了一种高效率、高准确率的基于纯粹视觉特征的大五人格预测模型。3视线特征提取模块3.1多粗细粒度损失结构的注视估计模型心理学界已有大量研究证实了人格和眼睛行为之间存在联系1314。然而,由于眼动仪的高成本,使用眼动仪获取大量人格数据集的代价巨大。本文采用基于深度学习的视线估计方法,来获得被试者相对于相机坐标系的视线注视

15、方向,由此进一步得到注视分布热力图以及视线的序列特征。本文使用视线估计公共数据集MPIIFaceGaze 15 来训练注视方向估计的模型,这是注视估计领域的权威数据集之一,数据集中有15位志愿者,每位志愿者3000份样本,每份样本皆包括图片以及注视方向的标签等信息。基于该数据集,本文提出了一种多级粗细粒度损失结构的网络框架,以对视线注视方向进行预测,模型中的Backbone采用resnet50,每张输入图像经过 Backbone得到提取出的特征,并分别连接不同FC层,每个FC层拥有不同的分类尺度,分别计算自己的交叉熵损失,FC层将输入特征映射到不同粗细粒度的角度区间后,通过 Softmax 得

16、到归一化特征,并分两支,一方面计算MSELoss,另一方面计算交叉熵损失,而后求和,得到最终的损失。视线注视方向估计模型的结构图如图1所示。613第 51 卷BackboneNetwork281463FCFCFCFCSoftmaxSoftmaxSoftmaxSoftmaxExpectationCE LossCE LossCE LossCE LossYaw/PitchMSELossTotal Yaw/PitchError图1多粗细粒度损失结构的视线注视估计模型这里的多粗细分类结构可以看作是一种参数共享,每个分支都是相关的分类任务,这种结构有助于减少过拟合的风险,此外在粗细分类网络上还可以避免出现

17、极端情况下的错误概率,使预测结果更加稳定,这种粗细粒度的分类网络可以很容易地添加到以前的框架中,在不需要额外计算资源的情况下提高性能,每个角度的最终损失计算公式如式(1)所示:Loss=*MSE(y,y*)+i=1num*H(yi,yi*)(1)式中,为回归系数,y为视线注视角的真实值,y*为注视角的模型预测值,Loss为综合损失。3.2注视分布热力图与注视序列特征采用上述模型获取视频每一帧图像的注视方向后,进一步得到体现视线空间统计特征的注视分布热力图,为了使视线分布热力图在人格预测模型的输入中遵循一致的分布,在距离视频中的人物1m远的平面上确定一组点的注视分布,结合视线估计模型输出的两个视

18、线注视角Pitch、Yaw,计算出视线在此平面上的注视点坐标,并使用注视点坐标附近的80邻域填充,以确保获得224*224的非稀疏矩阵。视线的注视分布热力图体现了视频的总体空间统计特征,但对视频来说,其时域特征同样重要,为了抽象出有效的时间维度信息,本文选取了视线注视俯仰角 Pitch、偏转角 Yaw、头部姿态俯仰角Pitch、偏转角Yaw以及翻滚角Roll,加上头部中心点在画面的坐标位置信息,对每一帧图像皆提取这7维特征作为视线时域模型的输入。图2(a)为80邻域填充示意图,图2(b)、(c)展示了体现注视空间分布特征的注视分布热力图,图2(d)为体现时域特征的视线序列结构特征图。(a)(b

19、)(c)注视俯仰角Pitch注视偏转角Yaw头视偏转角Yaw头视俯仰角Pitch头视翻滚角Roll头视中心坐标X头视中心坐标Y共459帧注视俯仰角Pitch注视偏转角Yaw头视偏转角Yaw头视俯仰角Pitch头视翻滚角Roll头视中心坐标X头视中心坐标Y(d)图2注视分布热力图与注视序列特征示意图4结合对抗学习的性别无关人脸模块由于面部特征的性别二态性,以及某些人格特征(特别是外向性)1617对不同性别的表现差异很大,大五人格的面部预测模型应该针对男性和女性的面孔分别进行训练和验证,而事实上,此前的众多大五人格预测模型中,少有特别考虑到性别对人格预测结果的影响,我们猜测,这是因为针对性别的特别

20、训练和验证将会导致训练集样本量剧减,这对于本就难以大量获得的人格评估样本来说,显得难以接受,但也导致那些在特征空间中相差不大的特征,伴随着性别的差异,对大五人格模型预测的结果也会产生负面的影响。在这种情况下,受郑壮强等18通过引入个体身份判别器进而提取与身份无关的面部特征的原理启发,我们设计并提出了性别判别器,通过特征提取器与性别判别器之间的对抗训练,使特征提取器可以提取与性别无关的面部特征表示。其结构分为特征提取器F,性别判别器GD和人格预测器P三个部分,F从输入图像中提取面部特征,GD本质是个性别分类器,通过F和GD之间的对抗训练以及F和P之间的联合训练,提取性别无关的面部特征。以下用T=

21、x,yN表示N个训练样本,其中x表示输入图像,y=y1,y2,y3,y4,y5冯宇等:基于视觉特征与对抗学习的大五人格评估方法6142023 年第 3 期计算机与数字工程表示真实的标签,s0,1表示性别的类别,P*(s|F(x)是模型定义的给定特征F(x)下s的分布,P(s)是s的边缘分布。TimeSformerTimeSformerFCFCFCFC性别Softmax性别判别器GD人格预测器PPersonalityVideo特征提取器F图3基于TimeSformer和对抗学习的大五人格预测模型4.1特征提取器在综合了训练开销以及性能之后,本文选择了TimeSformer作为特征提取器,相比于3

22、D卷积神经网络,其训练速度快,推理时间大幅度缩短。每个视频均采用稀疏随机采样8帧作为视频理解模型的输入,且考虑到人脸部分对人格预测的重要性,使用Arcsoft的人脸检测模块单独截取面部图片,并同样采样8帧作为并行的模型输入。4.2性别判别器性别判别器GD在模型中起到优化特征提取的作用,它的本质是一个性别分类器,当性别分类器的分类结果与全部个体的性别边缘分布一致时,可以认为当前面部特征表示与性别标签无明显相关性。优化特征提取器F的参数时,需要固定性别判别器GD,尽可能减小提取的面部特征与性别标签之间的相关性,即最小化P(s)和P*(s|F(x)之间的差异,由于P(s)无法直接得到,可以使用训练集

23、中性别的经验分布PE(x)来代替P(s),因此可以得到特征提取器的交叉熵损失如下式,si指第i个样本的性别标签。LossF=-1Ni=1Nk=1CPE(s=k)logP*(si=k|F(xi)(2)优化性别判别器GD的参数时,需要固定特征提取器F的参数,并希望GD可以尽可能发现提取的特征与性别标签之间的相关性,即最小化P*(s|F(x)和P(s|F(x)之间的差异,其中P(s|F(x)是给定特征F(x)的条件下个体性别标签的one-hot类型的分布。由此可以得到性别判别器的损失:LossD=-1Ni=1Nk=1CP(si=k)logP(si=k|F(xi)(3)4.3联合训练过程在获得了特征提

24、取器提取的面部特征后,利用由两个线性层组成的人格预测器进行大五人格回归任务,并使用均方差损失计算得到人格回归任务的损失LossP,再与特征提取器的损失,即式(2)所示LossF合并为L=LossP+LossF,而性别判别器的损失即式(3)所示LossD,使用小批次的随机梯度下降更新网络权重,通过整个网络的交替训练,使特征提取器逐步获得提取与性别无关的面部特征表示的能力。4.4融合模型最终的大五人格预测模型结构如图4所示,人脸预测模块与视线预测模块得到的特征进行拼接,从而预测得到最终的大五人格分值。VideoPersonalitydim1 dim2dim7dim1 dim2dim7Gaze gr

25、aphModelGaze sequenceModelFaceModel图4多通道的大五人格预测模型5实验5.1数据集与评价指标本文使用ECCV ChaLearn LAP 2016 比赛数据集,这是自动人格评估领域最为重要的权威数据集,其中有10000个标注了大五人格标签的视频,615第 51 卷8000个视频作为训练集和验证集,剩余2000个视频作为测试集,每个视频大约有15s的长度。每个视频的标签由5个范围在 0,1 的连续值组成,分别对应大五人格的五种特质,而对人格预测任务的评估,则需要计算所有特质的平均预测精度,每种特质的预测精度定义如下:A=1-1Nti=1Nt|ti-pii=1Nt|

26、ti-t(4)其中,pi是每种特质的预测分值,ti是每种特质的真实分值,t 是所有所有视频数据集每种特质的平均预测分值,Nt为视频数据集的总数。图5人格视频数据集中的一些图片帧5.2人脸模块对比实验为验证对抗学习模块的有效性,探究了不同的特征提取模块在每一次迭代中,对大五人格评估任务的预测精度影响,分别使用TSM19,TimeSformer以及包含对抗学习模块的TimeSformer-GD进行比较。结果如图6所示。0.9200.9150.9100.9050.9000.8950.8900.8850.880Mean Accuracy0102030405060TSMTimeSformerTimeSf

27、ormer-GD图6不同特征提取器的平均准确率可以发现,相比TSM,TimeSformer取得了更好的结果,且模型收敛速度也有所提升,而包含对抗学习模块的 TimeSformer-GD 虽然起始准确率略低,但随着迭代次数的增加,准确率逐渐超过TimeSformer,这表明随着迭代次数的增加,对抗学习模块开始在人格评估任务的特征提取工作中起到正向的作用。而对于人格预测器和特征提取器的联合损失中超参数的取值,取值为0.5时,人脸模块得到最佳的预测精度。如表1中人脸模块实验结果所示。表1各个模块分别使用不同的模型的结果特征FaceGaze GraphGaze Sequence方法TSMTimeSfo

28、rmerTimeSformer-GD(=0.1)TimeSformer-GD(=0.5)TimeSformer-GD(=1)ResNetVGG-16DenseNetLSTMBiLSTM平均精度0.91520.91650.91730.91920.91790.89470.89260.89150.89520.89505.3消融实验如表1实验结果所示,对于视线模块的注视分布特征和视线序列特征,使用ResNet和LSTM的模型取得了最佳的效果,而在表2的实验结果中,可以注意到人脸模块在整个模型中也发挥了重要作用,最终本文的融合模型的平均预测精度超越了以往所有的基于视觉特征的大五人格模型。表2使用不同组合

29、模型的平均预测精度使用特征FaceGaze graphGaze sequenceGaze graph+Gaze sequenceFaze+Gaze graph+Gaze sequence平均精度0.91920.89470.89520.89690.91965.4不同方法性能的比较最后,如表3所示,将本文基于视觉特征的融合模型与现有模型进行了比较。表3不同模型的平均预测精度对比方法Our ModelOur ModelWithout GDDBR20LSTM213D-convDNN+RNN22Aslan7X Sun.6X Sun(Visual feat)平均精度Mean0.91960.91670.91

30、300.91330.91250.91210.91720.92070.9165Op0.91870.91520.91230.91310.91230.91170.91560.9201-Ag0.92250.92180.91260.91570.91610.91580.91530.9236-Con0.92110.91980.91660.91360.90830.91330.92160.9218-Neu0.91490.91020.91000.90980.90990.90910.91380.9163-Ex0.92080.91650.91330.91450.91570.91100.91990.9215-由于对视觉

31、特征充分的应用,以及缓解了面部冯宇等:基于视觉特征与对抗学习的大五人格评估方法6162023 年第 3 期计算机与数字工程特征的性别二态性,本文的方法超越了以往所有基于视觉特征的模型,仅次于孙晓等22多模态的融合模型,平均精度为0.9196,比当前最高的基于视觉特征的模型高0.3%。6结语对于传统的基于人格量表的人格评估方法的低效率问题,以及现有的多模态的深度学习人格评估方法对高质量的多模态输入的获取难度大的问题,本文提出的基于纯粹的视觉特征的人格评估方法,有效地解决了这些问题。最后,总结本文以下两项主要贡献。首先,将TimeSformer首次应用在人格预测特征提取领域,并提出了一种基于对抗学

32、习的提取性别特征无关的方法,以减轻性别因素对于特征提取器提取的特征有效性造成的干扰。其次,提出了一种多粗细粒度损失结构的网络框架,以对视线注视方向进行估计,进一步得到注视分布以及视线序列特征,这在人格评估中也发挥了重要作用。未来计划将基于对抗学习来优化特征提取器的思想应用在更多的领域,此外可以进一步地挖掘视线在人格评估领域中的深层次作用,以获得更好的大五人格预测结果。参 考 文 献1McCrae R R,John O P.An introduction to the five-factormodel and its applicationsJ.Journal of Personality,19

33、92,60(2):175-215.2Costa Jr P T,McCrae R R.Four ways five factors are basicJ.Personality and Individual Differences,1992,13(6):653-665.3Costa Jr P T,McCrae R R.The Revised Neo PersonalityInventory(neo-pi-r)M.Sage Publications,Inc,2008.4Bertasius G,Wang H,Torresani L.Is space-time attention all you ne

34、ed for video understanding?C/ICML.2021,2(3):4.5Sacco D F,Brown M.The face of personality:Adaptive inferences from facial cues are moderated by perceiver personality and motives J.Social and Personality Psychology Compass,2018,12(8):e12410.6Sun X,Huang J,Zheng S,et al.Personality AssessmentBased on M

35、ultimodal Attention Network Learning WithCategory-Based Mean Square ErrorJ.IEEE Transactions on Image Processing,2022,31:2162-2174.7Aslan S,Gdkbay U,Dibekliolu H.Multimodal assessment of apparent personality using feature attention and error consistency constraint J.Image and Vision Computing,2021,1

36、10:104163.8Hoppe S,Loetscher T,Morey S,et al.Recognition of curiosity using eye movement analysis C/Adjunct Proceedings of the 2015 Acm International Joint Conference onPervasive and Ubiquitous Computing and Proceedings ofthe 2015 Acm International Symposium on Wearable Computers,2015:185-188.9Lepri

37、 B,Subramanian R,Kalimeri K,et al.Employingsocial gaze and speaking activity for automatic determination of the extraversion trait C/International Conferenceon Multimodal Interfaces and the Workshop on MachineLearning for Multimodal Interaction,2010:1-8.10Rauthmann J F,Seubert C T,Sachse P,et al.Eye

38、s aswindows to the soul:Gazing behavior is related to personalityJ.Journal of Research in Personality,2012,46(2):147-156.11Vaswani A,Shazeer N,Parmar N,et al.Attention is allyou need J.Advances in Neural Information ProcessingSystems,2017.12Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adver

39、sarial nets J.Advances in Neural InformationProcessing Systems,2014.13Kaspar K,Knig P.Overt attention and context factors:The impact of repeated presentations,image type,andindividual motivationJ.PloS One,2011,6(7):e21719.14Wilbers A K,Vennekoetter A,Koster M,et al.Personality traits and eye movemen

40、ts:an eye-tracking and pupillometry studyC/Proceedings of the European Conference on Eye Movements,2015,269.15Zhang X,Sugano Y,Fritz M,et al.Mpiigaze:Real-world dataset and deep appearance-based gaze estimationJ.IEEE Transactions on Pattern Analysis andMachine Intelligence,2017,41(1):162-175.16Brown

41、 M,Sacco D F.Unrestricted sociosexuality predicts preferences for extraverted male faces J.Personality and Individual Differences,2017,108:123-127.17Lukaszewski A W,Roney J R.The origins of extraversion:Joint effects of facultative calibration and geneticpolymorphism J.Personality and Social Psychol

42、ogy Bulletin,2011,37(3):409-421.18郑壮强,姜其胜,王上飞.多任务学习和对抗学习结合的自发与非自发表情识别 J.中国图象图形学报,2020,25(11):2370-2379.ZHENG Z Q,JIANG Q S,WANG S F.Posed and spontaneous expression distinction through multi-task and adversarial learningJ.Journal of Image and Graphics,(下转第685页)6172023 年第 3 期计算机与数字工程ceedings of the 7

43、th ACM Conference on RecommenderSystems.ACM,2013:165-172.6Diao Q M,Qiu M H,Wu C Y,et al.Jointly modeling aspects,ratings and sentiments for movie recommendation(JMARS)C/Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and datamining.ACM,2014:193-202.7Hu G N,Dai X Y,

44、Song Y,et al.A synthetic approachfor recommendation:Combining ratings,social relations,and reviewsC/Proceedings of the 24th InternationalJointConferenceonArtificialIntelligence,2015:1756-1762.8Bao Y,Fang H,Zhang J.Topicmf:Simultaneously exploiting ratings and reviews for recommendation C/Proceedings

45、 of 28th AAAI Conference on Artificial Intelligence,2014.9Zheng L,Noroozi V,Yu P S.Joint deep modeling of usersand items using reviews for recommendation C/Proceedings of the 10th ACM International Conference on WebSearch and Data Mining.Cambridge,UK,2017:425-434.10Rendle S.Factorization machinesC/P

46、roceedings ofthe 10th IEEE International Conference on Data Mining.Sydney:IEEE Computer Society,2010:995-1000.11Catherine R,Cohen W.TransNets:Learning to transform for recommendationC/Proceedings of the 11thACM Conference on Recommender Systems.New York:ACM,2017:288-296.12 Wang Q Q,Li S,Chen G.Word-

47、driven and context-aware review modeling for recommendation C/Proceedings of the 27th ACM International Conference on InformationandKnowledgeManagement.NewYork:ACM,2018:1859-1862.13Kim D,Park C,Oh J,et al.Convolutional matrix factorization for document context-aware recommendation C/Proceedings of t

48、he 10th ACM Conference on Recommender Systems.ACM,2016:233-240.14Chin J Y,Zhao K,Joty S,et al.ANR:Aspect-basedNeural RecommenderC/the 27th ACM InternationalConference.ACM,2018.15Wu L,Quan C,Li C,et al.A context-aware user-itemrepresentation learning for item recommendationJ.ACM Transactions on Infor

49、mation Systems(TOIS),2019,37(2):1-29.16Seo S,Huang J,Yang H,et al.Interpretable Convolutional Neural Networks with Dual Local and Global Attention for Review Rating Prediction C/the Eleventh ACMConference.ACM,2017:297-305.17Xia C,Jiang X,Liu S,et al.Dynamic item-based recommendation algorithm with t

50、ime decay C/Sixth International Conference on Natural Computation.IEEE,2010.18Li X,Xu G,Chen E,et al.Learning user preferencesacross multiple aspects for merchant recommendationC/Proceedings of the 2015 IEEE International Conference on Data Mining(ICDM),2015:865-870.19Wang H,Wang N,Yeung D Y.Collabo

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服