收藏 分销(赏)

融合双通道语义特征的情感分析研究.pdf

上传人:自信****多点 文档编号:722390 上传时间:2024-02-23 格式:PDF 页数:6 大小:1.52MB
下载 相关 举报
融合双通道语义特征的情感分析研究.pdf_第1页
第1页 / 共6页
融合双通道语义特征的情感分析研究.pdf_第2页
第2页 / 共6页
融合双通道语义特征的情感分析研究.pdf_第3页
第3页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 22卷 第 9期2023年 9月Vol.22 No.9Sept.2023软 件 导 刊Software Guide融合双通道语义特征的情感分析研究刘司摇,周艳玲,兰正寅,张龑,曾张帆(湖北大学 计算机与信息工程学院,湖北 武汉 430062)摘要:现有大多数深度学习模型结构单一,通常会降低文本语义特征提取能力。为此,提出一种融合双通道语义特征(FDSF)的情感分析研究模型。首先,采用BERT预训练语言模型获取文本的动态特征向量表示。然后,将BiGRU-Attention通道提取的全局语义信息经注意力动态权重调整后,与CNN通道提取的局部语义信息进行特征向量融合。最后,将融合特征经过全连接层

2、与Softmax函数,输出最终情感极性。在ChineseNLPcorpus的online_shopping_10_cats、中科院谭松波学者整理的数据集上与现有主流情感分析方法进行比较实验,结果表明,FDSF模型在F1值与准确率方面均最优,证明了该模型在情感分析任务中的有效性和可行性。关键词:情感分析;深度学习;双向门循环控制单元;语义向量;双通道DOI:10.11907/rjdk.222108开 放 科 学(资 源 服 务)标 识 码(OSID):中图分类号:TP391 文献标识码:A文章编号:1672-7800(2023)009-0073-06Research on Sentiment A

3、nalysis Fused with Dual Channel Semantic FeaturesLIU Siyao,ZHOU Yanling,LAN Zhengyin,ZHANG Yan,ZENG Zhangfan(School of Computer Science and Information Engineering,Hubei University,Wuhan 430062,China)Abstract:Most existing deep learning models have a single structure,which usually reduces the abilit

4、y to extract text semantic features.To this end,a sentiment analysis research model integrating dual channel semantic features(FDSF)is proposed.Firstly,the BERT pre trained language model is used to obtain the dynamic feature vector representation of the text.Then,the global semantic information ext

5、racted by the BiGRU Attention channel is adjusted by attention dynamic weights,and fused with the local semantic information extracted by the CNN channel for feature vectors.Finally,the fused features are processed through a fully connected layer and Softmax function to output the final emotional po

6、larity.Experiment on online_shopping_10_cats of ChineseNLPcorpus,and dataset compiled by scholars Tan Songbo from the Chinese Academy of Sciences,compared with existing mainstream sentiment analysis methods,the FDSF model has the best F1 value and accuracy,proving its effectiveness and feasibility i

7、n sentiment analysis tasks.Key Words:sentiment analysis;deep learning;bi-directional gated recurrent unit;semantic vector;dual channel0 引言随着互联网高速发展与通信设备普及,各式各样的社交媒体平台通过网络被推送到生活中,越来越多的用户通过微博、淘宝等应用软件发表对新闻、产品的态度和评价1。情感分析的目的是从具有主观性的文本中提取用户情感,属于自然语言处理的基本任务之一2。通过情感分析这些评论文本数据,可获取用户对商品的评价或网民对社会新闻的态度,从而精准把握用

8、户需求,调节产品市场方向;引导社会舆论向积极方向发展,避免负面事件进一步发酵。因此,通过情感分析网络交互信息中的用户观点与情绪极具商业价值和社会意义,如何在海量数据中挖掘有效信息,利用深度学习方法更好地捕捉深层次文本语义特征便具有十分重要的研究价值3。目前,文本情感分析方法主要分为:基于情感词典收稿日期:2022-09-22基金项目:国家自然科学基金项目(61977021);湖北省自然科学基金项目(2021CFB503)作者简介:刘司摇(1998-),女,湖北大学计算机与信息工程学院硕士研究生,研究方向为自然语言处理;周艳玲(1981-),女,博士,湖北大学计算机与信息工程学院副教授、硕士生导

9、师,研究方向为自然语言处理、信号分析;兰正寅(1998-),男,湖北大学计算机与信息工程学院硕士研究生,研究方向为自然语言处理;张龑(1974-),男,博士,湖北大学计算机与信息工程学院教授、硕士生导师,研究方向为自然语言处理、网络安全;曾张帆(1983-),男,博士,湖北大学计算机与信息工程学院教授、硕士生导师,研究方向为人工智能、云计算。本文通讯作者:周艳玲。2023 年软 件 导 刊的情感分析方法4,但情感词通常具有滞后性,因此通用性不足且耗时耗力;基于传统机器学习的情感分析方法5,该方法通过机器学习相关技术提取文本中的情感特征,建立训练模型后预测文本情感,但对特征提取质量的依赖性较大,

10、难以达到满意的效果;基于深度学习的情感分析方法6,该方法通过模拟人脑结构,借助多层神经元自动提取、更新、优化特征,从而提升情感分析的准确度,现已取得了较好的性能7-9,但如何利用深度学习方法抽取更深层次的文本语义特征仍然亟待解决。本文为了提升中文文本情感分类效果,利用各模型优势捕捉多维度语义信息,增强文本向量表征能力,提出一种融合双通道语义特征(Fused on Dual Channel Semantic Features,FDSF)的情感分析模型。首先,将BERT作为词嵌入层以获取文本词向量矩阵表示,将其输入BiGRU来提取全局文本序列特征,并引入注意力机制分配特征向量权重;然后利用CNN提

11、取文本矩阵多个粒度下的局部特征,并将 BiGRU-Attention 与 CNN 输出特征信息进行向量融合;最后由全连接层Softmax分类器输出文本的情感倾向。1 相关工作文本向量化是情感分析研究的关键环节,通过神经网络对文本构建词向量矩阵,让机器理解文本语义,对情感极性的判断具有重要的研究意义。常用的词向量表示方法包括 One-hot 编码10、Word2vec11、BERT、Glove12等。其中,Glove词嵌入模型同时考虑了文本的局部和整体语义信息,结合了LSA与Word2vec的优点,提升了模型训练速度和分类准确度,但构建的静态词向量仍然无法解决相同文字在不同语句中的一词多义问题。

12、为此,Google提出采用双向Transformer编码器的语言表示模型 BERT(Bidirectional Encoder Representations from Trans-formers)。Devlin 等13通过 BERT 模型预训练的文本数据在 11个自然语言处理任务上获得了较好的效果。王宇晗等14提出一种基于BERT的嵌入式主题模型,在主题多样性、建模时的一词多义等问题上表现优越,在大规模文本中能提取高质量、细粒度的主题词。Karimi等15提出一种基于BERT对抗性训练的新模型,利用对抗性训练完成情感分析中的特征提取、特征情感分类两个主要任务,研究表明在这两个任务中该方法相较

13、于传统方法效果更优。此外,Pang 等16基于 Transformer 双向编码表示(BERT),通过构造一个方面特征定位模型提出了一种有效的方面级情感分析方法。随着情感分析研究深入,基于神经网络的深度学习模型受到了众多学者青睐,已广泛应用于自然语言处理领域中。常见的神经网络技术包括卷积神经网络(Convolutional Neural Network,CNN)17、循环神经网络(Recurrent Neural Network,RNN)18、门控循环单元(Gate Recurrent Unit,GRU)19等,以上模型可从文本中提取特征并不断优化,相较于传统机器学习方法无需繁琐的人工标注就能

14、取得更好的效果,并能提取更深层次的句子级特征信息,在下游任务情感分析中的应用效果显著。Jelodar等20通过长短时记忆网络(Long Short Term Memory,LSTM)分析新型冠状病毒的情感,揭示了利用公众舆论和适当的计算技术了解该问题并指导相关决策的重要性,准确度达到81.15%。除了基于单一神经网络的深度学习算法,越来越多的研究人员考虑结合不同神经网络方法的优点组成混合神经网络的模型,并应用于情感分析。Ume等21提出一种结合CNN和LSTM的深度网络,在Twitter数据集上进行情感分析的结果表明,该模型优于单一机器学习分类器。Liu等22提出一种 Bert-BiGRU-S

15、oftmax 的混合模型,利用BERT模型作为输出层提取情感特征,以双向门控循环单元(BiGRU)为隐藏层计算情感权重,以注意力机制为输出层,准确率达到95.5%以上。然而,基于单通道的混合神经网络模型往往会因融合加深网络层次,特征向量压缩损失更多文本语义信息,致使情感倾向发生偏差。基于双通道的混合神经网络模型由两个互不干扰的网络通道组成,充分利用了不同深度学习模型的优势,从多方面提取文本特征语义,在一定程度上降低了网络层次深度造成的语义信息损失。2 FDSF模型本文提出的 FDSF 模型结构由输入层、BERT 词嵌入层、提取全局语义特征的BiGRU-Attention层、提取多粒度下局部语义

16、特征信息的CNN层和语义向量融合输出层构成,如图1所示。CLS1v2vnvBERT.Bi-GRUCNNAttention.Fusion outputFully Connected&SoftmaxInput layerBERT layerEmbedding layerOutput 1Output 2Fusion layerFig.1FDSF model图1FDSF模型 74第 9 期刘司摇,周艳玲,兰正寅,等:融合双通道语义特征的情感分析研究2.1词嵌入层预训练模型BERT以无监督方式,通过大量无标注的文本数据进行训练,得到具有文本语句情感性倾向的词向量。在不同下游任务中无需特意更改模型,只进行

17、相对应的微调即可,相较于Word2vec、Glove、BERT等常用的词嵌入模型,利用双向Transformer编码器的多头注意力机制可捕获到更准确的语义信息,解决了相同字词在不同语境中的一词多义问题。如图2所示,BERT模型利用双向Transform-er编码器提取文本中的语义信息。其中,w1,w2,wn表示文本输入,通过多层 Transf-ormer 训练得到对应的文本输出O1,O2,On。Transformer 编码器由多个编码器组成,每个编码器分为多头自注意力层和前馈层,自注意力层的主要作用是在捕获词向量时能考虑该单词与其他单词的上下文语义关联,有利于在深度学习任务中聚焦更重要的单词,

18、加快训练速度。考虑到在复杂的任务中,自注意力机制层对文本的拟合程度不够,前馈神经网络的两个线性层能加强 Transformer的表达能力。因此,在进入解码器前,Transformer编码器还会对输出进行残差连接和层规范化。在预训练过程中,BERT模型引入了两个任务,分别为遮蔽语言模型(Masked Language Model,MLM)和下一句预测(Next Sentence Prediction,NSP)。其中,MLM 语言模型通过 Mask 掩码随机遮挡数据集中部分单词,然后让模型利用上下文预测被隐藏的单词,目的是为了更准确地捕捉单词表征;NSP任务通过判断前后句子间的合理性来理解文本的构

19、造。因此,BERT预训练模型拥有优秀的语义表征能力,非常适用于情感分析任务。2.2CNN层CNN 是一种由输入层、卷积层、池化层和全连接层 4部分组成的一种深度前馈神经网络,因良好的特征提取能力被广泛应用于计算机视觉等领域,近几年也有越来越多学者将其应用于情感分类,如图3所示。CNN具有的局部感受野和权值共享优点,可减少模型训练参数,非常适合提取局部特征。因此,本文采用CNN提取局部文本情感特征信息。其中,卷积层通过卷积计算得到经过映射的特征,在池化层中深度学习模型通常采用最大池化对特征降维后得到一维向量,该一维向量可看为经过卷积层映射后得到文本数据的主要特征,最后全连接层将得到的特征进行连接

20、。局部情感特征Fw的计算过程如式(1)所示。ci=f(WXi:i+h-1+bc)(1)式中:bc表示偏移项;W为卷积核;为卷积运算;Xi:i+h-1表示从i到i+h-1个词向量;f()为非线性激活函数。2.3BiGRU层RNN将文本序列按时间顺序依次输入网络中处理,结合单词前后关联进行特征提取,然而当文本序列长度过长时会造成梯度弥散和梯度爆炸问题,导致后期模型无法有效获取前向序列文本信息。门控循环单元作为RNN的变体,结构中的重置门、更新门机制分别更新、重置文本序列,有效解决了 RNN 在短序列文本上的瓶颈依赖问题,GRU结构如图4所示,前向传播的GRU网络计算公式如式(2)式(5)所示。zt

21、=(Wzht-1,xt)(2)rt=(Wrht-1,xt)(3)ht=tanh(Whrtht-1,xt)(4)ht=(1-zt)ht-1+ztht(5)式中:为sigmoid激活函数,将其函数值控制在(0,1)范围内;Wz、Wr均为 GRU 网络的权值矩阵;ht-1为前一时1w2wnw TrmTrmTrmTrmTrmTrm 1O2OnO Fig.2BERT word embedding图2BERT词嵌入Word 1Word 2Word n-1词向量n维输入层不同大小卷积核池化Output Fig.3CNN local feature extraction图3CNN局部特征提取 752023 年

22、软 件 导 刊刻的状态信息;ht为当前隐藏状态;ht为候选隐藏状态。式(2)为更新门表达式,更新门决定了前一个时间状态信息传递到当前时间的状态信息程度,值越大说明前一时刻传递的信息越多;式(3)为重置门表达式,重置门控制丢弃前一时刻信息的程度,重置门值越小代表忽略越多。尽管 GRU能有效捕捉长序列文本语义信息,但单向 GRU只能从前往后读取文本数据信息,导致其只能保留前向文本特征。因此,在前后文语义关联较强的文本中,单向GRU无法较好地提取语句中的隐藏信息。为了准确捕获文本情感倾向,FDSF模型采用双向门控单元(BiGRU)提取文本序列特征。BiGRU 由两个反方向的单向 GRU 组成,能同时

23、保留过去、未来文本语义特征,可结合上下文更准确地预测当前内容。如图5所示,在BiGRU网络中,设t时刻计算的前向输出为ht,后向输出为ht,将双向输出拼接融合得到最终输出ht=ht,ht。2.4Attention层考虑到文本情感分析中每个字词对整个文本的情感倾向贡献度不同。本文为了强调关键信息在全文中的作用,通过FDSF模型将BiGRU最后时刻的隐藏层作为全局语义特征表示,并加入自注意力机制。注意力机制根据每个单词在全文中的相关程度分配权重,最终的输出即为BiGRU输出向量的加权和23。具体数学计算公式如式(6)所示:ut=tanh(Wht+b)(6)at=exp()utt=0nexp()ut

24、(7)Fc=t=0natht(8)式中:W为权值矩阵;b为偏置项;at为t时刻经过归一化处理得到的权重;Fc为经注意力机制加权后最终的全局语义特征信息。2.5融合输出层首先将经过CNN通道获取的局部情感特征Fw和经过BiGRU-Attention通道获取的全局情感特征Fc进行拼接融合,得到最终的融合情感特征F=12(Fw+Fc)。然后,将融合情感特征通过全连接层输出Softmax分类器运算得到最终分类预测概率。p=Softmax(WsF+bs)(9)式中:Ws为全连接层的权值矩阵;bs为偏置项。3 实验与结果分析3.1实验环境本文测试模型采用版本为 Python+Pytorch1.9.0 深度

25、学习框架,实验环境为Google提供机器学习服务器Colaboratory,内置GPU为NVIDIDA Tesla T4-16 G。3.2实验数据集为验证FDSF模型在中文情感分析任务上的有效性,本文使用 ChinaNLPcorpus 组织提供的中文情感分析数据集online_shopping_10_cats和中科院谭松波学者收集的酒店评论语料数据集进行比较实验。其中,online_shopping_10_cats为 ChinaNLPcorpus组织公开发表的情感分析数据集,包含10种线上交易情感数据,包括正面、负面情感两种倾向,共计62 773条数据(正向情感样本31 727条,负向31 0

26、46条),本文按照7 3的比例划分正负情感样本;酒店评论数据集包含正倾向性情感7 000条,负倾向性情感3 000条,本文设置训练样本9 000条,测试样本1 000条。为验证模型的有效性,将本文所提方法与 GRU 模型19、BiGRU 模 型24、TextCNN 模 型17、AEN-BERT 模型25、DPCNN模型26、BERT-base模型13这些主流深度学习分类模型进行比较。具体的,GRU 模型使用单向 GRU网络提取文本序列特征,将最后时刻隐藏层输入全连接层进行情感分类;BiGRU 模型采用双向 GRU 网络结合上下文语义信息,增强模型在文本序列上的特征提取能力;TextCNN模型通

27、过卷积层提取文本情感特征,运用最大池化提取最重要的情感特征,最后输入全连接层进行情感分类;DPCNN 模型通过加深网络以增强文本情感特征提取能力,达到提升金字塔结构分类性能的目的;BERT-base模型以BERT(基于Transformer的双向编码模型,具有强大的语义表征能力)为预训练模型获取文本动态词向量后链+tanh1-th thth1thtitrtz Fig.4GRU network model图4GRU网络模型GRUGRU0i0hGRUGRU1i1hGRUGRU2i2hGRUGRU3i3h前向GRU后向GRUInputOutput Fig.5Bidirectional GRU net

28、work model图5双向GRU网络模型 76第 9 期刘司摇,周艳玲,兰正寅,等:融合双通道语义特征的情感分析研究接全连接层,然后将其输入 Softmax分类器中输出最终情感倾向;AEN-BERT模型利用标签平滑方式在一定程度上解决了模糊情感文本的极性判断,通过融合注意力机制对方面词进行建模。实验参数设置如表1所示。3.3评价标准本文通过准确率(Accuracy)、精确率(Precision)、召回率(Recall)与 F1 值作为评价标准,如式(10)式(13)所示,指标计算的混淆矩阵如表2所示。其中,TP为预测为正的正样本,FP为预测为正的负样本,FN为预测为负的正样本,TN为预测为负

29、的负样本。Accuracy=TP+TNTP+TN+FP+FN(10)Precision=TPTP+FP(11)Recall=TPTP+FN(12)F1=2 Precision RecallPrecision+Recall(13)3.4实验结果及分析为验证FDSF模型的在情感分析任务上的可靠性,避免出现偶然性结果。首先对 epoch进行 10次循环后采集数据测试集的准确率、精确率、召回率和F1值,然后求均值进行比较验证。online_shopping_10_cats数据集和酒店评论数据集上的实验结果如表3、表4所示。由此可知,本文提出的FDSF模型在中文情感分类任务上相较于其它深度学习模型,在各

30、项评级指标方面均最优。其中,各模型的F1值柱状图如图6所示。由图6可见,FDSF模型在文本情感分析任务上性能良好,BiGRU在两个数据集上的F1值相较于GRU分别提升1%3%,验证了双向门控循环机制在全局语义特征提取方面的优势。基于BERT的3类模型的各项指标均明显优于GRU、BiGRU 和 TextCNN 模型,说明预训练模型提取的动态词向量具有更好的语义表征能力,这也是 FDSF 采用BERT预训练模型作为双通道词嵌入层的原因。虽然,AEN-BERT方法的F1值接近本文模型,但FDSF在两个数据集上相较于AEN-BERT方法分别提升0.43%、0.65%,进一步说明了FDSF模型通过提取、

31、融合多粒度下的局部和全局语义特征,能有效提升模型性能。3.5消融实验本文设计消融实验,以验证FDSF模型中各层结构对模型的有效增益情况。其中,FDSF-CNN为采用全局语义特征通道进行情感分析的模型;FDSF-BiGRU-Att为原模型减去BiGRU结构和注意力机制后的模型,词嵌入后利用CNN提取多粒度下的局部语义特征进行分类;FDSF-Att为原模型减去BiGRU结构后的注意力机制层模型,实验结果如表5所示。Table 1Experimental parameters表1实验参数参数描述嵌入维度卷积核大小每种卷积核的数量dropout优化器学习率训练批次大小参数值768(1,2,3,4)20

32、00.5AdamW2e-564Table 2Confusion matrix表2混淆矩阵混淆矩阵预测值PositiveNegative真实值PositiveTPFNNegativeFPTNTable 3Experimental results of online_shopping_10_cats dataset表3online_shopping_10_cats数据集上的实验结果(%)模型GRUBiGRUTextCNNDPCNNBERT-baseAEN-BERTFDSF准确率91.6692.2191.0891.5794.9894.8595.28精确率91.5792.1290.9791.2494.

33、9194.7895.21召回率91.6292.1691.0391.3694.9294.8395.26F1值91.6892.2391.1491.5494.9094.8795.30Table 4Experimental results of hotel reviews dataset表4酒店评论数据集上的实验结果(%)模型GRUBiGRUTextCNNDPCNNBERT+baseAEN-BERTFDSF准确率84.8186.3887.8988.6391.5591.9992.68精确率84.6886.1486.0686.4989.6690.1090.82召回率83.1285.0385.6686.01

34、89.9990.3391.31F1值83.1884.7686.4787.1289.5990.4991.04Table 5Ablation experiment results表5消融实验结果(%)ModelFDSF-CNNFDSF-BiGRU-AttFDSF-AttFDSFonline_shopping_10_cats94.6795.0195.1295.30酒店评论90.1390.6790.8991.04 online_shopping_10_cats酒店评论数据集7580859095F1/%数据集 GRU BiGRU TextCNN DPCNN BERT-base AEN-BERT FDSF

35、Fig.6F1 value histogram analysis图6F1值直方图分析 772023 年软 件 导 刊由表5可知,上述消融模型相较于BERT-base模型在两类数据集上的F1值均具有一定提升,说明BiGRU、CNN和注意力机制融合BERT均能效提升模型语义特征提取能力。实验发现,FDSF相较于结合门控循环单元与注意力机制进行全局语义特征提取的FDSF-CNN模型、结合CNN进行局部语义特征提取的FDSF-BiGRU-Att模型,在性能方面具有一定程度的提升,表明FDSF模型通过双通道融合特征向量的方式能提升模型性能。FDSF-Att与FDSF结果相差0.18%,说明在保持双通道结

36、构的前提下,融入注意力机制能为模型性能带来增益。综上所述,FDSF模型通过双通道方式融合BERT、BiGRU、Attention机制、CNN模型的优势,能显著提升模型在情感分析任务上的性能,充分提取文本语义特征信息以深入分析情感倾向。4 结语本文针对文本情感分类问题,充分结合了 BERT、CNN、BiGRU 模型与 Attention 的优势,提出融合双通道语义特征的情感特征模型。首先采用BERT预训练语言模型提取文本情感特征的动态表示,并将其分别输入两个通道进行下游分类任务;然后在 CNN 通道中提取局部情感特征,在BiGRU-Attention通道中提取全局情感特征;最后加权融合两个通道特

37、征,并输入 Softmax 分类器得到最终结果。在 online_shopping_10_cats、谭松波酒店评论数据集上,与其他深度学习分类模型进行比较实验的结果表明,FDSF模型在准确率、精确率、召回率、F1值均最优,证明了FDSF 模型在文本情感分析任务中的有效性和优势。然而,考虑到通过双通道特征融合时会损失部分特征信息,未来将探究如何选择性地保留更多关键特征信息,寻求更优的融合方式获得更准确的情感倾向。参考文献:1 TAI K S,SOCHER R,MANNING C D.Improved semantic representations from tree-structured lo

38、ng short-term memory networksDB/OL.https:/arxiv.org/abs/1503.00075.2 ZHANG L,WANG S,LIU B.Deep learning for sentiment analysis:a survey DB/OL.https:/arxiv.org/abs/1801.07883.3 HUSSEIN D M E-D M.A survey on sentiment analysis challengesJ.Journal of King Saud University Engineering Sciences,2018,30(4)

39、:330-338.4 ZHANG S,WEI Z,WANG Y,et al.Sentiment analysis of Chinese micro-blog text based on extended sentiment dictionary J.Future Generation Computer Systems,2018,81:395-403.5 PANG B,LEE L,VAITHYANATHAN S.Thumbs up?sentiment classification using machine learning techniques C/Proceedings of the ACL

40、-02 Conference on Empirical Methods in Natural Language Processing,2002:79-86.6 BENGIO Y,DUCHARME R,VINCENT P.A neural probabilistic language modelJ.Advances in Neural Information Processing Systems,2000,3:1137-1155.7 TANG L Y,XIONG C C,WANG Y,et al.Review of deep learning for short text sentiment t

41、endency analysis J.Journal of Frontiers of Computer Science and Technology,2021,15(5):794-811.汤凌燕,熊聪聪,王嫄,等.基于深度学习的短文本情感倾向分析综述J.计算机科学与探索,2021,15(5):794-811.8 SUN X,TANG Z,ZHAO Y Y,et al.Hierarchical net-works with mixed attention for text classification J.Journal of Chinese Information Processing,202

42、1,35(2):69-77.孙新,唐正,赵永妍,等.基于层次混合注意力机制的文本分类模型J.中文信息学报,2021,35(2):69-77.9 HU Y L,TONG T Q,ZHANG X Y,et al.Self-attention based BGRU and CNN for sentiment analysisJ.Computer Science,2022,49(1):252-258.胡艳丽,童谭骞,张啸宇,等.融入自注意力机制的深度学习情感分析方法 J.计算机科学,2022,49(1):252-258.10 BUCKMAN J,ROY A,RAFFEL C,et al.Thermom

43、eter encoding:one hot way to resist adversarial examplesC/International Conference on Learning Representations,2018:1-22.11 LIU H X.Sentiment analysis of citations using Word2vecDB/OL.https:/arxiv.org/abs/1704.00177.12 PENNINGTON J,SOCHER R,MANNING C D.Glove:global vectors for word representation C/

44、Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing,2014:1532-1543.13 DEVLIN J,CHANG M W,LEE K,et al.Bert:pretraining of deep bidirectional transformers for language understandingDB/OL.https:/arxiv.org/abs/1810.04805.14 WANG Y H,LIN M,LI Y L,et al.Research on embed

45、ded text topic model based on BERTJ.Computer Engineering and Applications,2023,59(1):169-179.王宇晗,林民,李艳玲,等.基于 BERT的嵌入式文本主题模型研究J.计算机工程与应用,2023,59(1):169-179.15 KARIMI A,ROSSI L,PRATI A.Adversarial training for aspect-based sentiment analysis with BERTC/2020 25th International Conference on Pattern Rec

46、ognition,2021:8797-8803.16 PANG G,LU K,ZHU X,et al.Aspect-level sentiment analysis approach via BERT and aspect feature location model J.Wireless Communications and Mobile Computing,2021(2):5534615.17 KIM Y.Convolutional neural networks for sentence classificationDB/OL https:/arxiv.org/abs/1408.5882

47、.18 ZHANG Y,JIANG Y,TONG Y.Study of sentiment classification for Chinese microblog based on recurrent neural network J.Chinese Journal of Electronics,2016,25(4):601-607.19 CHO K,MERRINBOE V B,GULCEHRE C,et al.Learning phrase representations using RNN encoder-decoder for statistical machine translati

48、on DB/OL.https:/arxiv.org/abs/1406.1078.20 JELODAR H,WANG Y,ORJI R,et al.Deep sentiment classification and topic discovery on novel coronavirus or COVID-19 online discussions:NLP using LSTM recurrent neural network approachJ.IEEE Journal of Biomedical and Health Informatics,2020,24(10):2733-2742.21

49、UMER M,ASHRAF I,MEHMOOD A,et al.Sentiment analysis of tweets using a unified convolutional neural networklong shortterm memory network modelJ.Computational Intelligence,2021,37(1):409-434.22 LIU Y,LU J,YANG J,et al.Sentiment analysis for e-commerce product reviews by deep learning model of Bert-BiGR

50、U-Softmax J.Mathematical Biosciences and Engineering,2020,17(6):7819-7837.23 VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you need DB/OL.https:/arxiv.org/abs/1706.03762.24 DEY R,SALEM F M.Gate-variants of gated recurrent unit(GRU)neural networks DB/OL.https:/arxiv.org/abs/1701.05923.25 YU Q,W

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服