收藏 分销(赏)

结合近邻分析的小样本命名实体识别方法.pdf

上传人:自信****多点 文档编号:3078948 上传时间:2024-06-15 格式:PDF 页数:7 大小:1.43MB
下载 相关 举报
结合近邻分析的小样本命名实体识别方法.pdf_第1页
第1页 / 共7页
结合近邻分析的小样本命名实体识别方法.pdf_第2页
第2页 / 共7页
结合近邻分析的小样本命名实体识别方法.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、现代电子技术Modern Electronics Technique2023年10月1日第46卷第19期Oct.2023Vol.46 No.190 引 言命名实体识别(Named Entity Recognition,NER)是自然语言处理(Natural Language Processing,NLP)的重要基础任务1。通用的 NER 任务旨在自动从句子中识别人名、地点、时间、组织机构名称等实体,而生物医学领域的 NER 任务2则识别药物名称、治疗方法、蛋白质等领域实体,.NER 在文本理解3、信息检索4、自动问答5、情感分析6、对话系统78和知识库构建910等领域具有重要应用。由于自然语言

2、处理技术的发展,小样本名称实体识别已变成一项重要的任务,该任务需要高效地抽取和预测序列文本中的实体,但是,在小样本的情况下,传统的命名实体识别方法的性能会受到一定的影响,因此,如何有效地识别出小样本条件下的实体,仍然结合近邻分析的小样本命名实体识别方法江汀莹1,2,线岩团1,2,王红斌1,2(1.昆明理工大学 信息工程与自动化学院,云南 昆明 650500;2.昆明理工大学 云南省人工智能重点实验室,云南 昆明 650500)摘 要:小样本命名实体识别通过少量标注样本构建可应用于未知类别的实体识别模型,是命名实体识别的新兴研究方向。小样本实体识别具有实体边界检测不准确以及训练数据数量少、可见实

3、体类别少的特点,导致模型性能表现不佳,模型极易过拟合。针对这个问题,提出结合近邻分析的小样本命名实体识别方法,将命名实体识别任务分成实体范围检测和实体类别预测两部分完成,其中实体范围检测部分使用片段打分的方法,实体类别预测部分使用近邻分析的方法。此外,为了缓解训练数据少带来的模型过拟合问题,还在实体特征的隐空间上进行 Mixup数据增强以扩增伪样本。实验结果表明,所提出的结合近邻分析的小样本命名实体识别方法有效地提高了小样本实体识别的性能。关键词:小样本;实体识别;实体分类;过拟合;近邻分析算法;数据增强;泛化性能;深度神经网络中图分类号:TN911.134;TP391.1 文献标识码:A 文

4、章编号:1004373X(2023)19008807Few shot named entity recognition method combined with neighborhood component analysisJIANG Tingying1,2,XIAN Yantuan1,2,WANG Hongbin1,2(1.Faculty of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650500,China;2.Yunnan Key Laborat

5、ory of Artificial Intelligence,Kunming University of Science and Technology,Kunming 650500,China)Abstract:Few shot named entity recognition(NER)is a new research direction of NER,which is to build an entity recognition model that can be applied to unknown categories by a small number of labeled samp

6、les.Few shot entity recognition is characterized by inaccurate entity boundary detection,small amount of training data and few visible entity categories,which leads to poor model performance and prone to overfitting.In view of this,a few shot named entity recognition method combined with neighborhoo

7、d component analysis(FSNCA)is proposed.In the method,the NER task is divided into two parts of entity range detection and entity category prediction.The former employs fragment scoring method,while the later employs neighborhood component analysis(NCA)method.In addition,Mixup data enhancement is car

8、ried out on the hidden space of entity features for pseudosample amplification,so as to alleviate the model overfitting caused by less training data.Experimental results show that the proposed FSNCA can improve the performance of few shot entity recognition effectively.Keywords:few shot;entity recog

9、nition;entity classification;overfitting;NCA algorithm;data enhancement;generalization performance;deep neutral networkDOI:10.16652/j.issn.1004373x.2023.19.017引用格式:江汀莹,线岩团,王红斌.结合近邻分析的小样本命名实体识别方法J.现代电子技术,2023,46(19):8894.收稿日期:20230325 修回日期:20230413基金项目:国家自然科学基金资助项目(62266028);云南省重大科技专项计划项目课题(202202AD0

10、8000302)8888第19期是一项具有挑战性的任务。首先,存在实体位置判断不准确的问题,因为实体仅为文本中代表专有名词的少部分,这使得模型在训练数据少的情况下很难准确地找到实体位置;其次,测试集中出现的实体类别大都是在训练集中未出现过的实体类别,这就导致模型要学习的不是实体类别的特点,而是同类别实体之间的关联性,模型很难捕捉到这些关联性信息,导致模型识别困难。针对这类问题,文献11提出了将模型分成实体跨度检测和实体类别两部分,实体跨度检测使用线性分类层计算概率分布,使用 softmax函数得到概率,最后使用维特比算法解码;实体类别基于原型网络在训练集上微调,在测试集上预测。文献12与文献1

11、1提出的模型相似,也是将任务分成两步来完成,其中实体跨度检测部分计算词级的相似度和句子级的相似度,将两者结合起来,基于软注意力机制,得到最终实体首尾的位置;实体识别部分通过计算训练集每个词级的相似性,选择相似度最高的前K个,相似度求和获得所有潜在实体跨度的得分,得分最高的作为最后预测的跨度和类别。文献13提出了三种基于预训练语言模型的方法,目的是提高模型的泛化能力。第一种方法是基于元学习的方法,构建不同类别实体的原型,并通过最近邻标准分配标签;第二种方法是通过对有噪声的数据进行有监督的预训练,提取与实体相关的通用表示;第三种方法是使用未标记的域内标记通过自训练来预测其软标签,并结合有限的标记数

12、据执行半监督学习。文献14提出了一个全新的小样本命名实体识别领域的数据集 Few NERD,数据集由从维基百科文章中提取的句子和实体组成,并进行了人工标注,其中包含8个粗粒度的实体和66个细粒度实体。在文章中,使用4 种 不 同 的 模 型 来 测 试 数 据 集 Few NERD,分 别 是BERT15、ProtoBERT、NNshot 和 StructShot16。其 中,PortoBERT 模型的思想是找到支持集中每个类别的原型中心,文中采用每个类别中所有样本的均值作为原型中心的评判标准,并将测试集中的样本与每个类别中的原型中心进行距离计算,以此来确定原型中心的位置,从而提高模型的准确性

13、和可靠性。使用 softmax分类器来预测句子的结构,而 PortoBERT模型则用于输入每个句子中的每个单词,而 BERT 模型则用于编码这些单词,从而生成特征向量,并利用这些特征向量计算出句子的中心和距离。数据增强是缓解模型过拟合的有效方法,同义词替换和实体替换是最直接NER数据扩增方法17,但该类方法需要借助词典等外部资源,且容易引入标注噪声,在训练过程中误导模型。Mixup 作为一种不依赖外部知识的数据增强策略18,最初应用于图像分类问题,主要通过将图像和标签线性插值生成伪样本及对应的软标签,达到扩充训练数据的目的。文献19进一步提出在隐空间中生成伪样本的方法,使得 Mixup策略可以

14、应用于图像以外的数据。受这些方法的启发,本文通过结合近邻分析的方法,降低模型大量参数学习导致的模型过拟合问题,同时将小样本命名实体识别问题分成实体边界检测和实体类别预测两个部分来完成,提高了模型预测的准确率。为了缓解模型的过拟合问题,本文借鉴隐空间Mixup 策略提出了针对小样本命名实体分类任务的词特征 Mixup策略,通过在隐空间混合词特征扩增伪样本的方式来缓解模型的过拟合问题。综上所述,本文提出了一种结合近邻分析的小样本命名实体识别方法(Few Shot Named Entity Recognition Method Combined with Neighborhood Component

15、 Analysis,FSNCA)。该方法将命名实体识别分成两个部分来完成:第一部分是实体边界检测,使用BERT预训练模型15进行编码以获得更为丰富的语义信息,将获得的特征向量进行片段打分计算,从而得到实体所在文本中的位置,最后将实体首尾对应的特征向量拼接作为最终的实体特征向量表示;第二部分是实体类别预测,将第一部分 得 到 的 所 有 实 体 特 征 向 量 存 入 存 储 空 间 Offline Memory 中,对存储空间中的实体特征向量进行两两余弦相似度计算,最后根据近邻分析算法预测实体类别。本文所提方法在 FEWNERD(INTRA)14、FewNERD(INTER)14两个数据集上都

16、取得了显著的提高。1 结合近邻分析的小样本命名实体识别方法本文提出了一种结合近邻分析的小样本命名实体识别方法,用以解决小样本命名实体识别存在的实体边界检测不准确以及模型过拟合、泛化性能差这一问题。本文提出方法的整体模型结构如图1所示,主要分为实体边界检测和实体类别预测两个模块。其中:实体边界检测模块包括编码和片段打分以及实体向量拼接三个部分;实体类别预测模块包括近邻分析和相似度计算两个部分,在训练过程中,实体类别预测还包括词特征Mixup数据增强模块。1.1 实体边界检测模块实体边界检测模块包括编码、片段打分以及实体向量拼接三个部分。实 体 边 界 检 测 模 块 的 输 入 为 句 子 序

17、列X=x1,x2,xn,句子序列对应的标签序列Y=y1,y2,yn句子中的第i个实体entityi,该实体在句中的位置为江汀莹,等:结合近邻分析的小样本命名实体识别方法89现代电子技术2023年第46卷starti,endi,该实体对应的实体标签为labeli,其中n表示输入句子序列的长度,将长度为n的句子序列X=x1,x2,xn作为BERT编码器的输入,得到编码后的句子 序 列E=e1,e2,en。将 编 码 后 的 句 子 序 列E=e1,e2,en作为片段打分部分的输入,编码后的序列通过变换qi=Wqhi+bq和ki=Wkhi+bk,得到序列向量序列 q1,q2,qn和 k1,k2,kn

18、,用于后续片段打分的计算。句子中第i个片段到第j个片段的得分用s(i,j)表示,s(i,j)的计算公式如式(1)所示:s(i,j)=qTikj(1)式中s(i,j)0,即表示句子中的片段i,j 为实体。为了保证不会重复计算,设置i 0表示句子中从第 1 个片段到第j个片段为实体部分。对于计算出来的s(i,j)0,将编码后的句子序列E=e1,e2,en所对应的第i、j个位置的向量ei、ej拼接,得到实体片段对应的特征向量ei,j,以此类推,最终得到实体的特征向量序列 v1,v2,vn。1.2 实体类别预测模块在实体范围基础上构建一个基于近邻分析的实体类别预测模块,该模块将实体范围检测得到的特征向

19、量序列 v1,v2,vk作为实体类别预测模块的输入,同时设置了一个存储空间 Offline Memory,用于存储文本中所有实体对应的特征向量,这个存储空间的大小和实体数量相等。假设对于实体i和实体j,通过公式(2)计算两实体的余弦相似度Sij:Sij=cos =vTivi vj(2)式中表示向量vi和向量vj之间的夹角。通过公式(2)对 Offline Memory 的所有实体向量进行计算,从而得到任意两个实体之间的相似度矩阵(Similarity Metric)。实体i和实体j做邻居的概率Pij使用公式(3)计算,这里实体i和实体j做邻居指的是,实体i和实体j属于同一类别:Pij=exp(

20、Sij)k iexp(Sik)(3)式中为超参数,用于控制领域的规模。规定每个实体不能和自己做邻居,即Pii=0。故而,实体i被正确分类的概率Pi表示为:Pi=j iPij(4)式 中=|j yj=yi,表 示 与 实 体i共 享 相 同 标 签 的索引。最后,使用 argmax 函数对Pi进行计算,得到实体i的预测标签li。li表示为:li=argmaxif(i):=y:f(y)f(i)(5)式中y指所有实体。上述提到的存储空间Offline Memory并不是固定不变的,而是随着里面存储的实体向量的变化而不断改变。将整个数据集的特征作为增强的非参数 memory模块,通过随机梯度下降来学习

21、特征嵌入网络。在第t+1次迭代开始时,假设网络参数为(t),非参数 memory模块为M(t)=v(t)1,v(t)2,v(t)n,由于非参数 memory 模块总是随着迭代不断变换,可以近似地表示为:v(t)i f()(t)(xi)(6)式 中,xi表 示 实 体 向 量 表 征,即 实 体 向 量 序 列 v1,v2,vk中的vi。每次计算完vi后,都对非参数 memory 模块进行更新,更新公式如式(7)所示:v(t+1)i mv(t)i+(1-m)vi(7)式中m为非参数 memory 迭代的超参数。随着非参数memory模块不断地更新,再进行近邻分析计算,性能会提高更多。1.3 词特

22、征Mixup数据增强为了进一步缓解训练数据少导致的模型过拟合问题以及模型泛化性能差的问题,本文将词特征 Mixup数据增强策略应用于结合近邻分析算法的小样本命名实体识别方法之中。在训练过程中,该方法抽取存储空间Offline Memory中实体特征向量中同类别的实体特征向量,将同类别的实体特征向量进行在隐空间混合词特征伪样本的扩增,从而达到数据增强的目的。对存储空间Offline Memory中同类别的任意两个实体特征向量vi和vj,找到其对应的标签yi和yj,并将标签转化成使用 onehot表示为yi和yj。线性插值过程可以90第19期表述为式(8)、式(9):v=vi+(1-)vj(8)y

23、=yi+(1-)yj(9)式中,是样本对(vi,yi)和(vj,yj)的混合比例,它是从具有超参数的Beta(,)分布中采样的。当=1时,Beta分布等价于均匀分布。将 混 合 之 后 的 伪 样 本 也 存 入 存 储 空 间 Offline Memory 中,再进行公式(2)余弦相似度的计算,得到最终的实体类别的预测。1.4 损失函数损失函数Loss分为三个部分,分别是实体边界检测的损失函数LossSpan和实体类别预测的损失函数LossLabel以及词特征 Mixup数据增强的损失函数LossMixup。损失函数Loss表示为三个部分损失之和。LossSpan=log()1+(i,j)P

24、e-s(i,j)+log()1+(i,j)Qes(i,j)(10)LossLabel=J=1niJi=-1nilog(Pi)(11)LossMixup=-1N()isilog yi+(1-)jsjlog yj(12)Loss=LossSpan+LossLable+LossMixup(13)式中:P是训练集中所有类型为的实体的首尾对应的特征向量的集合;Q是训练集中所有非实体或者类型非的实体的首尾对应的特征向量集合;Pi表示实体i正确分类的概率;si、sj是模型计算的预测值;是样本对混合比例;yi和yj使用 onehot 表示对应样本的类别标签。2 实验结果及分析2.1 数据集本文使用的实验数据集

25、是 FewNERD。FewNERD是清华大学为小样本命名实体识别领域标注的数据集,包含 18万余条句子,49万余个标注的实体,460余万个字符,8个粗粒度实体类别,在8个粗粒度实体类别下细分了66个细粒度实体类别。其中用于小样本学习的有两个数据集,分别为 INTRA和 INTER,这两个数据集的数据相同,区别主要在于训练集、验证集和测试集的划分方式不同。在数据集 INTRA 中,训练集、验证集、测试集的数据含有不同粗粒度类型的实体,其中训练集中包含people、product、art、MISC 这 4 个类别的实体,验证集中包含 building、event 两个类别的实体,测试集中包含LOC

26、、ORG 两个类别的实体。在数据集 INTER 中,训练集、验证集和测试集三个集合中的粗粒度实体类别是相同的,但每个集合中涉及的细粒度实体类别不同。其中训练集中包含了 60%的细粒度实体类别,测试集和验证集分别包含 20%的细粒度实体类别。数据集的详细信息参见表1。表1 数据集详细信息数据集FewNERD(INTRA)FewNERD(INTER)来源通用领域通用领域训练集句子数99 519130 112验证集句子数19 35818 817测试集句子数44 05914 0072.2 评价指标本文评价指标采用F1值。F1值是通过精确率(precision)和召回率(recall)得到的,其中精确率

27、表示在被预测为正样本中实际为正样本的比例,召回率表示在实际为正样本中被预测为正样本的比例。F1同时考虑了精确率和召回率,使得两者同时达到最高,相较精确率和召回率,F1更适合作为命名实体分类任务的评价指标。与通常使用的指标不同的是,这里精确率指的是对于在训练集中标注出的实体,预测其为实体且类别预测正确的比例;召回率指的是对于在预测为实体且预测类别正确的比例。2.3 模型参数在实验中,训练模型选择的是 Adam 优化器,学习率(lr)的初始值设定为0.000 01。考虑到实验数据集的大小以及 GPU的性能问题,训练样本采用小批次训练,每个批次大小设定为 8。实验环境如表 2所示,具体的模型参数设置

28、如表3所示。表2 实验环境实验环境操作系统CPUGPUPythonPytorch配置Linux7Intel Xeon Silver 4216NVIDIA RTX 2080Ti GPU3.71.5.1表3 模型训练超参数参数batch_sizelrhidden_sizemomentum值81e-52561.00.91.0江汀莹,等:结合近邻分析的小样本命名实体识别方法91现代电子技术2023年第46卷模型中实体向量拼接维度 hidden_size设置为 256,近邻分析算法中用于控制邻域范围的超参数设置为1.0,实体特征表示的迭代超参数 momentum设置为 0.9,词特征Mixup中的超参数

29、设置为1.0。2.4 实验结果及分析为了验证所提出方法的有效性,本文采用了多种基线模型进行对比实验。Proto:Proto 是元学习方法中的一种典型的用于小样本学习任务中的模型。该方法编码器使用的是BERT编码器,通过计算具有相同实体类别的词对应的特征向量的平均值,找到每个实体类别对应的一个原型中心,其中原型中心的计算是在训练集中进行的。其计算方式如公式(14)所示:Zi=1|Six Sif(x)(14)式中:i表示第i个实体类别;Zi表示原型中心;Si表示训练集;x表示测试集中的待预测类别实体。NNShot和 StructShot:NNShot和 StructShot是基于最近邻分类的方法。

30、该方法使用的编码器为 BERT 编码器,通过计算每个词之间的距离来确定实体类别。NNShot 和 StructShot 具 有 相 同 的 基 础 结 构,区 别 是StructShot采用了维特比解码器。2.4.1 不同基线模型性能对比在 FewNERD(INTRA)和 FewNERD(INTER)两个小样本数据集上分别进行了不同基线模型的对比实验,实验结果如表4和表5所示。表4是FewNERD(INTRA)上各模型在K=5和K=10上的F1值表现,其中K=5表示每个类别有 5个实例,K=10 表示每个类别有 10个实例。从表 4可以看出,在K=5的情况下所提模型比Proto模型的F1值高出

31、了1.79%,比 NNShot 模型高出了 8.15%,比 StructShot 模型高出了6.33%;在K=10的情况下,所提模型比Proto模型的F1值高出了 1.71%,比 NNShot 模型高出 9.73%,比 StructShot模型高出了10.69%。表4 FewNERD(INTRA)数据集上 不同基线模型性能对比%模型ProtoNNShotStructShotFSNCAK=542.5436.1838.0044.33K=1035.4027.3826.4237.11在FewNERD(INTER)数据集上,各模型表现如表5所示。可以看出,在K=5 的情况下所提模型比 Proto 模型的

32、F1值高出了 1.21%,比 NNShot模型高出了 8.15%,比StructShot模型高出了2.68%;在K=10的情况下,所提模型比 Proto模型的F1值高出了 2.24%,比 NNShot模型高出 5.57%,比 StructShot模型高出了 5.57%。分析认为所提模型的性能较 Proto、NNShot和 StructShot模型性能高的原因在于,FSNCA 模型在准确预测实体边界的前提下,再使用无需参数学习的近邻分析算法,使得模型有效地缓解了过拟合问题,提高了模型的泛化性能,从而使得模型性能得到了提高。表5 FewNERD(INTER)数据集上 不同基线模型性能对比%模型Pr

33、otoNNShotStructShotFSNCAK=558.7955.6457.3260.00K=1052.9249.5749.5755.16在两个数据集上的实验结果表明,本节所提模型在FewNERD的两个小样本数据集上表现良好,F1值超过了目前常用的小样本模型 Proto、NNShot 和 StructShot模型。2.4.2 不同参数下模型性能对比在所提方法中有两个重要超参数:hidden_size、。为了找到这两个超参数使得模型性能最好的值,在FewNERD(INTRA)数据集的K=5上进行了实验,实验结果如表 6所示。其中 hidden_size指的是实体边界确定后,将实体对应特征向量

34、拼接后得到的新的实体特征向量的维度大小。表6 不同参数下模型性能对比参数hidden_size参数值1282565120.050.10.5F1值/%42.6744.3337.1041.3544.3322.14从表6中可以看到,hidden_size的大小对模型性能具有较大的影响,在 hidden_size 取值为 256时,模型性能表现最好,在hidden_size取值为128和512时,模型性能分别下降了1.66%和7.23%。认为hidden_size取值在 256 时,获 得 了 更 为 完 整 的 实 体 特 征 表 示;当hidden_size为 128时获得的实体特征表示会缺失部分

35、;而当 hidden_size为 512时,获得的实体特征表示增加了92第19期更多与实体无关的值,从而导致后续模型预测性能下降。指的是近邻分析算法中邻域的大小。当取值为0.1 时,模型取得了更好的效果;当取值为 0.05 时,模型性能下降了 2.98%,认为性能下降的原因是邻域范围过小,导致模型不能更完整地获取待预测实体附近的实体类别信息;当取值为 0.5 时,模型性能甚至下降了22.19%,可以看出当邻域范围过大时,待预测实体附近出现了过多的类别信息,产生了过多的噪声信息,导致模型无法更有效地获取其附近类别特征,从而造成了模型性能大幅度下降的情况。综上所述,hidden_size和两个超参

36、数的合理取值对模型性能具有较大的影响。2.4.3 不同分类方法下模型性能对比为了表明近邻分析算法(NCA)的有效性,本节选取了meanlinear和BiAffine两个分类方法进行对比实验,实验结果如表7所示。表7 不同分类方法下模型性能对比数据集FewNERD(INTRA)FewNERD(INTER)分类方法NCAmeanlinearBiAffineNCAmeanlinearBiAffineF1值/%44.3340.3139.4660.0056.0758.91meanlinear分类方法指的是:在获得实体的首尾向量后,不采用 FSNCA 模型提出的首尾拼接的方法,而是采用首尾向量平均的方式获

37、得新的实体向量表示,将获得的新的实体向量表示直接输入线性分类层,通过 softmax 函数和 argmax 函数得到实体类别预测的结果。BiAffine 方法指的是:在获得新的实体向量后,将其输入双仿射层,即多层感知层(MLP),输出每个类别的得分,再通过 argmax 函数得到实体类别预测的结果。在 FewNERD(INTRA)和 FewNERD(INTER)两个数据集的K=5上针对三种分类方法的实验可以看出,使用近邻分析算法的性能较 meanlinear 分类方法和 BiAffine 方法更好,在 FewNERD(INTRA)数据集上分别提高了4.02%和4.87%;在FewNERD(IN

38、TER)数据集上分别提高了 3.93%和 1.09%。可以看出,由于近邻分析算法不需要进行复杂的参数学习和优化,从而缓解了模型的过拟合问题,使得模型的性能表现更优秀。3 结 语本文针对目前小样本命名实体识别方法的实体类别边界预测不准确、模型极易过拟合以及模型泛化性能差的问题,提出了结合近邻分析的小样本命名实体识别方法。该方法通过将小样本命名实体识别任务分成实体边界检测和实体类别预测两个模块,增强了模型的识别能力。本文首先通过 BERT预训练模型编码,使得尽可能大程度地获得更丰富的语义信息;其次通过片段打分的方法,准确地获得文本中实体的位置及其对应的特征向量;最后通过使用近邻分析算法以及余弦相似

39、度计算来预测实体的类别。为了进一步缓解模型的过拟合问题,本文方法对获得的同类别特征向量进行词特征Mixup数据增强。在FewNERD(INTRA)和FewNERD(INTER)两个具有代表性的小样本数据集上,本文对所提的方法进行了详细的对比实验,充分表明了本文提出的方法能够更有效地完成小样本的命名实体识别。注:本文通讯作者为线岩团。参考文献1 YANG Y,ZHANG M,CHEN W,et al.Adversarial learning for Chinese NER from crowd annotations C/Proceedings of the Thirtysecond AAAI

40、Conference on Artificial Intelligence and Thirtieth Innovative Applications of Artificial Intelligence Conference and Eighth AAAI Symposium on Educational Advances in Artificial Intelligence.S.l.:AAAI Press,2018:16271635.2 胡宇,申德荣,聂铁铮,等.面向生物医学实体链接的联合式学习方法J.计算机学报,2022,45(4):748765.3 LECHTENBERG F,FARR

41、ERES J,GALVANCARA AL,et al.Information retrieval from scientific abstract and citation databases:A querybydocuments approach based on MonteCarlo sampling J.Expert systems with applications,2022,199:116967.4 APHINYANAPHONGS Y,TSAMARDINOS I,STATNIKOV A,et al.Text categorization models for highquality

42、article retrieval in internal medicine J.Journal of the American Medical Informatics Association,2005,12(2):207216.5 ZENG J,LIU T,JIA W,et al.Finegrained questionanswer sentiment classification with hierarchical graph attention network J.Neurocomputing,2021,457:214224.6 DING J,SUN H,WANG X,et al.Ent

43、itylevel sentiment analysis of issue comments C/Proceedings of the 3rd International Workshop on Emotion Awareness in Software Engineering.New York:ACM,2018:713.7 QIN L,LIU Y,CHE W,et al.Entityconsistent endtoend taskoriented dialogue system with KB retriever C/Proceedings of the 2019 Conference on

44、Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing.Stroudsburg,PA:ACL,2019:133142.江汀莹,等:结合近邻分析的小样本命名实体识别方法93现代电子技术2023年第46卷8 BOWDEN K,WU J,ORABY S,et al.SlugNERDS:A named entity recognition tool for open domain dialogue systems

45、EB/OL.20180510.https:/arxiv.org/abs/1805.03784v1.9 LIU Z,XIONG C,SUN M,et al.Entityduet neural ranking:understanding the role of knowledge graph semantics in neural information retrieval C/Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics.Stroudsburg,PA:ACL,2018

46、:23952405.10 ZHAO Y,ZHANG A,XIE R,et al.Connecting embeddings for knowledge graph entity typing C/Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.Stroudsburg,PA:ACL,2020:64196428.11 MA T,JIANG H,WU Q,et al.Decomposed metalearning for fewshot named entity recog

47、nition C/Findings of the Association for Computational Linguistics.Stroudsburg,PA:ACL,2022:15841596.12 ZIYADI M,SUN Y,GOSWAMI A,et al.Example based named entity recognition EB/OL.20200824.https:/arxiv.org/abs/2008.10570v1.13 HUANG J,LI C,SUBUDHI K,et al.Fewshot named entity recognition:A comprehensi

48、ve study EB/OL.2020 12 29.https:/arxiv.org/abs/2012.14978v1.14 DING N,XU G,CHEN Y,et al.Few NERD:A few shot named entity recognition dataset EB/OL.20210620.https:/arxiv.org/abs/2105.07464v5.15 DEVLIN J,CHANG M W,LEE K,et al.BERT:Pretraining of deep bidirectional transformers for language understandi

49、ng C/Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies.Stroudsburg,PA:ACL,2019:4171 4186.16 YANG Y,KATIYAR A.Simple and effective fewshot named entity recognition with structured nearest neighbor learning C/P

50、roceedings of the 2020 Conference on Empirical Methods in Natural Language Processing(EMNLP).Stroudsburg,PA:ACL,2020:63656375.17 DAI X,ADEL H.An analysis of simple data augmentation for named entity recognition C/Proceedings of the 28th International Conference on Computational Linguistics.S.l.:ICCL

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服