收藏 分销(赏)

融合混合表征的小样本关系抽取方法.pdf

上传人:自信****多点 文档编号:720475 上传时间:2024-02-22 格式:PDF 页数:6 大小:1.41MB
下载 相关 举报
融合混合表征的小样本关系抽取方法.pdf_第1页
第1页 / 共6页
融合混合表征的小样本关系抽取方法.pdf_第2页
第2页 / 共6页
融合混合表征的小样本关系抽取方法.pdf_第3页
第3页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、针对传统原型网络无法有效解决噪声数据带来的类原型偏差的问题,提出一种融合混合表征的小样本关系抽取方法,通过引入关系表述和实体提及作为辅助信息,并通过动态构建关系类别原型表示来提升模型对噪声数据的处理能力,进而获得更精确的原型判别性表示。首先,使用 BERT预训练语言模型对文本进行特征提取,利用实体提及提取实体关系表示,构建局部原型,并设计关系注意力模块对关系表述和支持实例进行语义计算和关键特征选择;然后,提出基于混合表征的动态原型网络构建模块,分别利用局部原型和关系注意力模块动态构建实体表征类原型和关系表征类原型;最后,融合两者形成更具判别性的混合表征原型点,进一步增强原型的关系表示能力。实验

2、结果表明,在公开数据集 FewRel 1.0上,融合混合表征的小样本关系抽取方法相较于基线模型,在不同子任务设置下均取得了较高的准确率,最高可达 96.26%,验证了所提方法能有效利用辅助信息缓解类原型偏差问题,获得较好的关系抽取效果。关键词:关系抽取;小样本学习;原型网络;注意力机制;混合表征开放科学(资源服务)标志码(OSID):源代码链接:https:/ J.计算机工程,2023,49(8):63-68.英文引用格式:LIU H X,DONG C,GOU Z N,et al.Few-shot relation extraction method fusing with hybrid re

3、presentation J.Computer Engineering,2023,49(8):63-68.Few-Shot Relation Extraction Method Fusing with Hybrid RepresentationLIU Haoxin1,DONG Chao1,GOU Zhinan2,GAO Kai1(1.School of Information Science and Engineering,Hebei University of Science and Technology,Shijiazhuang 050018,China;2.School of Infor

4、mation Technology,Hebei University of Economics and Business,Shijiazhuang 050061,China)【Abstract】Addressing the problem in which the traditional prototypical network cannot effectively solve the prototype deviation caused by noisy data,this study proposes a few-shot relation extraction method fusing

5、 with hybrid representation.This method introduces relation representation and entity mention as auxiliary information,and the prototype points of the relation categories are dynamically constructed to improve the processing ability of the model for noisy data.Therefore,a more accurate prototype dis

6、criminant representation is obtained.First,the BERT pre-trained language model extracts textual features.Simultaneously,entity mentions are used to extract entity relation representations,establishing local prototypes.A relation attention module is proposed to perform semantic computation and key fe

7、ature selection on relation representations and support instances.Second,a dynamic prototypical network building module is proposed based on hybrid representation,where the local prototype and the relation attention module are used to dynamically construct entity representation prototype points and

8、relation representation prototype points,respectively.Finally,the two prototype points are fused to form a more discriminative hybrid representation prototype point,which further enhances the relation representation ability of the prototype.The experimental results show that on the public dataset Fe

9、wRel 1.0,the few-shot relation extraction method fusing with hybrid representation achieves up to 96.26%higher accuracy than the baseline model under different subtask settings.These results validate the efficacy of the proposed method in utilizing auxiliary information to alleviate the problem of p

10、rototype deviation and obtaining a better relationship extraction effect.【Key words】relation extraction;few-shot learning;prototypical network;attention mechanism;hybrid representationDOI:10.19678/j.issn.1000-3428.0065258基金项目:河北省自然科学基金(F2022208006);河北省高等学校科学技术研究项目(QN2020198)。作者简介:刘昊鑫(1997),男,硕士研究生,主

11、研方向为自然语言处理;董 超、勾智楠,讲师、博士;高 凯(通信作者),教授、博士。收稿日期:2022-07-15 修回日期:2022-09-19 Email:人工智能与模式识别文章编号:1000-3428(2023)08-0063-06 文献标志码:A 中图分类号:TP391.12023年 8月 15日Computer Engineering 计算机工程0概述 关系抽取是自然语言处理中的一项基本任务,旨在自动识别自然文本中实体之间的语义关系,是支撑知识集成人工智能解决复杂问题的重要技术之一1。随着深度学习的发展,卷积神经网络2、递归神经网络3等有监督模型成为完成关系抽取任务的主 流 方 法。当

12、 前 针 对 该 任 务 的 传 统 深 度 学 习 范式4-6以大量监督数据为驱动,模型泛化能力依赖于监督数据的数量和质量7,而高质量的数据集需要高昂的人工标记成本且非常稀缺。研究者采用远程监督8-9的方法将实体对齐到大规模知识库来扩充数据集,但由此引入许多噪声数据且数据长尾问题严重,导致模型泛化能力偏弱。因此,如何使用少量数据集训练模型且使之具有良好的泛化能力成为当下的研究难点。小样本学习可以有效实现低资源情景下的学习推理,已经在图像识别10-12、关系抽取13等领域得到验证。在小样本学习的任务场景中,数据资源匮乏为其主要特点。模型在数据量越少时对噪声数据的感知越敏感,小样本关系抽取任务也

13、不例外。基于原型网络11的小样本关系抽取模型,其核心是构造关系类别原型表示的度量空间,然而在面对低资源情景中噪声数据的影响时,往往存在原型点偏差问题,即模型受噪声数据干扰而不能进行精准的关系原型泛化表示,导致模型与预期效果有较大差距。针对这一问题,关系表述和实体提及相较于含有该关系的实例而言,都可以更准确地反映该关系的内在涵义。本文将关系表述和实体提及作为辅助信息与实例信息进行交互计算,提出一种融合混合表征的动态原型网络构建方法,通过动态生成混合类原型表示,缓解噪声数据引起的原型点偏差问题。本文基于关键特征选择方法构建 HR-DProto 模型。通过关系注意力模块的语义计算,动态生成关系表征类

14、原型,根据实体提及构建局部原型,动态生成实体表征类原型。在此基础上,将两者融合得到更具判别性的混合类原型表示,从而缓解低资源场景中噪声实例对原型表示构建的影响,提升模型在小样本关系抽取任务设置下的性能。1相关工作 1.1小样本关系抽取小样本关系抽取是一种特殊的关系抽取任务。传统的有监督关系抽取方法通过训练集中所有关系的实例来训练模型识别测试集中所有实例的关系,训练集与测试集中关系类别相同;而在小样本关系抽取任务中,训练集和测试集的关系类别之间互不相交,旨在利用少量标记数据完成对新知识的泛化推理,识别出新关系样本中实体对之间的关系类别。HAN 等13公开了 FewRel 1.0 数据集,将小样本

15、学习引入到关系抽取任务,相关代表性的方法有基于度量学习的原型网络方法11和基于参数优化的元学习方法12。至此,大量研究者开始对小样本关系抽取任务进行探索。XIE 等14提出利用异构图神经网络和对抗学习训练捕获丰富的邻域信息,以此来减少模型对于噪声的敏感性。QU 等15利用全局关系图捕获关系之间的全局关系,提出一种新颖的贝叶斯元学习方法,对不同关系原型表示的后验分布进行建模来处理类原型的不确定性。GAO 等16基于 BERT17的 NSP 任务,将查询实例与所有的支持实例进行配对,连接成一个整体序列,执行二元分类任务来解决“以上都不是”的问题。SOARES等18提出的 MTB 模型把句子中的实体

16、替换为特殊标记,在利用 BERT 的掩码模型预测遮掩实体的同时,最小化同类实例间的语义距离,提升了预训练模型的关系表示能力,并通过在下游任务小样本数据集上微调,达到更加优异的分类效果。1.2原型网络基于度量学习的原型网络是元学习的一种方法,原型网络最早应用于图像领域,如 SNELL 等11设计了原型网络模型用于图像识别任务,通过缩短查询实例与其对应类原型之间的距离来完成分类任务。后续许多工作在文本、语音等领域展开,例如:PAHDE 等19设计了一个跨模态特征生成框架,利用文本跨模态的信息来丰富嵌入空间的原型表示;PARNAMI等20提出利用时间和扩张卷积并结合原型网络来解决语音领域的关键字发现

17、问题。在小样本关系抽取任务中,原型网络相较于其他小样本学习方法,在基准实验中取得了更好的效果13。因此,许多研究者对基于原型网络的小样本关系抽取方法进行了深入研究,例如:GAO 等21设计了实例级和特征级注意力机制,以分别突出关键实例和特征来缓解噪声的影响;YANG 等22基于协作注意模块分别提取句子和实体的有益信息和指导信息,以此来增强原型网络;YANG 等23引入了实体的固有概念,通过计算句子和概念之间的语义相似度,从每个实体的多个概念中选择最合适的概念,为关 系 预 测 提 供 了 线 索 并 提 高 了 关 系 分 类 性 能;WANG 等24引入了实体引导注意力机制,利用句法关系和相

18、对位置过滤掉容易引起混淆的信息,缓解了关系原型表示混淆的问题。2融合混合表征的小样本关系抽取模型 2.1任务定义给定一个带有实体对头实体和尾实体的实例,目标是训练模型在小样本任务设置下识别实体对之间 的 关 系。本 文 定 义 数 据 集 中 的 关 系 种 类 共 有R 种,每一种关系都对应一个关系表述Crn,其中,r R。在小样本学习 N-way K-shot 的任务设置下,64第 49卷 第 8期刘昊鑫,董超,勾智楠,等:融合混合表征的小样本关系抽取方法分别在训练集和测试集中随机选择 N 类关系,每个类有 K 个实例Snk作为支持集,同时,每个类随机选择Qn作 为 查 询 集 实 例,其

19、 中,Snk Qn=,n N且k K。2.2模型结构HR-DProto模型架构如图 1所示,其中包含基于BERT的文本特征表示模块、基于注意力机制和关系表征的特征选择模块、基于混合表征的动态原型网络构建模块。首先,BERT编码层将关系表述Crn、支持实例 Snk和查询实例 Qn映射成语义信息丰富的特征向量作为下一模块的输入;然后,注意力层通过对关系表述特征和支持实例特征进行语义计算,得到更能凸显关系类型的特征表示,同时通过实体提及进行实体关系表示构建局部原型zn;最后,利用基于混合表征的动态原型网络构建模块,将关系表述和实体提及作为辅助信息,分别动态构建关系表征类原型zsn和实体表征类原型ze

20、n,通过融合串联生成更具判别性的混合类原型表示,并计算查询实例与混合表征类原型的距离度量,得到关系分类结果为第n个关系的概率P。2.2.1基于 BERT的文本特征表示模块BERT17是由谷歌提出的预训练语言模型,其采 用 Transformer25的 编 码 器 结 构 作 为 特 征 提 取器,使用 MLM 和 NSP 作为预训练任务来提升模型对于文本的上下文语义和句间的理解能力,在自然语言处理下游任务中通过微调使模型获得更好的性能。将关系表述、支持实例与查询实例的文本形式转化为编码器输入的要求格式,经 BERT 映射分别得到语义信息丰富的特征向量,记作Cr、S和Q,三者具 有 相 同 的

21、维 度 表 示。以S为 例:定 义S=(s0s1sL+1),其中,L为输入文本的最大长度,l L且sl Rd,d是特征向量维度。通过实体提及的位置信息将句子表示转化为更能精准表示关系类别信息的实体关系表示,定义Se=(se1se2),se1和se2分别表示支持集中头实体和尾实体的特征向量,同理,定义Qe=(qe1qe2),qe1与qe2分别表示查询集中头实体和尾实体的特征向量。2.2.2基于注意力机制的特征选择模块对于关系抽取任务中的实例,如何使特征表示更好地体现其中的关系信息尤为重要。针对每个实例,通常某些单词对关系的表达更为关键。因此,在进行特征表示时应对关键特征赋予更高的权重,而对一些不

22、重要的特征或者无关的噪声特征减少关注度。本文通过引入注意力机制生成权重矩阵,对重要程度不同的特征进行动态选择。为了更好地凸显实例中更能表达关系信息的关键特征,引入关系表述信息作为辅助信息。关系表述信息是对该关系类型的简短的解释说明,可以更清晰地表达该关系的内在含义,如关系“member of political party”的表述为“party of which this politician is or has been a member”。为了计算关系表述信息与支持实例中每个单词的权重,本节设计了关系注意力模块,计算公式如式(1)和式(2)所示:Ank=Softmax(tanh(SnkCr

23、/d)(1)Ssnk=()AnkSnk(2)其中:Snk是支持实例的句子特征表示,n、k指第n个类的第k个实例;Cr指第n个类的关系名称为r的关系表述特征;权值矩阵Ank为支持实例中每个单词特征的权重;Ssnk为经过关系注意力机制进行关键特征选择得到的实例特征表示。采用自注意力机制计算查询实例,计算公式如式(3)所示:Qsn=Softmax(QnQTnd)Qn(3)其中:Qn为第n个类的查询实例;Qsn为经过自注意力机制计算得到的实例特征表示。图 1HR-DProto模型架构Fig.1HR-DProto model architecture652023年 8月 15日Computer Engi

24、neering 计算机工程2.2.3基于混合表征的动态原型网络构建模块与传统的原型神经网络不同,本文提出融合关系表征与实体提及的动态类原型构建方法。传统的原型神经网络在基于注意力机制和关系表征的特征选择方法的基础上,通过关系表征与支持实例语义计算得到更能突出关系类型的实例用以动态地构建关系表征类原型,动态原型网络模型的学习侧重于权重更高的实例从而减少噪声影响。实例权重矩阵的计算公式如式(4)所示:Wsk=exp()i=1d()Ssnk(AnkCr)m=1Kexp()i=1d()Ssnk(AnkCr)(4)其中:Wsk是第n个关系的第k个支持实例的权重;i表示特征向量中第i维向量;K是一类关系中

25、实例的数量。本文提出的动态类原型构建方法通过实体提及进行实例的实体关系表示,先建模实体与实体之间的联系,再构建局部类原型,根据局部原型与实体关系表示的语义距离得到权重矩阵来动态构建实体表征类原型,计算公式如式(5)和式(6)所示:zn=1Kk=1KSenk(5)Wek=exp()znSenkm=1Kexp()znSenk(6)其中:zn是第n个关系的局部原型;Senk是第n个关系的第k个支持实例的实体关系表示;Wek是第n个关系的第k个支持实例的实体关系表示权重矩阵。将关系表征类原型与实体表征类原型进行串联拼接,得到基于混合表征的动态类原型表示,计算公式如式(7)所示:zn=k=1KWskf(

26、Ssnk)k=1KWekf(Senk)(7)其中:zn是第n个类的混合类原型;是学习参数;表示连接操作。将查询实例与实体提及进行串联拼接,得到混合查询实例表示,计算公式如式(8)所示:qn=QsnQen(8)使用距离函数d(.)计算查询实例到各个类之间的距离,将查询实例q属于第n个类的概率记为P,计算公式如式(9)所示:P=exp()-d()f()qnznnexp()-d()f()qnzn(9)3实验 3.1数据集和评价指标为了验证本文融合混合表征的小样本关系抽取方法的有效性,在小样本关系抽取国际公开数据集FewRel 1.013上进行实验验证。FewRel 1.0 数据集中共有 100 个关

27、系,每个关系包含 700 个实例,训练集、验证集和测试集分别包含 64、16 和 20 个关系类别。FewRel 1.0 数据集的数据格式如表 1 所示,其中,每条数据都包含关系 ID、关系名称及其表述、实例、头/尾实体名称、位置信息等。本文采用准确率来评估模型的有效性,计算公式如式(10)所示:AAccuracy=TP+TNTP+TN+FP+FN(10)其中:TP表示样本为 Positive,预测为 Positive,预测正 确 的 个 数;TN表 示 样 本 为 Negative,预 测 为Negative,预测正确的个数;FP表示样本为 Positive,预测为 Negative,预测错

28、误的个数;FN表示样本为Negative,预测为 Positive,预测错误的个数。3.2实验设置本节介绍实验中所使用的参数,包括句子长度(Max-Length)、特 征 维 度(Hidden-Size)、权 重 衰 减(Weight-Decay)、学习率(Learning-Rate)等,参数信息如表 2所示。实验中所使用的预训练语言模型为bert-base-uncased,代码均使用 PyTorch框架实现。表 1FewRel 1.0数据集的数据格式 Table 1Data format of FewRel 1.0 datasetkey关系 ID关系名称关系表述实例头实体尾实体valueP1

29、02member of political partyparty of which this politician is or has been a memberIn,1992,her,Republican,opponent,was,real,estate,broker,Zach,Wamp,.zach wamp,Q139389,(10,11)republican,Q29468,(4)表 2参数设置 Table 2Parameters setting参数名称Max-LengthHidden-SizeWeight-DecayLearning-Rate参数值128768110-2210-566第 4

30、9卷 第 8期刘昊鑫,董超,勾智楠,等:融合混合表征的小样本关系抽取方法3.3实验结果及分析为了验证 HR-DProto 模型的有效性,本文选取以下小样本关系抽取任务基线模型进行对比:1)Proto-CNN11:该模型基于支持集实例学习度量空间,采用均值的方法计算类原型,根据查询实例与类原型的距离进行分类。2)HATT-Proto-CNN21:该模型基于混合注意力的原型网络,分别使用实例级和特征级注意力机制突出关键实例和特征。3)PAIR-BERT16:该模型将关系分类任务转化为基于 BERT 模型的句子分类任务,将查询实例与所有支持实例配对连接为一个序列对,通过 BERT序列分类判断是否为同

31、类关系。4)TD-Proto-BERT22:该模型基于协作注意力模块分别提取句子和实体的有益信息和指导信息,增强原型网络以提高关系分类准确度。5)CTEG-BERT24:该模型使用实体引导注意力机制,利用每个词与指定实体对之间的句法关系和相对位置过滤引起混淆的信息,缓解关系混淆问题。将本文提出的 HR-DProto 模型与上述基线模型在 FewRel 1.0 数 据 集 上 采 用 N-way K-shot 任 务(N=5,10;K=1,5)设置进行实验对比,以准确率作为评价指标,实验结果如表 3所示。由表 3 可知,融合混合表征的小样本关系抽取方法实验结果最优,本文 HR-DProto模型在

32、 4个任务设置下准确率均达到最高。从实验结果中可以看出,所有的模型在支持集的关系种类 N 增多或者样本数量 K 减少时准确率都会下降,这表明在小样本任务设置下,模型的性能受关系类别和样本的数量影响明显,关系种类增多或者样本数量减少都会提升任务难度,降低各模型的性能。相较于对比模型,HR-DProto 模型准确率提升显著,表明模型在引入基于混合表征的动态类原型构建模块后,可以有效缓解实例中噪声数据的影响,从而进行精准的原型建模表示,达到较好的分类效果。3.4消融实验为探索构成本文 HR-DProto 模型的子方法对实验结果的影响,设计消融实验用以验证子方法的有效性。本文共提出 2个动态原型网络构

33、建子方法用以对抗实例噪声对模型的影响,分别为基于关系表征的动态类原型构建方法 RR-DProto 和基于实体提及 的 动 态 类 原 型 构 建 方 法 EM-DProto。以HR-DProto 为基准模型,同样使用 FewRel 1.0 数据集,在 5-shot 的实验设置下观察移除子方法后实验结果的变化,实验结果如表 4所示,其中,“w/o”表示移除该方法。由表 4可得到以下验证结果:1)基于关系表征的动态类原型构建方法的有效性:在 HR-DProto的基础上,移除 RR-DProto方法后,在 5-way 与 10-way 的任务设置下,准确率分别下降1.05 和 1.71 个百分点,说

34、明基于关系表征的动态类原型构建方法可以使模型凸显噪声实例中的关键特征,并通过关系表述信息选择更具关系代表性的实例构建类原型,减少多实例下的噪声影响,提升模型的判别能力。2)基于实体提及的动态类原型构建方法的有效性:在 HR-DProto 的基础上,移除 EM-DProto 方法后,在 5-way与 10-way的任务设置下,准确率分别下降 2.01 和 4.00 个百分点,说明基于实体提及的动态类原型构建方法可以通过实体提及和局部原型进行关键实例筛选,从而精准构建关系类原型,提升模型的判别能力。4结束语 本文提出一种融合混合表征的小样本关系抽取方法,使辅助信息能被有效地利用到动态原型网络的构建

35、中,提升原型表示的精度。首先,引入特征选择模块,更好地凸显实例中表达关系信息的关键特征;然后,提出基于混合表征的动态原型网络构建方法,动态生成更具判别性的混合表征类原型,缓解部分噪声实例引起的类原型与关系类别存在偏差的问题;最后,通过在 FewRel 1.0数据集上的实验,验证所提方法在小样本关系抽取任务设置下的有效性。下一步将通过改进预训练语言模型的方式来提升本文模型在单样本甚至零样本情景下的关系抽取性能。参考文献 1 WANG H L,QIN K,ZAKARI R Y,et al.Deep neural network-based relation extraction:an overvi

36、ew J.Neural Computing and Applications,2022,34(6):4781-4801.2 LIU C Y,SUN W B,CHAO W H,et al.Convolution neural 表 3FewRel 1.0数据集实验结果 Table 3Experimental results on FewRel 1.0 dataset%模型Proto-CNNHATT-Proto-CNNPAIR-BERTTD-Proto-BERTCTEG-BERTHR-DProto准确率5-way 1-shot69.2088.3284.7688.1190.165-way 5-shot

37、84.7990.1293.2292.3895.2596.2610-way 1-shot56.4480.6374.3281.2985.2410-way 5-shot75.5583.0587.0285.9291.3394.18表 4消融实验结果 Table 4Ablation experiment results%模型HR-DProtow/o RR-DProtow/o EM-DProto准确率5-way 5-shot96.2695.2194.2510-way 5-shot94.1892.4790.18672023年 8月 15日Computer Engineering 计算机工程network f

38、or relation extractionC/Proceedings of International Conference on Advanced Data Mining and Applications.Berlin,Germany:Springer,2013:231-242.3 ZHANG D X,WANG D.Relation classification via recurrent neural network EB/OL.2022-06-10.https:/arxiv.org/abs/1508.01006.4 NAYAK T,NG H T.Effective modeling o

39、f encoder-decoder architecture for joint entity and relation extractionJ.Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(5):8528-8535.5 XUE F Z,SUN A X,ZHANG H,et al.GDPNet:refining latent multi-view graph for relation extractionJ.Proceedings of the AAAI Conference on Artificia

40、l Intelligence,2021,35(16):14194-14202.6 YE D M,LIN Y K,LI P,et al.Packed levitated marker for entity and relation extraction C/Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics(Volume 1:Long Papers).Stroudsburg,USA:Association for Computational Linguistics,2022

41、:4904-4917.7 胡晗,刘鹏远.小样本关系分类研究综述 J.中文信息学报,2022,36(2):1-11.HU H,LIU P Y.Few-shot relation classification:a survey J.Journal of Chinese Information Processing,2022,36(2):1-11.(in Chinese)8 MINTZ M,BILLS S,SNOW R,et al.Distant supervision for relation extraction without labeled data C/Proceedings of the

42、 Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP.New York,USA:ACM Press,2009:1003-1011.9 BHARTIYA A,BADOLA K,MAUSAM.DiS-ReX:a multilingual dataset for distantly supervised relation extraction EB/OL.2022-06-

43、10.https:/arxiv.org/abs/2104.08655.10 VINYALS O,BLUNDELL C,LILLICRAP T,et al.Matching networks for one shot learning EB/OL.2022-06-10.https:/arxiv.org/abs/1606.04080.11 SNELL J,SWERSKY K,ZEMEL R.Prototypical networks for few-shot learningC/Proceedings of the 31st International Conference on Neural I

44、nformation Processing Systems.New York,USA:ACM Press,2017:4080-4090.12 MUNKHDALAI T,YU H.Meta networks C/Proceedings of International Conference on Machine Learning.New York,USA:PMLR,2017:2554-2563.13 HAN X,ZHU H,YU P F,et al.FewRel:a large-scale supervised few-shot relation classification dataset w

45、ith state-of-the-art evaluation EB/OL.2022-06-10.https:/arxiv.org/abs/1810.10147.14 XIE Y X,XU H,LI J E,et al.Heterogeneous graph neural networks for noisy few-shot relation classification J.Knowledge-Based Systems,2020,194:105548.15 QU M,GAO T,XHONNEUX L P,et al.Few-shot relation extraction via Bay

46、esian meta-learning on relation graphsC/Proceedings of International Conference on Machine Learning.New York,USA:PMLR,2020:7867-7876.16 GAO T Y,HAN X,ZHU H,et al.FewRel 2.0:towards more challenging few-shot relation classification EB/OL.2022-06-10.https:/arxiv.org/abs/1910.07124.17 DEVLIN J,CHANG M

47、W,LEE K,et al.BERT:pre-training of deep bidirectional Transformers for language understanding EB/OL.2022-06-10.https:/arxiv.org/abs/1810.04805.18 SOARES L B,FITZGERALD N,LING J,et al.Matching the blanks:distributional similarity for relation learningEB/OL.2022-06-10.https:/arxiv.org/abs/1906.03158.1

48、9 PAHDE F,PUSCAS M,KLEIN T,et al.Multimodal prototypical networks for few-shot learning C/Proceedings of IEEE Winter Conference on Applications of Computer Vision.Washington D.C.,USA:IEEE Press,2021:2643-2652.20 PARNAMI A,LEE M.Few-shot keyword spotting with prototypical networksC/Proceedings of the

49、 7th International Conference on Machine Learning Technologies.New York,USA:ACM Press,2022:277-283.21 GAO T Y,HAN X,LIU Z Y,et al.Hybrid attention-based prototypical networks for noisy few-shot relation classification J.Proceedings of the AAAI Conference on Artificial Intelligence,2019,33(1):6407-6414.22 YANG K J,ZHENG N T,DAI X Y,et al.Enhance prototypical network with text descriptions for few-shot relation classification C/Proceedings of the 29th ACM Inte

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服